Myslim, ze Mikolov zapomel na ten narust vypoctoveho vykonu za poslednich 5 let s GPU... Pro Word2Vec, kterej vykoumal a publikoval, a kde se vyuzivaj RNN, ktere se tezko uci a ztraci gradienty, to mozna az takovy dopad nema, ale pro konvoluce je to uplne neskutecny, az tak, ze NVidia ma samoridici auto jenom na jednoduche CNN, Baidu ma supr rozeznavani reci, lidi muzou delat real-time Snapchat filtry pres CNN a menit herce ve filmech po par hodinach treninku. Tohle otevira mnozstvi aplikaci, co predtim neslo delat. Taky pro text, I kdyz je tam narust efektivity mozna jenom 10% naproti klasickym metodam (pricemz rozeznavani obrazu slo z 55% na 95%), tak to taky otevira dalsi moznosti, co se tyce kuprikladu automatickeho zpracovani mailu, firemni korespondence, detekce urgence ze sentimentu atd. A dalsi odvozene techniky jako Deep Reinforcement Learning mohou nahradit rozhodovaci cast, ktera je obecne pres samotny Deep Learning prabidna. A jasne, ze je kolem toho mnozstvi hype, jako kolem blockchainu nebo AR/VR.
> kde se vyuzivaj RNN, ktere se tezko uci a ztraci gradienty
Nevyřešilo se tohle příchodem gated cells? (LSTM, GRU)
> Baidu ma supr rozeznavani reci
Aktuálně má arXiv výpadek !!!, ale mně to přijde rekurentní.
Výpočetní výkon vás sice posune, ale má to limit, přes který se, bez nových poznatků, nedostanete. To je přesně současný stav - vše na čem jsou pokusy s AI založeny už tady bylo v 80. létech. Pořád je to jen mechanická emulace, která se dá užitečně použít k řešení dílčích úkolů a asi je to tak dobře. Snažit se o jakési umělé vědomí je možná blbost. K čemu by to bylo dobré?
No tak šlo by to použít třeba na nějaké složitější úkoly. Třeba na opravu písemek osmáků. Ne nějak mechanicky, ale inteligentně: "Výsledek máš špatně, ale šel jsi na to dobře, jen ses seknul v násobení. To si ještě doma procvič." Nebo třeba vysvětlování učiva matfyzákům. "Hele, siri, já nechápu tenhle krok v důkazu, jak to mohl pak profesor takhle zjednodušit?" A siri by řekla: "Nastav mi to trochu líp na kameru, já to tahle nepřečtu... Aha. Ty ses v prváku na podzim moc neučil co? To je přece přesně Heineho definice limity."
K tomuhle máme ještě HODNĚ daleko.
Rozdíl v komplexitě těch problémů je však naprosto nesrovnatelný. Když byl zahájen Human Genome Project, vlastně jsme všechno potřebné uměli. Jen to byla neskutečně velká hromada rutinní práce, která stála hromadu peněz. Samozřejmě, během projektu jsme se to naučili dělat mnohem lépe. Ale ten princip, chceme přečíst sekvenci písmenek a víme jak na to, ten se nezměnil.
Pochopit mozek je něco jiného. Vlastně nevíme, jak funguje. Známe některé dílčí procesy, ale v podstatě zatím ani neexistuje shoda na tom, jak hluboko v něm jsou inteligence a paměť uloženy. Někdo si myslí, že na úrovni neuronové sítě, někdo, že hluboko v molekulární struktuře neuronů.
Pokud bys chtěl srovnávat pochopení mozku s lidským genomem, muselo by jít o pochopení toho genomu. Tedy schopnost nikoliv číst sekvenci, ale chápat proč je ta sekvence taková, jaká je a co se stane, když ji změníme tak nebo onak. A do toho máme sakra daleko, známe jen pár střípků.
Problém je, že se to zkoumá ze špatné strany. Pořád se ptáme, jak funguje mozek. Ale málokdo se zeptá na otázku, proč vlastně funguje? Zkoumáme souvislosti mezi vjemy a příkazy. Přitom to je to méně důležité, protože tohle dokážeme naprosto spolehlivě simulovat. Neuronové sítě máme zmáknuté a není pro nás problém sestavit umělý mozek. Jenže ten nebude nic dělat. Dokud nezjistíme proč, tak je výzkum typu "jak udělat co nejsložitější umělý mozek" bezpředmětný.
Chcete-li to ještě jinými slovy: utápíme moře energie ve výzkumu toho, jak se mozkem šíří elektické signály a nervové vjemy. Přitom neméně důležitým dílem skládanky je i chápání hormonů a jiných podobných procesů. Dnes skoro každý ví, že serotonin je hormonem štěstí. Ale proč a jak to dělá? Co je adrenalin víme, ale jak funguje? Proč lezeme na lyže a jezdíme z kopce, když to je z pohledu inteligence naprostý nesmysl a dokonalý důkaz toho, že člověk inteligenci nemá? Dokud zkrátka nepochopíme, proč hmyz vyhledává květy a pije z nich nektar, tak je snaha o vytvoření modelu jeho nervové soustavy marná. Co z pohledu mozku znamená "příjemné" a co ho vede k tomu, aby to chtěl zažít znovu? Proč se mozek brání bolesti, když je to jen signál jako každý jiný?
Umělá inteligence musí být vybudována od základů, které jí budou dávát motivaci. My víme, co to je bolest. A dokážeme popsat i co se děje v mozku. Ale naprosto netušíme, proč nám bolest vadí. Výsledkem snahy o umělou inteligenci je pak automat, který sice vyhodnotí, že "došlo k bolesti", ale je to pro něj jen číslo na některém ze vstupů. Prostě sepnul koncový spínač, no a co? Bez pochopení toho, jak vlastně mozek zpracovává "příjemné" a "nepříjemné", nemáme šanci se posunout dál. My sice můžeme automatu říci, zda uspěl nebo neuspěl, ale dokud to pro něj nic neznamená, tak stagnujeme.
V 80-letech byla matematika neuronovych siti jz v pohode, problem byl, ze nikdo nebyl zchopen natrenovat vic, nez 2-3 vrstvy. To se zmenilo objevem ReLU, pak drop outy, pak se to vylepsilo max poolingem, globalnim prumerovacim poolingem, a ted mame resnety s 1000-vrstvama. No a to vse jde pocitat jenom diky 5,000 stream procaku na GPU a nekdo prisel na to, jak tam delat efektivne backpropagaci kolem 2005. Takze ten vypocetni vykon je hodne dulezity v tom progresu, co vidime poslednich 5 let.
Můj psychiatr by si troufl tvrdit, že víme, že netkví. My, co mu procházíme ordinací, tam nejsme kvůli poruše neuronové sítě. A prášky co bereme (ony to nejsou léky, neléčí) neřeší neuronovou síť, ale chemii. Lidský mozek se každou sekundou rekonfiguruje. Není to jen o tom, zda spoj dvou neuronů existuje nebo ne, ono je to i tom, zda je ten spoj právě aktivní. A to se s každou vteřinou mění. Když na vás teď někdo bafne, tak prostě máte rázem jinak fungující neuronovou síť. Kouzlo bude v tom proč, kdy a jak se ta síť mění.
https://cs.wikipedia.org/wiki/Kyselina_gama-aminom%C3%A1seln%C3%A1
https://en.wikipedia.org/wiki/Neuromodulation
To ani nahodou. Co umime jakz-takz napodobit jsou nektera casti vizualniho kortexu, a i to jenom hodne hodne zjednodusene. V realu neuron ma vicero vstupu/vystupu, dela lokalni operace s proteiny, co vypadaj jako vypocty, ma sileny presun iontu pres membranu, nektere neurony jsou hodne dlouhe, proste vime toho pramalo. Ale i s tim malem, co mame v deep learningu, toho jde prekvapive hodne.