Clanek je psan celkem zajimave, jen by klidne mohl byt delsi =)
Docela mi ale vadi takove ty czenglish slova. 'Sigmoid function' se v cestine jmenuje normalne 'sigmoida' - nevidim duvod, proc ten (pekny) nazev nepouzit. Uplne me dopalila 'backpropagace'... Tak bud 'backpropagation' nebo 'zpetne sireni', ale tohle prosim ne.
Jo jo, "backpropagace" je docela úlet, taky jsem se nad tím chvíli pozastavil, jestli to náhodou třeba nečtu špatně.. :))
Ještě jedna technická; gradient ve skutečnosti ukazuje směr nejstrmějšího _stoupání_, ne klesání, červená šipka by tedy měla být naopak, nebo by mělo být v textu řečeno, že jde o opačný směr než kam ukazuje gradient.
Dobrý den.
Myslím, že je na místě, v případě takových článků, uvádět i odkazy na literaturu,
ze kterých bylo čerpáno.
Obvykle totiž, pokud odkazy chybí, se za autora "myšlenky" považuje autor článku, což v tomto případě nehrozí.
Jinak má článek úroveň a nemám proti němu výhrady. Snad jen bych doporučil, pokud implementujete, raději sáhnout po C. Java je (byla) dosti pomalá pro algoritmus BP.
J.
"Snad jen bych doporučil, pokud implementujete, raději sáhnout po C. Java je (byla) dosti pomalá pro algoritmus BP."
Dovolím si nesouhlasit. Dělal jsem tohle jako student na vysoké v Javě (asi šest let zpátky), nijak extra optimalizace jsem nedělal a šlapalo to celkem svižně.
Dneska testujeme neuronovou síť s jednou studentkou v rámci SOČky. Napsala to v Pythonu a taky to jde.
Hm, tak nudne to neni, spis trochu nesikovne. Zobrazeni kvanta vzorecku ktere popisuji jak nastavit kterou vahu je hezke, nicmene prospesnejsi by mozna bylo ukazat jak se k tem vzoreckum doslo. Mozna by vubec stalo za to priblizit historicky vyvoj okolo neronovych siti tj. uvodni XOR "problem" (a tim i priblizit Minskeho), souvislost neronovych siti s 13 Hilbertovo problemem a Kolmogorovem, a nejake povidani kolem proc to vubec cele funguje.
Kde by se to ale podle Vás mělo zastavit? Podle mě to byl velice povedený článek, který přiblížil neuronové sítě naprostému začátečníkovi; a to také měl být (opět - podle mě) cíl.
XOR problém byl nastíněn například větou "Každý neuron rozděluje prostor na dva poloprostory." Víc nebylo potřeba. Tento problém je řešený skoro v každé publikaci pro začátečníky stejně tak jako historie a vývoj neuronových sítí.
Samozřejmě, šlo by to více rozvést, ale to by také šla myšlenka ohledně závislosti počtu skrytých vrstev na aproximaci funkce. To bychom se dostali k Cybenkovi a to už by opravdu byl 'jen' článek pro matfyzáky.