jj to je taky cesta. To téma článku bylo fakt trošku jiné - spíš mířené na lidi dělající datové analýzy. A tam asi nemá (ale fakt IMHO) začínat popisem NN, aktivačních funkcí, způsobu zpětného šíření, jak vypadá konvoluční NN atd. Ostatně už to tady zaznělo u Torche, ovšem na druhou stranu asi nemám problém s tím to popsat i na Pytorchi.
Za mě osobně (a skutečně bych se vás jakkoliv nerad dotknul), vůbec nemá smysl vylézat z mainstreamu, tj. Python + PyTorch + Cuda/Nvidia
Provázat PyTorch s tím, co už jste napsal:
https://www.root.cz/serialy/torch-framework-pro-strojove-uceni/
A znovu a lépe vysvětlit věci, které za to stojí.
Pan Novák si nebyl jistý, tak šel za sousedem Einsteinem a ten mu to vysvětlil. Pan Novák z toho nebyl moc moudrý, tak šel za panem Josefem Vyskočilem zvaným (Pepek vyskoč) a taky mu to moc nepomohlo. Až když je oba pozval na kávu, konečně mu to bylo jasné. Jinými slovy, opakování a jiné pohledy na věc problematiku osvětlují.
jj to dává smysl, dík
(a jen tak na okraj: v mém mainstreamu/silu lidí okolo data analýz se používá NumPy+Pandas+Scikit-learn. Po PyTorchi by asi lidi, co se kdysi učili R, dostali osypky :-) Proto asi máme jiný pohled na věc, ale jo, zkusme jít do Pytorche v dalším článku!)
29. 11. 2023, 13:17 editováno autorem komentáře
Asi takhle.
Na ESP32 ...no asi žádný velký model nikdy nenatrénuješ.
Ale ESP32 je dostatečně silná, aby s trochou hraní dokázala i poměrně komplexní modely provozovat (zase si nepředstavuj ChatGPT).
Nikdy jsem se o to nepokoušel, ale znám člověka, co upravil model rozpoznání SPZ na ESP32 a funguje mu to.
https://eloquentarduino.com/esp32-cam-image-recognition/
https://www.youtube.com/watch?v=TQBifiGnPu4
A to má to ESP32 nesrovnatelně pomalejší procesor než nějaká slušná modernější RPI (2-3-4-5) a oproti modernímu procesoru to je vůbec neporovnatelně slabší. U řady aplikací je problém právě v trénování, proto se používá to GPU trénování.