"Pravděpodobně za pomocí umělé inteligence, která jednomu redaktorovi pomůže vygenerovat násobně více obsahu.
Když pomineme problém kvality a budeme předpokládat, že takto vytvořený obsah bude podobně dobrý (což pravděpodobně nebude),"
On třeba nebude dobrý, ale bude dobře (a hlavně věrohodně) znějící. LLM dovedou přesvědčivě prezentovat i naprostý nesmysl. Tohle je moment, ze kterého mám obavu já. V okamžiku, kdy se použití LLM stane v redakcích běžnou praxí a souběžně se začne kvůli tlaku na úspory šetřit i na editorech, kteří by chyby včas podchytili, bude nám tu vznikat množství špičkově vypadajícího, ale fakticky chybného, braku. Braku, který ale už bude v daný moment posvěcený autoritou toho kterého média. Braku, který se postupem času posune do pozice zdroje s velkým "Z". Zdroje, ze kterého mohou a budou čerpat další a odkazovat se na něj maje v zádech autoritu daného média. A to se nebavím o nějakém cíleném klamání, ale o nepochopeních, nepřesnostech, mýlkách. Nastaví to úplně jinou informační realitu. Dočkáme se u článků v budoucnu patičky ve stylu "při přípravě textu nebyla použita AI"? A bude vůbec realistické něco takového tvrdit?
Před lety jsem narazil na jednom serveru u článku na chybnou grafiku (tuším nějaké schéma lodi, grafika patřila stejnojmenné lodi, ale o pár desítek let starší). Nahlásil jsem tu chybu a příčina byla banální. Fotobanka, ze které čerpali (a i zdroj ze kterého právě ona čerpala), použila chybný popis. Představuji se podobný typ omylů s nástupem LLM v mnohem masovějším měřítku a není to něco, co by mě těšilo.
17. 1. 2024, 12:01 editováno autorem komentáře