Google na blogu minulý týden napsal o souboru robots.txt, který vznikl před téměř 30 lety a který reguluje chování web crawlerů – robotů, kteří indexují obsah internetu pro vyhledávače.
Google nyní kvůli rozmachu umělé inteligenci chce robots.txt rozšířit a otevřel o tom veřejnou debatu, do které se můžete také zapojit. Půjde o to, aby autor webových stránek mohl regulovat, jak se k jeho datům bude chovat AI.
(zdroj: slashdot)