Jan Hrach: Umělá inteligence se rozhoduje na základě údajů, které jí poskytneme – neřekne si o další data, protože podle všeobecného poznání by také mohla mít vliv (ta současná AI – skutečná AI by to umět měla). Hlavní problém popsaný v článku je ale v tom, že ta umělá inteligence zpravidla nevyhodnocuje podle našeho skutečného cíle, ale podle toho, jak to vyhodnocovali dříve lidé. Takže nerozhoduje podle toho, kdo bude nejlepší zaměstnanec na dané pozici, ale podle toho, koho by jako nejlepšího asi vybrali personalisté. No a pokud personalisté vybírají podle pohlaví, bude to dělat i umělá inteligence.
Nedávat něco do modelu nestačí – jak je psáno v článku, pohlaví odhadne umělá inteligence třeba podle jména nebo podle školy, rasu odhadne podle bydliště.
Pak je samozřejmě ještě druhá úroveň toho rozhodování. Všichni víme, že křestní jméno zvolené rodiči nemůže mít přímo vliv na zaměstnání. Ale je klidně možné, že může způsobovat nějaké předsudky, které se projeví např. ve škole, dotyčný bude mít horší vzdělání – a to bude mít vliv na zaměstnání. Dovedu si představit, že něco takového mohlo po 2. světové válce fungovat se jménem Adolf. V jiných případech to tak funguje a má to významný vliv – pohlaví, rasa, etnická příslušnost… Z hlediska jedné firmy, krátkodobého pohledu a co nejrychlejšího rozhodování pak samozřejmě dává smysl přijmout člověka, který má vystudovanou školu konkrétního typu. Jenže většina absolventů takového oboru budou třeba muži – takže i ta firma bude přijímat víc mužů. Tím se ale jenom potvrzuje ten stereotyp, a spousta žen, které by jinak byly lepší než muži na té škole, se pro tu školu nerozhodnou. Takže jako společnost na tom tratíme, protože na té škole bude studovat nezanedbatelné množství lidí, kteří jsou pro daný obor horší, ale budou tam proto, že jsou muži. (V některých oborech je to i opačně, ale tenhle případ je častější.) Stereotypy často mají pozitivní zpětnou vazbu, a pak pro narovnání prostředí nestačí jenom srovnat podmínky, ale je potřeba aktivně proti těm stereotypům působit.