Co vím, tak asi první malér s "diskriminujícím AI" nebyl zde zmíněný Amazon, ale právě nějaké hodnocení úvěrů a tam se právě stalo přesně to, na co se naráží. Totiž vznik "diskriminace menšiny" na základě nepřímých dat, barva pleti atd v kritériích nebyla, tomu se v dnešní době vyhýbá každý sám od sebe. Jenže se ukázalo, že "chytrá učící se AI" na podobné věci přijde celkem spolehlivě sama...
No a tady jsme v bodě, který podle mne nemá řešení... Omezovat vstupní data ještě více už moc nejde, tím se likviduje celý přínos této technologie. Nařizovat doplňková kritéria je problém u "opravdové AI", kde vlastně nevíme, podle čeho přesně rozhoduje a algoritmus se vyvíjí - snaha o vylepšení může vést k dalšímu učení a obcházení.
Přišlo by mi asi tak nejsmysluplnější nechat jet AI naplno a její výstupy pak pustit do "jednodušší AI (či dokonce prostého programu), který udělá kontrolu na "politicky citlivé klienty se špatným skóre" a pokud procento poleze nahoru, tak proces stopne a vyžádá si manuální kontrolu. Jen je tu otevřená otázka, co se stane v případě, že to procento bude tak vysoké, že se proces fakticky sesype :-(