Mai multe sisteme de inteligență artificială s-au dovedit a fi rasiste

Sistemele de recunoaștere a reacțiilor umane, emoțiilor și stării de spirit, într-o formă sau alta, sunt deja utilizate în diferite companii mari. De exemplu, la IBM și Unilever, ei ajută la testarea solicitanților pentru diferite posturi, la Disney, inteligența artificială studiază emoțiile spectatorilor din sală pentru a evalua noi filme, produsele Microsoft arată reacția elevilor la prezentarea materialului educațional de către profesor . Dar recent, această zonă a fost zguduită de un scandal grav.

Orice sistem de recunoaștere a emoțiilor este format din două module. Prima este o cameră cu viziune computerizată, care analizează comportamentul uman și îi recunoaște gesturile și expresiile faciale. Al doilea modul este AI specializat, care, pe baza datelor despre acțiunile curente ale unei persoane și informații despre situație, trebuie să decidă ce se întâmplă în capul său. Pentru a evalua comportamentul, trageți concluzii cu privire la înclinațiile subiectului, verificați dacă respectă criteriile sarcinii.

La începutul iernii, cercetătorii de la Universitatea Wake Forest au publicat date despre un defect major într-un analizor de emoții similar de la Microsoft. Acest sistem, atunci când analizează expresiile faciale, a subestimat întotdeauna calificativele pentru solicitanții cu o culoare închisă a pielii. Chiar dacă ar zâmbi sincer, AI a etichetat „trișor” ar putea reduce semnificativ evaluările dezvoltării mentale a unei persoane. Într-un cuvânt, el a demonstrat un șablon aproape complet al prejudecăților rasiale, iar acest lucru nu s-a întâmplat în raport cu persoanele cu piele corectă.

Și acum, câteva luni mai târziu, probleme similare au fost găsite în multe alte sisteme de recunoaștere a emoțiilor și chiar a imaginilor oamenilor. Algoritmii eșuează cu atât mai des, cu atât tonul pielii unei anumite persoane este mai întunecat, în măsura în care AI de la bordul unor vehicule fără pilot nu percepea pietonii cu piele închisă ca ființe vii. Este puțin probabil ca aceasta să fie o glumă sau o conspirație pe scară largă a cuiva, ci mai degrabă o întrebare în colectarea de date pentru instruirea AI în faza inițială. Și asta poate fi o mare problemă.