Alexandria Ocasio-Cortez spune că algoritmii pot fi rasisti. Iată de ce are dreptate.

Pin
Send
Share
Send

Săptămâna trecută, Reprezentanta americană, recent aleasă, Alexandria Ocasio-Cortez, a făcut titluri când a spus, ca parte a celui de-al patrulea eveniment anual MLK Now, că tehnologiile și algoritmii de recunoaștere facială „au întotdeauna aceste inegalități rasiale care se traduc, deoarece algoritmii sunt încă realizați de către ființe umane, acei algoritmi sunt încă legați de ipotezele umane de bază. Sunt doar automatizate. Și ipoteze automate - dacă nu rezolvați prejudecata, atunci doar automatizați prejudecata. "

Asta înseamnă că algoritmii, care se bazează teoretic pe adevărurile obiective ale matematicii, pot fi „rasi?”. Și dacă da, ce se poate face pentru a elimina prejudecata?

Se dovedește că ieșirea de la algoritmi poate produce într-adevăr rezultate părtinitoare. Oamenii de știință de date spun că programele de calculator, rețelele neuronale, algoritmii de învățare automată și inteligența artificială (AI) funcționează pentru că învață cum să se comporte din datele care le sunt date. Software-ul este scris de oameni, care au prejudecăți, iar datele de instruire sunt, de asemenea, generate de oameni care au prejudecăți.

Cele două etape ale învățării automate arată cum această părtinire se poate transforma într-un proces aparent automatizat. În prima etapă, etapa de formare, un algoritm învață pe baza unui set de date sau pe anumite reguli sau restricții. A doua etapă este stadiul de inferență, în care un algoritm aplică ceea ce a învățat în practică. Această a doua etapă dezvăluie prejudecățile unui algoritm. De exemplu, dacă un algoritm este instruit cu imagini doar ale femeilor care au părul lung, atunci va crede că oricine are părul scurt este un bărbat.

Google a intrat în foc în 2015 în momentul în care Google Photos a catalogat oamenii negri drept gorile, probabil pentru că acestea erau singurele ființe cu pielea întunecată din setul de antrenament.

Iar prejudecățile se pot strecura prin multe căi. „O greșeală obișnuită este formarea unui algoritm pentru a face predicții bazate pe deciziile trecute de la oameni părtinitori”, a declarat pentru Live Science Sophie Searcy, un om de știință principal de date la boot-camp-ul de formare a științei de date Metis. "Dacă fac un algoritm pentru automatizarea deciziilor luate anterior de un grup de agenți de împrumut, aș putea lua drumul ușor și să instruiesc algoritmul în deciziile trecute de la acei ofițeri de împrumut. Dar atunci, bineînțeles, dacă acei ofițeri de împrumut ar fi părtinitori, atunci algoritmul pe care îl construiesc va continua acele prejudecăți ".

Searcy a menționat exemplul COMPAS, un instrument predictiv folosit în sistemul de justiție penală din Statele Unite pentru condamnare, care încearcă să prezice unde se va produce crima. ProPublica a efectuat o analiză pe COMPAS și a constatat că, după ce a controlat alte explicații statistice, instrumentul a supraestimat riscul de recidivă pentru inculpații negri și a subestimat constant riscul pentru inculpații albi.

Pentru a ajuta la combaterea prejudecăților algoritmice, a spus Searcy Live Science, inginerii și oamenii de știință de date ar trebui să creeze seturi de date mai diverse pentru probleme noi, precum și să încerce să înțeleagă și să diminueze prejudecata încorporată în seturile de date existente.

În primul rând, a spus Ira Cohen, un om de știință al datelor companiei de analiză predictivă Anodot, inginerii ar trebui să aibă un set de pregătire cu reprezentare relativ uniformă a tuturor tipurilor de populație, dacă pregătesc un algoritm pentru identificarea atributelor etnice sau de gen. "Este important să reprezentăm suficiente exemple de la fiecare grup de populație, chiar dacă acestea sunt o minoritate din populația totală care este examinată", a spus Cohen pentru Live Science. În cele din urmă, Cohen recomandă verificarea părtinirilor pentru un set de teste care include persoane din toate aceste grupuri. "Dacă, pentru o anumită cursă, precizia este semnificativ statistic mai mică decât celelalte categorii, algoritmul ar putea avea o părtinire și aș evalua datele de antrenament care au fost utilizate pentru acesta", a declarat Cohen pentru LiveScience. De exemplu, dacă algoritmul poate identifica corect 900 din 1.000 de fețe albe, dar detectează corect doar 600 din 1.000 de fețe asiatice, atunci algoritmul poate avea o părtinire „împotriva” asiaticilor, a adăugat Cohen.

Îndepărtarea prejudecății poate fi incredibil de provocatoare pentru AI.

Chiar și Google, considerat un precursor în AI comercială, se pare că nu a putut găsi o soluție cuprinzătoare a problemei sale de gorilă din 2015. Wired a constatat că în loc să găsească o modalitate prin care algoritmii săi să distingă între oameni de culoare și gorile, Google a blocat pur și simplu algoritmii săi de recunoaștere a imaginii de la identificarea gorilelor deloc.

Exemplul Google este un memento bun că software-ul de instruire AI poate fi un exercițiu dificil, în special atunci când software-ul nu este testat sau instruit de un reprezentant și un grup divers de oameni.

Pin
Send
Share
Send