AI prejudecată schimbă viețile americane. Ce putem face despre asta?

AI prejudecată schimbă viețile americane. Ce putem face despre asta?
AI prejudecată schimbă viețile americane. Ce putem face despre asta?

Video: Vrei să emigrezi în America? 2024, Iulie

Video: Vrei să emigrezi în America? 2024, Iulie
Anonim

Imaginează-ți o lume în care algoritmii inteligenți artificial iau decizii care îți afectează viața de zi cu zi. Acum, imaginați-vă că sunt prejudiciați.

Aceasta este lumea în care trăim deja, afirmă omul de știință al datelor, doctoratul Harvard și autorul Cathy O'Neil. (Citiți partea unuia din discuțiile noastre cu Dr. O'Neil aici). Ne-am așezat cu candidatul la National Book Award pentru a afla ce putem face în legătură cu prejudecățile din epoca datelor mari. CT: AI prejudiciază?

CO: Fiecare algoritm care nu a fost corect explicit ar trebui să fie presupus a fi prejudiciat. Pentru că, ca oameni, suntem prejudiciați. Dacă recunoaștem asta și creăm acești algoritmi cu valorile și datele noastre, atunci nu ar trebui să presupunem că ceva s-a întâmplat magic pentru a face lucrurile corecte. Nu există magie acolo.

CT: De unde își obțin algoritmii datele?

CO: Depinde de algoritm. Uneori, social media, pentru lucruri precum direcționarea pe piață politică sau publicitate sau pentru colegii cu scop lucrativ și împrumuturi predatorii - dar o mulțime de date nu sunt colectate pe social media sau chiar online.

Colectarea datelor este legată din ce în ce mai mult de viața reală, cum ar fi să obții un loc de muncă, să lucrezi la jobul tău, să mergi la facultate sau să mergi la închisoare. Aceste lucruri nu sunt lucruri pe care le putem evita cu legile de confidențialitate. Sunt probleme de putere, în care persoanele vizate de algoritmi nu au putere, iar persoanele care colectează informațiile și construiesc și implementează algoritmii au toată puterea. Nu aveți niciun drept de confidențialitate dacă sunteți inculpat, nu aveți niciun drept de confidențialitate la locul de muncă și nu aveți prea multe drepturi de confidențialitate dacă solicitați un loc de muncă deoarece dacă nu răspundeți la întrebările pe care vi le-a pus viitorul dvs. angajator, atunci probabil că nu veți primi acest loc de muncă.

Ar trebui să ne gândim mai puțin la confidențialitate și mai mult la putere atunci când vine vorba de algoritmi și de răul [pe care îl pot provoca].

CT: Ce putem face pentru a îmbunătăți?

CO: Putem recunoaște că acești algoritmi nu sunt în mod perfect perfecți și le testăm pentru defectele lor. Ar trebui să avem audituri și monitorizări în curs de desfășurare - în special pentru decizii importante, cum ar fi angajarea, condamnarea penală sau evaluarea persoanelor la locul de muncă - pentru a ne asigura că algoritmii acționează așa cum le dorim, nu într-un fel discriminatoriu sau nedrept.

Image

Ailsa Johnson / © Cultură culturală

CT: Care sunt cele mai bune și mai grave cazuri pentru viitorul bazat pe date?

CO: Cel mai rău caz este cel pe care îl avem acum - că cu toții ne așteptăm ca algoritmii să fie perfecti, chiar dacă acum ar trebui să știm mai bine. Și propagăm nedreptățile și nedreptățile trecute. Și continuăm să ignorăm defectele acestor algoritmi.

Cel mai bun scenariu este faptul că recunoaștem că acești algoritmi nu sunt în mod inerent mai buni decât oamenii. Decidem ce vrem noi ca oameni, pentru ce ne străduim. Cum vrem societatea să arate și învățăm aceste valori. Dacă facem asta cu succes, acești algoritmi ar putea fi mai buni decât oamenii.

CT: Ce rol pot juca oamenii de zi cu zi?

CO: Cel mai important rol pe care îl poate juca un individ este acela de a nu avea încredere implicită în niciun algoritm. Pentru a avea o cantitate enormă de scepticism. Dacă sunteți evaluat pe un algoritm, întrebați „Cum știu că este corect, cum știu că este util, cum știu că este corect? Care este rata de eroare? Pentru cine eșuează acest algoritm? Nu reușește femeile sau minoritățile? Puneți acest tip de întrebare.

Al doilea lucru, dincolo de scepticism, este că dacă crezi că un algoritm este nedrept pentru tine sau pentru alți oameni este să te organizezi cu acei alți oameni. Un exemplu recent îl reprezintă profesorii. Modelele statistice despre profesorii cu valoare adăugată sunt generatori de numere groaznice, aproape aleatorii. Dar au fost obișnuiți să decidă ce profesori ar trebui să aibă mandatul și ce profesori ar trebui să fie concediați, în toate SUA.

Sugestia mea este ca ei să-și facă uniunea să se împingă înapoi. Și acest lucru s-a întâmplat în unele locuri. Dar este surprinzător cât de puțină rezistență a existat din cauza naturii matematice a sistemului de notare.

CT: Cum ai intrat în „date mari”?

CO: Am lucrat la Wall Street și am asistat la criza financiară din interior. Am fost dezgustat de modul în care matematica era folosită fie pentru a profita de oameni, fie pentru a păcăli oamenii. Am văzut tipul de daune care ar putea veni din minciuni matematice, ceea ce numesc „armarea matematicii”.

Am decis să mă îndepărtez de asta, așa că m-am înscris în Occupy Wall Street și am început să lucrez ca om de știință de date. Am realizat încet că am observat un hype defectuos și înșelător în jurul algoritmilor de date înșelătoare care se întâmplă și în afara Wall Street și că asta va duce la multe daune. Diferența a fost că, deși oamenii din întreaga lume au observat criza financiară, nu credeam că oamenii vor observa eșecurile acestor algoritmi de date mari, deoarece acestea se întâmplă de obicei la nivel individual.

Citiți partea unuia din discuțiile noastre cu Dr. O'Neil aici. Cartea dr. Cathy O'Neil, „Armele distrugerii matematice: Cât de mari date crește inegalitatea și amenință democrația”, este disponibilă acum.