Cum se schimbă data de viață zilnică în toată America?

Cum se schimbă data de viață zilnică în toată America?
Cum se schimbă data de viață zilnică în toată America?

Video: 27 DE HACK-URI DE CĂLĂTORIE INTELIGENTE PENTRU A VĂ REZOLVA TOATE PROBLEMELE 2024, Iulie

Video: 27 DE HACK-URI DE CĂLĂTORIE INTELIGENTE PENTRU A VĂ REZOLVA TOATE PROBLEMELE 2024, Iulie
Anonim

Ideea de „date mari” a devenit omniprezentă, dar ce este și cum se schimbă modul în care trăim? Ne-am așezat alături de omul de știință de date, de doctorat Harvard și de candidatul National Book Award, Cathy O'Neil, pentru a afla.

CT: Să începem cu elementele de bază - care este exact „datele mari”?

CO: Datele mari reprezintă o nouă abordare a prezicerii lucrurilor. Mai exact, „date mari” este utilizarea datelor colectate întâmplător - cum ar fi modul în care căutați prin browserul dvs. sau ce faceți pe Facebook - pentru a deduce lucruri despre dvs., cum ar fi ceea ce veți cumpăra sau care sunt afilierile dvs. politice. Este un mod indirect de a descoperi oamenii. De exemplu, o cameră care ne supraveghează nu întreabă „Ce faci?” - trebuie doar să vedem ce facem.

CT: Și ce este un algoritm?

CO: Algoritmii sunt calcule care [interpretează] datele adunate despre tine pentru a crea o predicție. Gândiți-vă la el ca la o ecuație matematică care încearcă să răspundă la o întrebare încadrată ca predicție, cum ar fi: „Această persoană este pe cale să cumpere ceva?” sau „Această persoană este pe cale să voteze pe cineva?”

CT: De ce aud atât de multe despre asta acum?

CO: Înainte de „date mari”, statisticienii ar face lucruri scumpe precum sondarea oamenilor pentru a-și da seama de viitor. De exemplu, a pune oamenilor întrebări directe de genul: „Pentru cine veți vota?” Acum, ne bazăm tot mai mult pe „epuizarea datelor”, ceea ce numesc datele colectate despre tine în mod constant, pentru a deduce lucruri despre tine.

Înainte de „date mari”, companiile nu aveau decât idei sălbatice. Acum, avem idei mai bune decât sălbatice. Ceea ce este surprinzător este că majoritatea algoritmilor de date mari sunt inexacte și nu există niciun motiv să crezi că au dreptate. Dar sunt mai buni decât ghicitori sălbatici. Și de aceea datele mari au decolat așa cum au fost.

CT: Dacă sunt inexacte, atunci ce reflectă?

CO: seturile de date defecte pe care le alimentăm. Algoritmii nu știu nimic dincolo de ceea ce le spunem. Deci, atunci când avem date inegale și alimentăm asta algoritmului sau date părtinitoare, va crede că aceasta este realitatea.

Image

Ailsa Johnson / © Cultură culturală

CT: Care este un exemplu real din lume?

CO: Un exemplu ar putea fi faptul că, în Statele Unite, oamenii de culoare sunt de cinci ori mai predispuși să fie arestați pentru a fuma oală decât oamenii albi. Acest lucru nu se datorează faptului că oamenii negri fumează oale mai des - ambele grupuri fumează oală la același ritm. Oamenii negri au mult mai multe șanse să fie arestați pentru asta. Dacă le înmânați unui algoritm, pe care îl facem, vom deduce în mod corect că oamenii negri sunt mult mai susceptibili, în viitor, să fie arestați pentru fumat. Și atunci va oferi oamenilor negri scoruri de risc mai mari pentru infracționalitate, care are un efect asupra condamnării penale.

Un alt exemplu este un experiment de gândire. Voi folosi Fox News, deoarece Fox News a avut erupții legate recent de o cultură internă a sexismului. Experimentul este „Ce s-ar întâmpla dacă Fox News ar încerca să folosească propriile date pentru a construi un algoritm de învățare automată pentru a angaja oameni în viitor?”

Spune că căutăm oameni care au avut succes la Fox News, de exemplu. Depinde cum ați defini succesul, dar, de obicei, te uiți la persoanele care primesc creșteri, promoții sau rămân mai mult timp. Prin oricare dintre aceste măsuri, datele ar reflecta faptul că femeile nu au succes la Fox News. Dacă este folosit ca algoritmi de angajare, aceasta ar propaga această problemă. S-ar analiza un grup de solicitanți și s-ar spune „Nu vreau să angajez nicio femeie, pentru că nu au succes aici. Nu sunt angajări bune. Și nu trebuie doar să fie Fox News - fiecare cultură corporativă are prejudecăți. Când alimentați date despre un algoritm, prejudecata algoritmului propagă atunci. Continuă să consolideze prejudecățile care există deja în societate.

CT: Prejudiciile sunt intenționate?

CO: Nu cred că oamenii de știință de date încearcă să creeze algoritmi sexisti sau rasisti. Dar algoritmii de învățare automată sunt excepțional de buni la preluarea tiparelor relativ nuanțate, apoi la propagarea acestora. Nu este ceva ce oamenii de știință fac în mod intenționat, dar este totuși părtinire.

CT: Ce rol joacă algoritmii inexacti în viața noastră de zi cu zi?

CO: Sunt folosite în tot felul de decizii pentru viața oamenilor - de la admitere la facultate până la obținerea unui loc de muncă.

Există algoritmi care decid modul în care poliția va face cartierele, precum și algoritmi care decid modul în care judecătorii vor condamna inculpații. Există algoritmi care decid cât de mult veți plăti pentru asigurare sau ce tip de TAE [rata dobânzii] primiți pe cardul dvs. de credit. Există algoritmi care decid modul în care lucrați la locul de muncă, care sunt utilizați pentru a determina creșterea salariilor. Există algoritmi la fiecare pas al drumului, de la naștere până la moarte.

CT: Deci unde ne lasă asta?

CO: Am sărit în era de date mari și am aruncat algoritmi la fiecare problemă pe care o avem, presupunând că acești algoritmi trebuie să fie mai corecți decât oamenii - dar de fapt sunt la fel de nedrept ca oamenii. Trebuie să ne descurcăm mai bine.

Faceți clic aici pentru a citi a doua parte a interviului nostru cu Dr. O'Neil. Cartea ei, Armele distrugerii matematice: Cât de mari date cresc inegalitatea și amenință democrația este disponibilă acum.