Išankstinis nusistatymas daro įtaką Amerikos gyvenimui. Ką mes galime su tuo padaryti?

Išankstinis nusistatymas daro įtaką Amerikos gyvenimui. Ką mes galime su tuo padaryti?
Išankstinis nusistatymas daro įtaką Amerikos gyvenimui. Ką mes galime su tuo padaryti?

Video: Zeitgeist: Moving Forward (2011) 2024, Liepa

Video: Zeitgeist: Moving Forward (2011) 2024, Liepa
Anonim

Įsivaizduokite pasaulį, kuriame dirbtinai intelektualūs algoritmai priima sprendimus, turinčius įtakos jūsų kasdieniam gyvenimui. Dabar įsivaizduokite, kad jie yra nusistatę.

Tai yra pasaulis, kuriame jau gyvename, sako duomenų mokslininkė, Harvardo mokslų daktarė ir autorė Cathy O'Neil. (Perskaitykite pirmąją diskusijos dalį su dr. O'Neil čia). Susėdome su Nacionalinės knygos apdovanojimų nominacija, norėdami sužinoti, ką galime padaryti dėl išankstinio nusistatymo didžiųjų duomenų eroje. CT: Ar AI pažeidžiamas?

CO: Visi algoritmai, kurie nebuvo aiškiai padaryti sąžiningi, turėtų būti laikomi pažeidžiamais. Nes kaip žmonės mes esame nusistatę. Jei mes tai pripažintume ir kuriame šiuos algoritmus su savo vertybėmis ir savo duomenimis, neturėtume manyti, kad kažkas stebuklingai nutiko, kad viskas bus teisinga. Ten nėra jokios magijos.

KT: Kur algoritmai gauna duomenis?

CO: Tai priklauso nuo algoritmo. Kartais socialinė žiniasklaida, pavyzdžiui, politinės rinkos taikymas ar reklama, pelno siekiančios kolegijos ir grobuoniškas skolinimas, tačiau didelė dalis duomenų nėra renkama socialinėje žiniasklaidoje ar net internete.

Duomenų rinkimas vis labiau susijęs su realiu gyvenimu, pavyzdžiui, gauti darbą, dirbti savo darbą, eiti į kolegiją ar eiti į kalėjimą. Tai nėra dalykas, kurį galime apeiti privatumo įstatymais. Tai galios klausimai, kai žmonės, kuriems taikomi algoritmai, neturi galios, o žmonės, kurie renka informaciją ir kuria bei diegia algoritmus, turi visą galią. Jei esate baudžiamasis kaltinamasis, neturite jokių privatumo teisių, darbe neturite jokių privatumo teisių ir, jei kreipiatės dėl darbo, privataus gyvenimo teisės nėra labai pažeistos, nes Jei neatsakysite į klausimus, kuriuos uždavė būsimas darbdavys, greičiausiai negausite darbo.

Turėtume mažiau galvoti apie privatumą ir daugiau apie galią, kai kalbama apie algoritmus ir žalą, kurią jie gali sukelti.

CT: Ką galime padaryti, kad tai pagerėtų?

CO: Mes galime pripažinti, kad šie algoritmai iš prigimties nėra tobuli, ir išbandyti juos dėl trūkumų. Turėtume nuolat audituoti ir stebėti - ypač priimdami tokius svarbius sprendimus kaip įdarbinimas, baudžiamasis nuosprendis ar vertinant žmones jų darbe - kad įsitikintume, jog algoritmai veikia taip, kaip mes norime, o ne kažkokiu diskriminaciniu ar nesąžiningu būdu.

Image

Ailsa Johnson / © kultūros kelionė

KT: Kokie yra geriausi ir blogiausi scenarijai duomenų pagrindu sukurtai ateičiai?

CO: Blogiausias scenarijus yra tas, kokį turime dabar - kad visi aklai tikimės, kad algoritmai bus tobuli, net jei dabar turėtume žinoti geriau. Ir mes skleidžiame praeities neteisybes ir nesąžiningumus. Ir mes toliau ignoruojame šių algoritmų trūkumus.

Geriausias scenarijus yra tai, kad mes pripažįstame, kad šie algoritmai iš prigimties nėra geresni už žmones. Mes nusprendžiame, ko norime kaip žmonės, ko mes siekiame. Kaip norime, kad visuomenė atrodytų, ir mokome tas vertybes. Jei tai padarysime sėkmingai, šie algoritmai gali būti geresni nei žmonės.

CT: Kokį vaidmenį gali atlikti kasdieniai žmonės?

CO: Svarbiausias vaidmuo, kurį gali atlikti individas, - netiesiogiai nepasitikėti jokiu algoritmu. Turėti nepaprastai daug skepticizmo. Jei esate vertinamas pagal algoritmą, paklauskite „Kaip aš žinau, kad tai teisinga, kaip aš žinau, kad tai naudinga, kaip sužinoti, ar jis tikslus? Koks klaidų lygis? Kam šis algoritmas nepavyksta? Ar tai nepavyksta moterims ar mažumoms? “ Užduok tokį klausimą.

Antras dalykas, be skepticizmo, yra tas, kad jei manote, kad algoritmas yra nesąžiningas jūsų ar kitų žmonių atžvilgiu, turite susitarti su tais kitais žmonėmis. Nesenus pavyzdys yra mokytojai. Statistiniai mokytojų, sukuriančių pridėtinę vertę, modeliai yra siaubingi, beveik atsitiktinių skaičių generatoriai. Tačiau jie buvo naudojami nuspręsti, kurie mokytojai turėtų būti atimti iš pareigų, o kokie mokytojai turėtų būti atleisti iš darbo visoje JAV.

Aš siūlau jiems susivienyti, kad jie susitrauktų. Kai kuriose vietose taip nutiko. Tačiau stebina, koks mažas pasipriešinimas buvo dėl balų sistemos matematinio pobūdžio.

CT: Kaip jūs įsitraukėte į „didelius duomenis“?

CO: Aš dirbau Wall Street'e ir buvau finansų krizės liudininkas iš vidaus. Man buvo apmaudu dėl to, kaip matematika buvo naudojama tiek norint pasinaudoti žmonėmis, tiek kvailinti. Mačiau, kokią žalą gali padaryti matematiniai melai, kuriuos aš vadinu „matematikos ginklavimu“.

Aš nusprendžiau nuo jo atsitraukti, todėl įstojau į „Occupy Wall Street“ ir pradėjau dirbti duomenų žinovu. Pamažu supratau, kad aplink klaidinančius duomenų algoritmus, vykstančius ir už Volstryto, matėme ydingą ir klaidinančią žinią, ir tai padarė didelę žalą. Skirtumas buvo tas, kad nors žmonės visame pasaulyje pastebėjo finansinę krizę, nemaniau, kad žmonės pastebės šių didžiųjų duomenų algoritmų nesėkmes, nes dažniausiai jie nutinka individualiai.

Pirmąją mūsų diskusijos su gydytoju O'Neiliu dalį skaitykite čia. Dabar yra dr. Cathy O'Neil knyga „Matematikos sunaikinimo ginklai: kaip dideli duomenys padidina nelygybę ir kelia grėsmę demokratijai“.

Populiarios 24 valandų