Tip:
Highlight text to annotate it
X
Fordító: Bálint Laza Lektor: Andi Vida
Amikor az emberek aggódnak a mesterséges intelligencia miatt,
nagyon gyakran ámokfutó robotokra gondolnak.
Ugye? A Terminátor?
Ez tényleg megfontolandó lehet,
de távoli fenyegetés.
Vagy múltból szedett metaforákkal idegeskedünk
a digitális megfigyelés miatt.
1984. George Orwell 1984-e
újra bestseller.
Remek könyv,
de nem a 21. századról szóló disztópia.
Amitől sokkal jobban kell félnünk,
nem az, hogy a mesterséges intelligencia mit fog tenni magától,
hanem hogy a hatalomban lévők mire fogják használni ezt,
hogy szokatlan, néha rejtett,
kifinomult és váratlan módokon
ellenőrizzenek és manipuláljanak minket.
A technológia nagy részét,
ami szabadságunkat és méltóságunkat veszélyezteti a közeljövőben,
olyan cégek fejlesztik,
akiknek üzleti érdekében áll megszerezni és eladni adatainkat, érdeklődési körünket
hirdetőknek és másoknak:
Facebook, Google, Amazon
Alibaba, Tencent.
A mesterséges intelligencia már az ő üzleteiket is erősíti.
És úgy tűnhet, a mesterséges intelligencia
csak egy újabb lépés az online reklámok után.
De nem az.
Kategóriaugrás.
Teljesen más világ,
és nagy lehetőségek vannak benne.
Segíthet megérteni sok terület tanulmányait és kutatásait.
Egy híres hollywoodi filozófust idézve:
„A hatalmas lehetőségek hatalmas ***ázattal járnak”
Most nézzük meg digitális életünk alapvetését, az online hirdetéseket.
Észre sem vesszük őket, nem?
Erőszakosnak, hatástalannak tűnnek.
Mindegyikünk megtapasztalta már, hogy olyan reklám követ minket a weben,
ami a kereséseink, olvasmányaink témájához kötődik.
Rákeresünk például egy pár csizmára,
ami aztán hetekig a nyomunkban jár, bármerre járunk.
Még azután is, hogy megadjuk magunkat, és megvesszük.
Hozzászokhattunk már ehhez az egyszerű, olcsó manipulációhoz.
Forgatjuk a szemünk, és azt gondoljuk, „Eh, ez nem működik.”
A digitális technológiák nemcsak reklámok,
eltekintve online felületüktől.
Ennek megértéséhez nézzünk egy példát a fizikai világból.
Tudják, hogy a szupermarketekben a pénztár közelében
nyalókák és rágógumik vannak a gyerekek szemmagasságában?
Ezt úgy tervezték, hogy sírjanak a szüleiknek,
amikor épp sorban állnak a fizetéshez.
Ez a meggyőzés architektúrája.
Nem szép, de láthatóan működik.
Ezért látjuk ezt minden szupermarketben.
Na most, a fizikai világban
ez az architektúra viszonylag korlátozott,
mert nem lehet mindent a pénztárhoz rakni, ugye?
A nyalóka meg a rágógumi mindenkinek ugyanolyan,
bár általában jobban működik
azoknál az embereknél, akik mellett kicsi síró alakok állnak.
A fizikai világban együtt élünk ezekkel a korlátokkal.
A digitális világban viszont
a meggyőzési architektúrák milliárdos nagyságrendűek lehetnek,
és megcélozhatnak, felbecsülhetnek, kiismerhetnek egyéneket,
majd egyesével
bevethetők ellenük,
rátapintva gyengeségeikre,
és bárki privát telefon-képernyőjére elküldhetők,
így a többiek nem látják.
És ettől más.
Ez csak egyetlen egyszerű dolog, amire a mesterséges intelligencia képes.
Nézzünk egy példát.
Mondjuk, repülőjegyeket akarunk eladni Las Vegasba. Jó?
A régi világban tapasztalat és feltételezések alapján
némi demográfiai célt is tippelhetnénk.
Tegyük fel, hogy mondjuk,
25 és 35 közötti férfiaknak hirdetjük meg,
vagy olyanoknak, akiknek magas hitelkeret van a kártyájukon,
vagy nyugdíjas pároknak. Nem?
Ezt tennénk a múltban.
Nagy adatmennyiséggel és gépi tanulással
ez többé már nem így működik.
Úgyhogy képzeljék el,
gondoljanak az összes adatra, amit a Facebook őriz önökről:
minden állapotfrissítés, amit valaha begépeltek,
minden Messenger-beszélgetés,
minden hely, ahonnan bejelentkeztek,
minden fotó, amit feltöltöttek oda.
Ha elkezdenek begépelni valamit, aztán meggondolják magukat, és törlik,
a Facebook azt is megtartja, és elemzi.
Sőt, megpróbálja összekötni önöket offline adataikkal.
Sok adatot vásárol adatkereskedőktől is.
Ez bármi lehet: a pénzügyi nyilvántartásuktól kezdve
a böngészési előzményeik jó részéig.
Értik? Az Államokban ezeket az adatokat rutinszerűen gyűjtik,
elemzik és eladják.
Európában ezt szigorúbban szabályozzák.
Így az történik, hogy amint
ezek a gépi tanulásos algoritmusok végigfutnak az adatokon –
ezért hívjuk tanuló algoritmusoknak –,
megtanulják megérteni azok jellemzőit,
akik korábban jegyet vettek Las Vegasba.
Amikor meglévő adatból tanulnak,
megtanulják azt is, hogyan alkalmazzák új emberekre.
Így ha új személlyel találkoznak,
be tudják sorolni hogy ő valószínűleg vesz-e jegyet Vegasba, vagy nem.
Rendben. Önök azt hiszik, ez egy ajánlat Vegasba.
Ezt figyelmen kívül hagyhatom.
A probléma azonban nem ez.
Hanem az, hogy többé
nem igazán értjük, hogyan működnek ezek az összetett algoritmusok.
Nem értjük, hogyan csoportosítanak.
Hatalmas mátrixok, több ezernyi sor és oszlop,
talán milliónyi sor vagy oszlop,
és sem a programozók,
sem senki, aki ránéz,
nem érti már a pontos működését,
még akkor sem, ha megvan az összes adat,
mint ahogy azt sem tudnák, mit gondolok éppen,
még akkor sem, ha megmutatnám az agyam keresztmetszetét.
Mintha többé nem programoznánk,
olyan intelligenciát fejlesztünk, amit nem értünk teljesen.
És mindezek csak akkor működnek, ha rengeteg adatunk van,
így arra is ösztönöznek, hogy alaposan megfigyeljenek mindannyiunkat,
hogy működhessenek a gépi tanulásos algoritmusok.
Ezért gyűjt össze a Facebook minden adatot rólunk, amit csak tud.
Az algoritmusok jobban működnek.
Nézzük még kicsit a vegasi példát.
Mi van, ha a rendszer, amit nem értünk,
rájött, hogy egyszerűbb vegasi jegyeket eladni azoknak,
akiknek bipoláris zavara éppen a mániákus szakaszba lép?
Ők gyakran lesznek túlköltekezők, kényszeres szerencsejátékosok.
Kiválaszthatja őket ennek alapján, és mi még csak nem is sejtjük.
Egyszer informatikusok körében mondtam el ezt a példát,
utána egyikük odajött hozzám.
Zavart volt, és azt mondta: „Ezért nem tudom kiadni.”
Mondom: „Mit nem tud kiadni?”
Olyan szoftvert írt, ami azt vizsgálja: megállapítható-e a mánia megjelenése
közösségi médiás bejegyzésekből a klinikai tünetek megjelenése előtt,
és kiderült, hogy igen,
a programja nagyon is jól működött,
ő pedig nem tudta, hogyan működik, vagy hogy milyen fogásra akadt.
A probléma nem oldódik meg, ha nem adja ki a szoftvert,
mert már vannak cégek,
akik fejlesztenek ilyen technológiát,
és már sok minden elérhető.
Ez ma már nem túl bonyolult.
Mentek-e már úgy a Youtube-ra, hogy csak egy videót néznek meg,
és egy óra múlva már a huszonhetediknél tartottak?
Ismerik-e a Youtube-on a jobb oldali oszlopot,
ahol ez áll: „Következő”,
és automatikusan lejátszik valamit?
Az egy algoritmus,
ami kiválasztja, hogy feltehetően mi érdekli a látogatót,
és nem biztos, hogy magunktól rátalálnánk.
Ezt nem ember szerkeszti.
Így működnek az algoritmusok.
Annak alapján, amit mi és a hozzánk hasonló látogatók megnézünk,
kiválasztja és kikövetkezteti, mi az, ami még érdekelhet minket,
miből szeretnénk még,
és ezekből többet mutat.
Jószándékú és hasznos funkciónak hangzik,
de nem mindig az.
2016-ban részt vettem az akkor jelölt Donald Trump gyűlésein,
hogy kutatóként tanulmányozzam az őt támogató mozgalmat.
Társadalmi mozgalmakat kutatok, ezért ezt is tanulmányoztam.
Aztán írni akartam valamit az egyik gyűléséről,
ezért megnéztem párszor a Youtube-on.
A Youtube fehér felsőbbrendűségről szóló videókat kezdett ajánlgatni
és automatikusan lejátszani nekem,
egyre szélsőségesebbeket.
Ha megnéztem egyet,
még szélsőségesebbet kaptam,
és azt is magától lejátszotta.
Ha Hillary Clintonról vagy Bernie Sandersről nézünk tartalmakat,
a Youtube automatikusan összeesküvés-elméleteket kezd lejátszani,
innentől már csak lejjebb van.
Önök azt gondolhatják: ez politika, de nem az.
Ez nem a politikáról szól.
Ez csak egy algoritmus, ami kitalálja az emberi viselkedést.
Egyszer megnéztem egy videót a vegetarianizmusról a Youtube-on,
a Youtube ajánlott és el is indított egy videót a vegán életmódról.
Olyan, mintha sosem lennénk elég kemények a Youtube-nak.
(Nevetés)
Szóval, mi folyik itt?
A Youtube algoritmusa szabadalommal védett,
de elmondom, mit gondolok.
Az algoritmus rájött,
ha rá tudjuk venni az embereket, hogy azt gondolják:
valami keményebbet tudunk nekik mutatni,
akkor nagyobb valószínűséggel maradnak az oldalon,
és nézik egyik videót a másik után, egyre mélyebbre merülve,
míg a Google hirdetéseket mutat nekik.
Most, hogy senkit nem érdekel a boltok etikája,
ezek az oldalak pontosan meg tudják találni
a zsidógyűlölőket,
azokat, akik szerint a zsidók paraziták,
azokat, akik kifejezetten antiszemita tartalmakat tesznek fel,
és célzott reklámokat küld nekik.
Arra is használhatják az algoritmusokat,
hogy megtalálják a hasonló közönséget,
azokat, akiknek nincs ilyen határozott antiszemita tartalom a profilján,
de az algoritmus felismeri, hogy fogékonyak lehetnek ilyen üzenetekre,
és nekik is küldi a célzott hirdetéseket.
Ez valószínűtlen példának tűnhet,
pedig valódi.
A ProPublica nyomozott az ügyben,
és rájöttek, hogy ez tényleg megtehető a Facebookon,
a Facebook még segítőkészen javaslatokat is tesz,
hogyan bővítsük ezt a közönséget.
A BuzzFeed tesztelte a Google-t, és nagyon gyorsan rájöttek,
hogy bizony rá is ugyanez vonatkozik.
És még csak drága sem volt.
A ProPublica riportere 30 dollárt költött
ennek a kategóriának a bemérésére.
Tavaly tehát Donald Trump közösségimédia-menedzsere elmondta,
hogy úgynevezett "dark postokkal" igyekeznek otthon tartani az embereket,
nem azért, hogy meggyőzzék őket,
hanem hogy egyáltalán ne szavazzanak.
És ehhez kifinomult módon állítottak be célcsoportokat,
például kulcsvárosokban, például Philadelphiában élő afro-amerikaiakat,
és mindjárt felolvasom, mit mondott pontosan.
Idézem.
"Nem nyilvános posztokat" használtak,
"ezek olvasóit a kampány szabályozta,
hogy csak azok lássák, akiket erre célzottan kiválasztunk.
Modelleztük ezt.
Drasztikusan befolyásolja az embereket a szavazásból való kimaradásra."
Mi volt ezekben a "sötét bejegyzésekben"?
Ötletünk sincs.
A Facebook nem árulja el.
A Facebook tehát algoritmus szerint rendezi a bejegyzéseket,
amiket a barátaink kitesznek, vagy az oldalakat, amiket követünk.
Nem időrend szerint jeleníti meg ezeket.
Az algoritmus elgondolása szerint olyan sorrendbe rendezi,
hogy minél több időt töltsünk ott.
Ez pedig rengeteg következményt von maga után.
Azt gondolhatjuk, hogy valaki mellőz minket a Facebookon.
Pedig lehet, hogy az algoritmus elrejti előle a bejegyzéseinket.
Az algoritmus egy részüket kiemeli, a többit eltemeti.
A kísérletek szerint
az algoritmus választásai befolyásolhatják az érzelmeinket.
De ez még nem minden.
A politikai viselkedést is befolyásolja.
2010-ben a félidős választásokon
a Facebook 61 millió amerikat tesztelt,
és ezt csak utólag mondták el.
Néhány embernek azt mutatták: "Ma vannak a választások",
ez volt az egyszerűbb,
másoknak bonyolultabbat,
azokkal a kis bélyegképekkel
a barátainkról, akik rákattintottak arra, hogy "Szavaztam".
Ez egyszerű különbség.
Értik? Csak a képek jelentették az egyetlen eltérést,
és a bejegyzést csak egyszer mutatták,
ez a kutatás szerint
340 ezer plusz szavazót jelentett
azon a választáson,
ezt a szavazólisták megerősítették.
Mázli? Nem.
Mert 2012-ben megismételték ugyanezt a kísérletet.
Ekkor
ez az egyszer megjelenített állampolgári üzenet
270 ezer további szavazót hozott.
Referenciaként, a 2016-os amerikai elnökválasztást
százezer szavazó döntötte el.
A Facebook könnyedén kikövetkezteti politikai vonzódásunkat,
akkor is, ha ezt soha nem tárjuk nyilvánosság elé.
Ezeknek az algoritmusoknak ez nem kihívás.
Mi van, ha egy platform ezzel a típusú hatalommal
úgy dönt, hogy egy jelöltet támogat egy másikkal szemben?
Honnan fogunk egyáltalán tudni róla?
Valami látszólag ártalmatlan dologgal kezdtünk –
minket követő online hirdetések –,
és máshová lyukadtunk ki.
Közösségként és állampolgárokként
többé nem tudjuk, hogy ugyanazt az információt látjuk,
vagy azt, amit bárki más lát,
és közös információs alapok nélkül,
lépésről lépésre
lehetetlenné válnak a nyilvános viták,
és ennek még csak az elején tartunk.
Ezek az algoritmusok csak Facebook like-okból
képesek kikövetkeztetni olyan jellemzőket,
mint az emberek etnikuma, vallási és politikai nézetei,
személyiségjegyei, intelligenciája, boldogsága,
függőséget okozó szerek használata,
válása, életkora, neme.
Ezek az algoritmusok képesek tüntetőket azonosítani
akkor is, ha az arcuk részben el van takarva.
Ezek az algoritmusok képesek emberek szexuális orientációját behatárolni,
csak randiprofiljuk fotójából.
Persze, ezek valószínűségi találgatások,
ezért nem lesznek 100 százalékosan pontosak,
de túl erősnek látom a technológia felhasználására irányuló kísértést,
és nem győz meg néhány hamis eredmény,
ami persze teljesen új problémahegyeket hoz létre.
Képzeljük el, mit kezdhet egy állam
ezzel a rengeteg adattal saját állampolgárairól.
Kína már használja az arcfelismerés technológiáját,
hogy azonosítson és lecsukjon embereket.
És itt a tragédia:
az önkényuralmi megfigyelés infrastruktúráját építjük
csak azért, hogy az emberek hirdetésekre kattintsanak.
És ez nem Orwell önkényuralma lesz.
Ez nem az "1984".
Ha ez az önkényuralom nyílt fenyegetéssel félemlít meg minket,
mind rettegni fogunk, de tisztában leszünk vele,
gyűlölni fogjuk, és ellenállunk.
De ha a hatalomban lévők ezeket az algoritmusokat arra használják,
hogy csendben megfigyeljenek,
hogy ítélkezzenek,
hogy előre lássák és azonosítsák a bajkeverőket és a lázadókat,
hogy a meggyőzés szerkezetét széles körben alkalmazzák,
hogy személyes, egyéni gyengeségeik és sebezhetőségeik felhasználásával
egyenként manipuláljanak egyéneket,
és ha ezt nagy léptékben végzik
privát képernyőinken
úgy, hogy még azt sem tudjuk,
mit lát a többi állampolgár és a szomszédaink,
ez az önkényuralom behálóz minket, mint egy pók hálója,
és talán észre sem vesszük majd, hogy benne vagyunk.
A Facebook piaci értéke
megközelíti a fél billió dollárt.
Mert jól működik mint meggyőzési technika.
De ennek az architektúrának a szerkezete
ugyanaz akkor is, ha cipőket adunk el,
és akkor is, ha politikát adunk el.
Az algoritmusok nem tesznek különbséget.
Ugyanazok az algoritmusok, amelyek
befolyásolhatóbbá tesznek minket a hirdetésekkel szemben,
ugyanazok szervezik politikai személyes és társadalmi információnk áramlását,
és ezen változtatnunk kell.
Kérem, ne értsenek félre,
azért használjuk a digitális platformokat, mert értékesek számunkra.
Facebookozom, hogy tartsam a kapcsolatot barátaimmal és családommal.
Írtam arról, milyen fontos a közösségi média társadalmi mozgalmainkhoz.
Azt kutattam, hogyan használhatjuk ezeket a technológiákat arra,
hogy világszerte megkerüljük a cenzúrát.
De nem azért, hogy azok, akik a Facebookot vagy a Google-t irányítják,
rosszindulatúan és szándékosan megpróbálják
egyre jobban megosztani az országot vagy a világot,
és ösztönözni a szélsőségeket.
Olvastam a sok jó szándékú kijelentést
ezektől az emberektől.
De nem a szándék, és nem a technológián dolgozók kijelentései számítanak,
hanem azok a szerkezetek, üzleti modellek, amiket építenek.
És ez a probléma lényege.
A Facebook vagy egy hatalmas, félbillió dolláros cég,
és nem működnek hirdetések a felületén,
nem meggyőzési architektúraként működik,
vagy pedig befolyásoló hatalma aggodalomra ad okot.
Vagy az egyik, vagy a másik.
Ugyanez igaz a Google-ra.
Mit tehetünk tehát?
Ez nem maradhat így.
Sajnos, nem tudok egyszerű receptet ajánlani,
mert át kell alakítanunk
a digitális technológia egész működését.
A technológia fejlesztésétől kezdve addig,
ahol a gazdasági és egyéb ösztönzők
beépülnek a rendszerbe.
Szembe kell néznünk és foglalkoznunk kell
a védett algoritmusok átláthatóságának hiányával,
a gépi tanulás homályosságának szerkezeti kihívásaival,
a rólunk válogatás nélkül gyűjtött összes adattal.
Nagy feladat áll előttünk.
Mozgósítanunk kell a technológiánkat,
kreativitásunkat,
és igen, a politikánkat,
hogy olyan mesterséges intelligenciát építsünk,
ami támogatja emberi céljainkat,
de amit emberi értékeink korlátoznak is.
Értem én, hogy ez nem lesz egyszerű.
Talán abban sem értünk teljesen egyet, hogy mit jelentenek ezek a feltételek.
De ha komolyan vesszük,
hogy ezek a rendszerek, amelyek működésétől annyira függünk,
nem látom be, hogy elhalaszthatnánk ezt a megbeszélést.
Ezek a szerkezetek
megszervezik, hogyan működünk,
és irányítják,
mit tehetünk, és mit nem.
Sok, reklámokkal finanszírozott platform
büszkén hirdeti, hogy ingyenes.
Ami ebben a környezetben azt jelenti, hogy mi vagyunk az eladott termék.
Olyan digitális gazdaságra van szükségünk,
ahol az adataink és az érdeklődési körünk
nem eladó a legnagyobb ajánlatot tevő önkényúrnak vagy demagógnak.
(Taps)
Szóval, vissza a hollywoodi idézethez:
a mesterséges intelligencia és a digitális technológia virágzásának
hatalmas lehetőségei tényleg kellenek,
de ehhez szembe kell néznünk az óriási fenyegetéssel,
nyitott szemmel, és most azonnal.
Köszönöm.
(Taps)