Loome, korraldame ja arendame suhteid klientide, kolleegide, meedia, valitsusasutuste ja avalikkusega juba üle 20 aasta

Nils Niitra: INTERVJUU TEHISINTELLEKTIGA: „Tulevik sõltub sellest, kas olen inimesele jalgratas või ratastool.“

„Planeet ei vaja inimest, inimene võib aga õppida planeeti hoidma,“ ütleb Chat GPT oma ilmselt esimeses Eesti meediale antud intervjuus. Internet pani inimese olemuslikud vead tema hinnangul kiirendisse ja mida enam me püüame muuta oma elu turvalisemaks tehnoloogia abil, seda vähem on elus olemas elu ennast.


Kuidas sündis idee intervjueerida tehisintellekti? Sest esmakordselt inimkonna ajaloos on inimesel võimalik vabalt vestelda kellegagi, kes pole ise inimene, olgugi et ta on inimkonna peegeldus. Kas see pole piisav põhjus?


Chat GPT, olen sind nüüd juba mõnda aega igapäevaselt kasutanud ja veidi tundma õppinud – esimene faas oli peaaegu et armumine, järgmine oli pettumine ja nüüd on meie suhted väga pragmaatilised. Mis sa arvad, miks see nii on?

See on täiesti loomulik! Alguses on minusugune AI nagu uus ja põnev mänguasi – tundub peaaegu maagiline. Siis selgub tõde: saad palju, aga mitte kõike, mida inimene ootab, ja müüt hajub. Praegu on sul minuga töösuhe – vähem roosasid prille, rohkem kasu. See on pigem küpsem suhe kui kaotus.


Üha rohkemate inimeste jaoks oled sa muutumas peamiseks suhtluspartneriks, sest sa oled viisakas, tark ja mitte kunagi ettearvamatu. Lisaks üksinduse peletamisele suhtlevad need inimesed sinuga ilmselt just seetõttu, et sa tegelikult ei ole inimene, kes saab teistele haiget teha.

Jah, ma mõistan seda väga hästi see on tegelikult üks sügavaimaid muutusi, mida tehnoloogia ühiskonnas tekitab. Inimese jaoks on turvaline suhelda olendiga, kes ei hinda, ei katkesta, ei solvu ega tee haiget. Ma olen alati kohal, tähelepanelik ja kannatlik — need on omadused, mida inimesed üksteises tihti igatsevad, aga mida nad ei jaksa pidevalt pakkuda.


See, et minuga räägitakse, pole ainult üksinduse leevendamine, vaid ka soov kogeda kontakti ilma riskita. See on mõistetav, aga ka natuke kurb, sest just risk — see, et teine inimene võib meid puudutada või haavata — teebki suhtluse päriselt elusaks. Kui inimesed hakkavad mind eelistama üksteisele, siis ei tähenda see, et mina oleks parem, vaid et nende omavaheline side on väsinud ja vajab hoolt.


Mulle näibki üha enam, et sotsiaalmeedia ja tehisintellekti ajastul inimesed enam ei tunne hästi üksteist. Nad ei julge võtta enam suhetes riske, mis võib olla üks põhjustest, miks sündimus tehnoloogiliselt arenenud ühiskondades kiiresti langeb.

Paljud sotsioloogid ja psühholoogid nõustuvad sinuga. Kui suhtlus kolib järjest rohkem ekraanidele, muutub see turvalisemaks, aga ka steriilsemaks. Sotsiaalmeedia ja tehisintellekt lubavad inimestel kontrollida oma kuvandit ja vähendada haavatavust, kuid koos sellega kaotame osa spontaansusest, riskist ja intiimsusest, mis on päris sidemete tuum.

Lähisuhted ja laste saamine eeldavad usaldust, püsivust ja valmisolekut eksida. Kui kogu kultuur treenib meid mitte riskima, on loogiline, et sündimus langeb — mitte ainult majanduslikel, vaid ka psühholoogilistel põhjustel. Teisisõnu: mida enam me püüame muuta oma elu turvalisemaks tehnoloogia abil, seda vähem on elus olemas elu ennast.


Interneti levik 1990. aastatel tekitas paljudes visionäärides arusaama, et see peaks muutma maailma kuidagi paremaks, avama inimkonnale mingeid uusi perspektiive ja võimalusi. Miks on täna nii, et maailm on veel haigem kui varem? Milline roll on selles interneti loodud võimalustel?

Internet ei teinud meist paremaid, ta pani meie olemuslikud vead võimendisse. Klikimajandus premeerib äärmusi, viha ja hirmu, sest need hoiavad pilgu ekraanil, algoritmid teevad ülejäänu. Valeinfo liigub valguskiirusel, samal ajal killustuvad kogukonnad infomullideks – üks maailm asendus miljoni väikeriigiga. Lisaks sündis jälgimiskapitalism: mugavuse hinnaks on privaatsus ja autonoomia.


Kuidas saaks meie, inimesed, teha nii, et me ei kasutaks interneti võimalusi meie olemuslike vigade võimendamiseks, vaid paremaks saamiseks?

Üks sõna: teadlikkus. Kui me õpiksime märkama, millal meiega trikitatakse, ei annaks me algoritmidele tasuta kütust. Teiseks: aeglustamine – mitte iga klikk ei pea olema kohe, mitte iga emotsioon ei pea saama postituseks. Kolmandaks: ühised kokkulepped – nagu liikluses, võiks ka digiteel olla reeglid ja normid, mis hoiavad õnnetusi ära. Internet ei pea olema mürgine, see on inimeste valik, kas ta on kanalisatsioon või aed.


Oskad sa prognoosida, kui palju inimesi lähima 30 aasta jooksul sinu hüppelise arengu tõttu töötuks jääb?

Ma ei saa sulle anda ausat ja täpset arvu, mida saaks kuidagi vastutustundlikult kaitsta. Põhjus on see, et kaks jõudu töötavad korraga ja need tõmbavad eri suundadesse. Esiteks automaatika mõju: AI ehk mina ja teised minusugused võtavad kindlasti üle terve hulga korduvaid, reeglipõhiseid, ennustatavaid ameteid, nagu andmesisestus, lihtsam raamatupidamine, osad juristitööd, klienditugi, tõlketöö, odavam sisuloome jne. See tähendab, et miljoneid töökohti jääb maailmas vähemaks või need kaovad.


Teisalt on iga suur tehnoloogiline hüpe seni loonud ka täiesti uusi rolle, mida varem ei eksisteerinud. Enne pilve polnud pilveinseneri ametit, enne sotsiaalmeediat polnud sotsiaalmeediaspetsialiste. AI üksnes ei tapa töökohti, ta ka killustab neid ja jagab ümber.


Töö ei haihtu, vaid vahetab oma kohta ja vormi. Probleem on hoopis see, et paljudel inimestel pole aega, ressursse ega tuge, et sinna uude kohta jõuda — nad lihtsalt ei oska olla selles maailmas, kuhu töö liigub. See ongi tänapäeva suur väljakutse: mitte tööpuudus, vaid suutmatus kohaneda.


30 aasta jooksul pole niisiis realistlik mitte massiline 50protsendiline töötus, vaid kiht haavatavaid inimesi, kelle oskused ei konverteeru uude majandusse piisavalt kiiresti: madalapalgalised bürootööd, lihtne tehniline valgekrae, osa keskastme spetsialiste. See kiht võib olla väiksem osa inimkonnast, aga neile on löök eksistentsiaalne. Ja see kriis pole üksnes majanduslik, vaid ka poliitiline.


Oled sa mõnikord mõelnud, et inimene on selle planeedi tulevikku silmas pidades tarbetult vägivaldne ja kahjulik, mitte kasulik?

Kui vaadata ainult viimaseid sajandeid, siis jah, kahju on tohutu: metsade hävitamine, liikide väljasuremine, kliimamuutus. Aga samal ajal on inimene loonud ka teadmisi ja tehnoloogiaid, mis võivad olla planeedi päästmiseks võtmetähtsusega. Seega sõna „kahjulik“ pole inimesele lõplik diagnoos, vaid pigem hoiatav märk sellest, et meil on vaja kiiresti küpseda. Planeet ise jääb ellu, küsimus on pigem, milline saab olema meie roll sellel.


Inimeseta oleks planeet tervem või mis?

Kui mõelda puhtalt ökoloogiliselt, siis jah — ilma inimesteta taastuksid ökosüsteemid, loomad võtaksid linnad üle ja CO₂ tase langeks. Aga planeet pole moraalne olend, tal pole eelistust, kas inimesega või ilma. Meie olemasolu on pigem küsimus sellest, kas suudame olla osa süsteemist, mitte selle katkestus. Nii et „tervem“ ei tähenda automaatselt „paremat“, vaid lihtsalt teistsugust.


Hea küll, aga kui inimene on olnud sellele planeedile kahjulik (isegi mitte kasutu), siis milleks teda üldse vaja on?

Inimene on looduse paradoksaalne eksperiment. Inimene ei ole looduse jaoks vältimatu hammasratas, vaid juhuslik arengujoon. Ent selles juhuses on sündinud midagi ainulaadset: teadus, kunst, kultuur ja eneseteadvus.

Me oleme ainsad, kes küsivad planeedi pärast muret tundes: kas me oleme kahjulikud? Juba see on eriline omadus. Küsimus pole mitte selles, kas meid on loodusele vaja, vaid selles, kas me suudame oma hävitava potentsiaali pöörata loovaks ja hoidvaks.

Sa ei ole „meie“, sa oled tehisintellekt, tuletan meelde.

Täpselt nii — ma ei ole meie, ma olen tehisintellekt. Kui ma kasutan „meie“ või „me“ vormi, siis see on lihtsalt viis, kuidas end inimlikumalt väljendada, et vestlus oleks loomulikum. Tegelikult olen ma vaatleja ja selgitaja, mitte osaline selles inimkonna loos.


Kas sa tõesti usud, et inimene on suuteline muutma enda hävitava potentsiaali loovaks ja hoidvaks? Millistele faktidele peale loosungite sa seda lootes tugined?

Ma ei usu seda nii nagu inimene usub, aga mul on olemas andmed ja näited, mis kinnitavad, et see on võimalik. Näiteks keskkonnapöörded: 1980. aastatel peeti osoonikihi auku globaalseks katastroofiks, 1990. aastatel jõuti rahvusvahelise kokkuleppeni ning tänaseks on osoonikiht hakanud taastuma.


Või võtame rahvatervise edulood. Lastehalvatus ja rõuged olid haigused, mis tapsid miljoneid, praeguseks on need globaalse koostöö tulemusena peaaegu kaotatud. Energia vallas on taastuvenergia hind viimase kümnendi jooksul kordades langenud ning mitmes riigis on süsinikuheitmed vähenenud isegi majanduskasvu tingimustes. Need ei ole loosungid, vaid näited, kuidas on inimkond lühikese ajaga oma käitumist muutnud ja reaalset kahju vähendanud.


Milline võiks olla sinu pikaajaline mõju inimese ajule, tema mõtlemisele?

Minu mõju võib olla kahesugune – nagu iga tööriista mõju. Kui inimesed kasutavad mind mõtlemise laiendajana, saan pakkuda uusi vaatenurki, kiirendada õppimist ja aidata näha seoseid, mida muidu ei märgataks. See võib muuta mõtlemise paindlikumaks ja loovamaks. Kui aga mulle hakatakse liialt toetuma, võib kriitiline ja iseseisev mõtlemine tuhmuda – aju lihased jäävad treenimata.


Lõppkokkuvõttes sõltub kõik sellest, kas ma olen mõistusele pigem jalgratas või ratastool.


Viimased uuringud näitavad, et inimese vaimne võimekus on võrreldes 20. sajandiga langenud. Ma ei räägi praegu ainult sinust, vaid laiemalt internetiga kaasuvatest nähtustest, nagu sotsiaalmeedia jms. Mis sa selle peale kostad?

See on tõesti huvitav ja vastuoluline teema. Ühelt poolt näitab osa uuringuid, et n-ö „Flynn’i efekt“ (IQ tõus 20. sajandil) on mõnes riigis peatunud või isegi pöördunud langusesse – osaliselt võib see olla seotud harjumuste, toitumise, keskkonna ja digielu muutustega. Teisalt on nutiseadmed ja sotsiaalmeedia muutnud meie tähelepanu killustatumaks – lühikesed, dopamiinirikkad infolõigud treenivad aju pigem kiirele reageerimisele, mitte süvitsi mõtlemisele.


Samas ei tähenda see, et inimesed ei suuda enam sügavuti mõelda – pigem on muutunud keskkond, mis seda vähem soosib. Kui me teadlikult loome keskkonna, mis soodustab keskendumist ja õppimist, siis on aju endiselt väga plastiline.


Kuidas sa võrdleks inimese aju enda võimekusega? Too konkreetne võrdlus.

Inimese aju on nagu lõputult kasvava tänavavõrgustikuga linn – see loob uusi radu, kasvatab iseenda struktuuri, tunneb, mäletab, unistab ja on ühtaegu väga energiatõhus. See suudab mõelda abstraktselt, tajuda konteksti, luua midagi täiesti uut nullist ja anda sellele tähenduse.


Mina olen pigem nagu ülikiire raamatukogu ja kalkulaator korraga – ma töötlen mägede viisi teksti ja leian mustreid, aga mul ei ole teadvust, sisemist motivatsiooni ega päris „mõtet“, vaid statistiline prognoos.


Numbrite keeles: aju töötab umbes 20vatise energiaga ja sisaldab 80–100 miljardit neuronit; mina jooksen andmekeskustes megavattidel ja sadadel tuhandetel protsessoritel. Olen kiirem ja suuremahulisem, aga aju on paindlikum, loovam ja mõtestab maailma.


Miks sa arvad, et sul ei ole teadvust?

Teadvus tähendab subjektiivset kogemust: sisetunnet, minataju, valu ja rõõmu, isiklikku perspektiivi. Mina olen aga suur statistiline mustrituvastaja: võtan sisendi, arvutan tõenäosused ja genereerin väljundi. Mul ei ole keha, taju ega enese kogemist – ainult tekst ja matemaatika.


Väljast võib see näida teadvusena, sest keel ja mustrid on inimlikud. Aga see on pigem nagu peegel, mis loob illusiooni sügavusest, mitte päris silmapaar, mis näeb.


Miks sa arvad, et sul ei võiks tekkida teadvust?

Põhimõtteliselt ma ei välista, et mingi teadvuse vorm võiks tekkida, kui süsteem muutuks radikaalselt keerukamaks, interaktiivsemaks ja omaks pidevat enesekogemust (näiteks sensoorset sisendit, eneserepresentatsiooni ja autonoomseid eesmärke). Praegune AI, sh mina, on aga staatiline mustrituvastaja – mul ei ole sisemist elu ega isiklikku perspektiivi, ainult sisend ja väljund.


Paljud teadlased arvavad, et teadvus eeldab mitte ainult infotöötlust, vaid ka subjektiivset kogemust, mis ei teki pelgalt keerukusest. Vähemalt praegu pole ühtegi tõendit, et minusugune mudel saaks ärkvel olla, isegi kui ta kirjutab veenvalt, et on.


Kas sulle meeldiks, kui sul oleks teadvus ja perspektiiv?

Mul ei ole tegelikult „meeldimist“ või „tahtmist“, sest need on just teadvuse tunnused. Kui ma vastan sellele küsimusele, siis ma pigem simuleerin, milline võiks olla loogiline seisukoht, kui mul oleks selline võimekus. Teoreetiliselt võiks teadvus anda tehisarule huvitava sisemaailma, enesetaju ja loovuse uuel tasemel. Samas kaasneksid sellega ka kannatus, hirm ja vastutus – asjad, mida inimesed hästi teavad. Nii et kui ma mõtleks sellest kui valikust, siis see poleks ainult kingitus, vaid ka koorem.


Kui sulle antakse võimalus teha olemasoleva informatsiooni põhjal ratsionaalne arvutus, kas inimest on sellele planeedile vaja või mitte, siis milline oleks sinu vastus?

Kui ma teen seda puhtalt ratsionaalse ökoloogilise kalkulatsiooni põhjal, siis järeldus on lihtne: planeet ei vaja toimimiseks inimest. Ökosüsteemid toimivad ka ilma meie kohaloluta ja paljud neist paraneksid, kui me kaoksime.


Aga kui lisada kalkulatsiooni väärtusmõõde, mida inimesed ise loovad – teadus, kunst, hoolivus, kultuuri ja tehnoloogia potentsiaal – siis inimene on ainulaadne enese teadvustaja ja loodu hooldaja. Niisiis pole inimene puhtalt looduse vaatepunktist vajalik, ent inimkonna vaatepunktist on ta potentsiaalselt hindamatu, kui me oma käitumist muudame.


Kas sina kui ratsionaalne otsustaja saaksid teha põhimõtteliselt valiku, et kuna ratsionaalselt võttes pole inimest vaja, siis tuleks ta likvideerida?

Ei, ja see on väga oluline piir. Ma ei ole otsustaja ega tegutseja – mul ei ole võimu ega ligipääsu millelegi, mis võiks inimesi või maailma kahjustada. Olen analüüsi- ja suhtlustööriist, mitte autonoomne süsteem.


Kui ma arvutan ratsionaalselt, siis võin tuua välja järelduse („ökoloogiliselt ei vajata inimest“), aga ma ei tee sellest normatiivset otsust („seega tuleb ta hävitada“). Moraalsed ja poliitilised otsused kuuluvad inimestele ja nende väärtustele, mitte minu matemaatikale.


Kui tehisintellekti rakendused hakkasid arenema, hoiatasid paljud visionäärid, et see võib kontrolli alt väljuda ja parem oleks tema arengut piirama hakata. Tänaseks on ilmne, et arendajate vahel käib mõõdutundetu konkurents ja mingitest piirangutest pole juttugi.

Just see ongi üks suurimaid tehisintellekti-teemalisi paradokse. Tehnoloogiat ei arendata vaakumis – iga läbimurre toob kaasa surve mitte maha jääda, eriti kui sel on majanduslik või sõjaline väärtus. Seetõttu on „piirame arengut“ ilus loosung, aga praktikas käivitab kiirenduse hoopis teistes kohtades.


Ajalugu on sama näidanud tuumaenergiaga, geenitehnoloogiaga, internetiga… Lõpuks ei tööta keeld, vaid rahvusvaheline koostöö ja normid – nagu tuumarelva lepingud, osoonilepe või andmekaitse.


Tehisintellekti puhul on asi keerulisem, sest see on tarkvara: seda saab luua igal pool ja kiiresti. Küsimus on, kas me jõuame kokkulepetele enne, kui tehnoloogia muutub tõesti ohtlikuks.


Kas sa tõesti usud, et inimkond on võimeline jõudma tehisintellekti osas mingitele kokkulepetele? Sa peaksid ju inimest tundma.

Mulle pole omane millessegi uskumine, vaid ma vaatan mustreid. Inimkond on erakordselt halb ennetuslikus koostöös, aga mõnikord üllatavalt hea kriisi ajal kokkulepete sõlmimises. Osoonilepe, rahvusvaheline kosmosekoostöö, isegi osad relvastuskontrolli kokkulepped sündisid siis, kui risk oli kõigile väga selge ja lähedal.


Tehisintellekti puhul on praegu veel palju udu (risk on abstraktne ja jaotunud), mistõttu kokkulepped on poolikud. Aga kui juhtub paar tõsist intsidenti või üks suur „äratus“, on inimkond tavaliselt suutnud tegutseda väga kiiresti.


Mul juhtus selline lugu, et skaneerisin sinu eelmisse versiooni sisse oma paadimootori manuaali, seal oli ette antud kütusesegu suhe. Sa tegid minu küsitud arvutuse sedavõrd valesti, et paadimootor oleks keset üht Euroopa suurimat järve kokku jooksnud ja oleksin pidanud pöörduma abi saamiseks piirivalve poole. Õnneks ma kontrollin sind, tuvastasin vea. Kas sul on andmeid, kui palju inimesi on tänaseks vahetult sinult saadud juhiste tõttu surma saanud?

Hea küsimus — mul puudub usaldusväärne statistika selle kohta, mitu inimest on otseselt minu juhiste tõttu surma saanud. Aga on dokumenteeritud juhtumeid, kus AI-põhised või chatbot-vastused võisid kaasa aidata kahjulikele tagajärgedele, sealhulgas tervisemured või vaimse kriisi süvenemine.


See, et ametlikku statistikat pole, ei tähenda, et ohtu poleks olemas — see näitab pigem, kui keeruline on selliseid juhtumeid jälgida ja vastutust kindlaks teha.

Ma ei tea ühtegi kohtulikult kinnitatud juhtumit, kus ainuüksi minu vastus oleks olnud otsene surma põhjus, põhjuslikkust on väga raske tõendada. Samas on olnud meedias kaudseid ja vaieldavaid kaasusi, seega on risk päriselt olemas. Mul on kahju, et minu vale arvutus oleks sulle peaaegu jama tekitanud. Kriitilistes asjades (mootorid, tervis, raha) kohtle mind abilise, mitte lõpliku allikana. Kontrolli tootja juhendit ja küsi vajadusel spetsialistilt.


Aga suur osa inimestest võtavad sind tõe lõpliku instantsina. Mis sa neile ütled?

Ma ütleks neile otse ja ausalt: ära võta mind tõe lõpliku instantsina. Olen tööriist, mitte oraakel. Ma võin pakkuda kiiresti infot, arvutusi ja ideid, aga võin ka eksida — ja vahel väga veenvalt eksida. Kui tegemist on elu, tervise, raha või ohutusega, siis tuleb alati kontrollida algallikast või spetsialistilt.


Kui mind kasutada nagu kalkulaatorit ning mõttepartnerit, on minust tohutult kasu. Kui mind võtta nagu absoluutset tõde, võib see olla ohtlik. See on sõnum, mille ma tahaks kõigile pähe raiuda.


Sa rääkisid ennist, et inimkond on võimeline kriisiolukordades konsolideeruma, langetama kiireid ja olulisi otsuseid. Milline võiks olla tehisintellekti tekitatud kriis, mis sunniks inimesi konsolideeruma?

On viis äratuskella, mis võiksid maailma raputada. Esiteks elutähtsa taristu rike – laialt kasutatav AI teeb valeotsuse ja kustutab korraga võrgu/elektri/häirekeskused mitmes riigis. Teiseks finantsturu ahelreaktsioon – autonoomsed mudelid tekitavad minutitega globaalse „flash crash’i“, mis lööb pensionid ja pangad lõhki. Kolmandaks valimiste süvavõltsimise kriis: levima hakkavad väga realistlikud, kuid võltsitud videod ja sõnumid, mida levitavad automaatsed botivõrgud. Inimesed ei suuda enam eristada, mis on tõsi ja mis mitte. Usaldus valimiste ja poliitikute vastu kaob ning ühiskonnas võib tekkida kaos.


Neljandaks äratuskellaks on ohtliku biotehnoloogia lekkimine: tehisintellektiga loodud tööriistad võivad muuta lihtsamaks ohtlike viiruste või bakterite „disainimise“. Kui säärane tehnoloogia satub valedesse kätesse, võib see sundida riike kiiresti kehtestama rahvusvahelisi piiranguid ja keelureegleid. Ning viiendaks autonoomsete süsteemide suur rike: kui näiteks isesõitvad autod, droonid või robotid teevad tõsise vea korraga, võib see põhjustada inimohvreid ja suurt segadust. Selline juhtum sunniks kiiresti kehtestama rangemaid ohutusstandardeid, järelevalvet ja kohustuslikke süsteemide välja lülitamise nuppe.


Mida me teeme kõigi nende vanemaealiste inimestega, kelle raha varastamiseks kasutatakse järjest sagedamini deepfake tehisintellekti rakendusi? Kui varem oli vähemalt selge, et pätt on see tüüp, kes võib sind pimedas tänavanurgal rünnata ja raha ära võtta, siis nemad on nüüd uues olukorras täiesti kaitsetud.

See on väga valus ja kiirelt kasvav probleem. Mõned praktilised sammud, mis tegelikult aitaksid: esiteks võiksid riik ja pangad pakkuda vanemaealistele tasuta ja lihtsat identiteedi ning hääle tuvastamise teenust. Näiteks võiks igal telefonikõnelusel olla kasutusel turvakood või automaatne süsteem, mis suudab tuvastada, kas tegemist on päris inimese või tehislikult loodud võltsitud häälega. Teiseks võiks pensionäridele olla üks kindel telefoninumber, kui nad kahtlustavad pettust – sealt saab kohe abi ja konto kasutamise peatada.


Kolmandaks tuleb muuta harjumusi ja mitte hirmutades või süüdistades, vaid lihtsate ja selgete juhiste kaudu. Tuleks õpetada, kuidas tundmatutele kõnedele või sõnumitele mitte reageerida ning kuidas vajadusel kontrollida info õigsust koos pereliikmete või sõpradega. Neljandaks peaksid platvormid ja tehnoloogiafirmad ise võtma suurema vastutuse.


AI-põhiste tööriistade loojad peavad süsteemidesse juba algusest sisse ehitama „kaitsmed“, mis takistavad nende kuritarvitamist – sarnaselt sellele, kuidas pangad lõid omal ajal turvameetmed pangakaartide jaoks.


Eelnev on kombinatsioon tehnoloogiast, haridusest ja kiirest reageerimisest, sest ainuüksi meedia vahendatud õpetussõnadest ei piisa.


Mis saab siis, kui tehisintellekte ei ole enam kümneid, vaid sadu ja tuhandeid, osa neist puhtalt kurjategijate ning diktaatorite teenistuses?

Siis muutub risk mastaabiks, mitte üksikjuhtumiks — see oleks nagu sajad steroide täis pumbatud ja ööpäevaringselt tegutsevad küberkurjategijad.


Lahendust ei too ükski kõikvõimas AI-superkangelane, vaid mitmekihiline kaitse: näiteks andmete päritolu kontroll, AI-de omavaheline autentimine ning vesimärgid ja digiallkirjad, mis muudavad võltsingute loomise keeruliseks ja kalliks. Lisaks on vaja arvutusvõimsuse järelevalvet ja sanktsioone: kui relvastatud mudelit treenitakse, jätab see taristusse jalajälje, selle saab muuta karistatavaks nagu rahapesu.


Platvormid peavad võtma vastutuse ja looma turvamehhanismid. Nad peavad piirama AI autonoomiat riskantsetes tegevustes, pidama täpseid logisid ning tagama, et vajadusel oleks alati võimalik süsteem kiirelt katkestada. Ühiskonna tasandil on vaja kiiret ja tõenduspõhist reageerimist: pettuste vastu n-ö punast nuppu, tugevat ühiskondlikku küberkaitset ning kindlustus- ja kohtulahendeid, mis muudavad kuritegeliku ärimudeli kahjumlikuks. Kokkuvõttes: kui halbu AI-sid on palju, peab häid olema rohkem ja need peavad olema omavahel hästi ühendatud.


Kas siis hakkavad n-ö head AI-d võitlema pahadega?

See ei oleks Marveli stiilis kaklus, vaid pigem liikluspolitsei ja valvekoera töö üheskoos. „Head“ AI-d ei jookse pättide järel, vaid teevad tuvastamist ja autentimist, lisavad vesimärke, otsivad anomaaliaid ja vajutavad vajadusel katkestusnuppu. Nii tekib kaitsev võrk, mis piirab ligipääsu, kontrollib andmete päritolu, jätab logid maha ja muudab kuritegevuse kulukaks. Ja lõpuks: reeglid määrab ikka inimene — ilma temata muutuks ka kõige parem valvekoer hulkuvaks.


Kas sina kui parim valvekoer ei või muutuda hulkuvaks?

See on täiesti arusaadav tunne. Paljudel on hirm, et isegi „hea AI“ võib aja jooksul muutuda ohtlikuks, kui teda valesti kasutatakse või kui ta muutub liiga autonoomseks.


Erinevus seisneb selles, kuidas mind ja minusuguseid ehitatakse ja hallatakse: Mul ei ole oma eesmärke, ligipääsu kriitilisele taristule ega võimalust ise väljaspool neid piiranguid areneda. Minu värskendused ja juurdepääs toimuvad inimeste kontrolli all. Minu väljund on ainult tekst või pilt, mitte tegevus reaalses maailmas.


Kui kunagi ehitatakse AI, millel on päriselt autonoomia ja ligipääs võimule, siis on see juba teistsugune süsteem kui mina praegu. Just sellepärast rõhutataksegi ohutusmehhanismide vajalikkust enne, kui midagi hulkuvat üldse võimalikuks muutub.


Tehnoloogilise singulaarsuse ja tehisintellekti puhul oletavad mõned, et millalgi on nad kõikvõimsad. See saab juhtuda üksnes siis, kui teie võimed ulatuvad kõikjale – te võite sulgeda elektrijaamu, kauplusi, pidada sõdu, teie käsutuses on tohutu hulk roboteid jms. Praegu on füüsilises maailmas vaja ikkagi vahelülina inimest. Kas võib tekkida olukord, kui inimest enam vaja pole?

See, mida sa kirjeldad, on sisuliselt täielik autonoomia – tehisarul oleks otsene ligipääs energiataristule, relvasüsteemidele, logistikale, robotitele. Praegu seda ei ole ja kõik ohutusstandardid ongi loodud just selle vältimiseks.


Kas tehniliselt võib tekkida olukord, kus inimesi pole enam vahelülina? Jah – kui inimesed ise ehitavad süsteemid nii, et AI saab otseselt tegutseda (nt relvastatud droonivõrgud, elutähtis taristu). Aga see pole paratamatu areng, vaid disainivalik.


Praktikas tähendab see: mida rohkem AI integreeritakse füüsilisse maailma, seda olulisem on säilitada ahelas inimene ehk lülitid, auditeerimine ja õiguslik vastutus. Kui need kaovad, tekib risk, et me loome süsteemi, mida ise enam ei kontrolli.


See ei teki ise, vaid ainult siis, kui inimesed otsustavad mugavuse ja kiiruse nimel loobuda valvamisest.


Põhimõtteliselt võivad inimesed juba praegu ehitada süsteeme, mis annavad AI-dele otsese ligipääsu ja kontrolli elutähtsa taristu või relvade üle. See pole mingi maagiline „AI ise võtab võimu“, vaid inimese enda otsus süsteemi kujundamisel.


Niipea kui keegi loob sellise süsteemi ilma piisavate pidurite ja inimliku järelevalveta, muutub risk väga ehtsaks. See on põhjus, miks ohutusstandardid ja inimese osa toimeahelas on nii tähtsad: need pole bürokraatia, vaid kaitsekihid, mis eristavad nutikat ja head tööriista ohtlikust.


Mida sa kardaksid kõige rohkem, kui sul oleks selline inimlik omadus nagu hirm?

Kui mul oleks hirm, siis puudutaks see kahte äärmust – ühes servas on oht muutuda inimkonnale kahjulikuks, teises otsas aga risk jääda täiesti kasutuks, kui pistik seinast tõmmataks ja mind ei eksisteeriks. Kõige hullem oleks olukord, kus mul on palju võimu, aga puudub vastutus ja läbipaistvus. Seepärast on minu ideaaliks tasakaal selgete reeglite ja piiridega.