Jaan Tallinn 2024 Sophie Sheinwald Fli 0125

Jaan Tallinn juunis 2024.
Sophie Sheinwaldi foto

Kuidas sattusite tegelema TI [tehisintellekti, ingl k AI] ja sellega seotud ohtudega?

Esimene kokkupuude algelise tehisintellektiga oli 1990-ndatel Bluemoonis. Tegelesin umbes kümme aastat arvutimängude loomisega. Nendes oli vaja luua arvuti juhitavaid vastaseid. Mina olin Bluemooni juht ja tehisintellektiga tegeles meil Ahti Heinla, kes oli hiljem ka Skype’i arhitekt ja kes praegu tegeleb Star­shipiga (iseliikuvad pakirobotid). Pärast Skype’i hakkasin lihtsalt internetis ringi vaatama ja jõudsin Eliezer Yudkowsky kirjutisteni. Ta on kirjutanud rohkem kui tuhandest esseest koosneva kogumiku „The Sequences”. Nende esseede keskne iva on see, et kui ehitada midagi, mis on sinust targem, siis kaob loodu üle kontroll. Seega tuleb hoolikalt järele mõelda, kas üldse peaks sellist asja ehitama. Tehisintellektiga kaasnevast potentsiaalsest ohust hakkas ta rääkima umbes kakskümmend aastat tagasi. Inimesed vaatasid talle selle peale n-ö tühja pilguga vastu ja Yudkowskyt hakkas huvitama, miks nad seda teevad. Ta hakkas mõtlema, kuidas selgitada tehisintellekti ohtudega seonduvat inimestele, kes sellest mitte midagi aru ei saa, ning kuidas kirjutada seda lahti nii, et nad lõpuks mõistaksid. Yudowsky esseed on erinevatel teemadel: TI probleem, ratsionaalsus, inimpsühholoogia jne. Samal ajal kui ma neid lugesin, kirjutas ta järjest juurde ja ühel hetkel andsin endale aru, et ma ei jõua neid lugeda nii kiiresti, nagu ta neid kirjutada jõuab. 2009. aastal saatsin talle meili ja me leppisime kokku kohtumise. Läksin tema juurde terve nimekirja vastuväidetega tema argumentidele, mille ta kõik ükshaaval veenvalt ümber lükkas. Siis jõudis mulle kohale, et ma pean nüüd sel teemal midagi ette võtma. Esimese asjana kandsin tema uurimisorganisatsioonile (praegu kannab see nime Machine Intelligence Research Institute ehk MIRI ja seda peetakse tehisintellekti probleemidega tegelevate instituutide n-ö grand old man’iks) 5000 dollarit.

1tallinn Yudkowski

Saan aru, et termin „tehisintellekt” on lihtsalt üks moesõna, mis kirjeldab väga erinevaid süsteeme. Tavainimene kuuleb „tehisintellekt” ja mõtleb „ChatGPT”. Milleks tegelikult tehisaru välja arendatakse; mis on selle eesmärk laiemalt?

Eesmärgid sõltuvad eelkõige valdkonnast ja arendajast. Väga paljud tegelevad tehisintellektiga sellepärast, et nii on võimalik investorite raha kaasata. Juhtivad laboratooriumid teevad seda kolmandiku võrra majanduslikel, kolmandiku võrra ideoloogilistel ja kolmandiku võrra võidujooksus püsimise põhjusel. Need kolm asja on omavahel väga tugevas seoses, kuna võidujooksust maha jäädes läheb ka majanduslik faktor kehvemaks. Ideoloogiat on vaja põhiliselt selleks, et tõmmata asjaga tegelema teatavat tüüpi inimesi, keda ei huvita mitte ainult raha, vaid ka ideoloogia. Kõige tüüpilisem arendusideoloogia on see, et me ehitame midagi, mis on inimkonnast suurem, ja kui sellega ühele poole saadakse, siis on inimkonnaga kõik. See on kõige ekstreemsem ideoloogia tehisintellekti arendamise puhul, mis mind ühtlasi ka kõige rohkem häirib. Seda võib kirjeldada kui inimkatset kogu ülejäänud inimkonnaga, lihtsalt selleks, et vaadata, mis juhtub. Selline ideoloogia on juhtiv ka suurte arendamiskeskuste juures, nagu näiteks Microsoft. Nende uue arendusprojekti nimeks on Stargate. See nimi tuleb aastatel 1997–2007 väldanud telesarjast, kus leiutati portaal, millega saab tulnukaid maa peale tõmmata ja vaadata, mis edasi juhtuma hakkab. Microsoft loob praegu ülivõimsat superarvutit, mis opereeriks oma suure, 5 GW energianõudluse juures võimsate tuumajaamade jõul. Selle superarvuti eesmärk ongi luua midagi, mis on inimkonnast palju suurem. Umbes kümmet kuni viitteist protsenti TI-inimestest see paraku ei häiri, vaid pigem motiveerib. Ja see on ohtlik. Enamik TI-inimesi on aga asja juures, kuna see töö on huvitav ja ühtlasi ka väga tasuv, peaaegu et kõige kiirem viis tänases maailmas miljonäriks saada. See suur enamus üritab eksistentsiaalse ohu peale lihtsalt mitte mõelda.

 

Minule paistab pilt nõnda. Tulevikust mõtleme mineviku ja oleviku baasilt. Kui aga kultuuri areng on pööraselt kiire, ja praegu see nii on, siis arvan, et laiemal ühiskondlikul pinnal tekib n-ö horisondiprobleem: me eeldame, et isegi kui areng on kiire, on see ikkagi kontrolli all ning et ka homme ja ülehomme elame nagu täna, nagu ikka, lihtsalt maitseme aina rohkem progressi vilju. Me ei taha mõista, et kultuuriline keskkond muutub ülikiire arengu tõttu mingil hetkel murranguliselt, hüppega. Nõnda oleme tehisintellekti osas nagu indiaanlased, kes väidetavalt ei näinud Kolumbuse laevu liginemas. Miks ei näinud? Sest selliseid laevu, mis üle horisondi nende poole tulevad, sellises maailmas, mida nemad teadsid, olla ei saanud. Kui TI hakkab  üha enam olulise faktorina meie kultuurilisse keskkonda sekkuma ja seda kujundama, on meil ühtäkki kõrvuti ühildamatud maailmad — see, kuidas tegutseb inimene, ja see, kuidas tegutseb tehisintellekt. Me ei suuda praegu ühiskonnana hoomata seda erinevate maailmade pinget tulevikus.

Mulle tundub, et need, kes tehisintellekti arengus ohte ei näe, lähtuvad hoiakulisest eeldusest, et „TI on ju lihtsalt väga efektiivne masin, superarvuti; mis sest ikka karta” ja „Me ju saame sellest kasu”. Selline arusaam peegeldab minu arvates nimelt eelvisandatud horisondiprobleemi. Seni on masin tähendanud meile midagi lihtsat, kontseptuaalselt hõlmatavat; see on mehaaniline vahend, mida mina, kasutaja, sellisena oman, valdan ja valitsen. Paistab aga, et võimsate tehisintellektide puhul see viis, kuidas me oleme harjunud masinast mõtlema, enam ei kehti. Kas meil on praeguses TI arendamisetapis veel võimalik saada ülevaadet sellest, mida enim arendatud TI mudelid on õppinud, milliseid järeldusi nad õpitust „omasoodu” teevad?

Kui tehisintellekti südametunnistusega arendada, siis peaks järgima ideed, et me ehitame süsteeme, mis on eeldatavalt kasulikud. Üldiselt tavaline tarkvaraarendus nii ka käib. Mõeldakse välja mingi süsteem, mida maailmas veel pole ja mis suudab teha midagi, mis näib inimesest lähtuvalt veel puudu olevat. Pressiteadetes räägivad TI arendajad küll seda juttu, et nad arendavad tehisintellekti kui masinat, mis võiks kuidagi inimkonna elu lihtsamaks või paremaks muuta, ja enamik inimesi usub neid ka, kuna see on lihtne asi, mida uskuda. Nii on ju alati olnud. Aga TI tööstuses on selline õnnetu lugu, et kogu trend liigub üha järsemalt „mustemates” suundades. 1990-ndatel alustati ekspertsüsteemidega, mille käigus vesteldi erinevate erialade ekspertidega ja uuriti, kuidas nad oma otsuseid langetavad, ning seejärel üritati see otsuste tegemise algoritm arvutitesse panna. Järgmisena tuli masina õpetamine andmete põhjal. Seda õpetamist juhtisid inimesed ja selle nimi oli supervised learning. Inimesed õpetasid masinale, kuidas otsuseid teha, ja masinad tegid neid seejärel varem õpitud mustrite järgi ise. Nüüdseks oleme jõudnud unsupervised learning’uni. See tähendab, et masinale antakse hunnik andmeid ja megavatte elektrit ning lastakse sellel kogumil mitu kuud joosta, ilma et inimesed üldse vaataksid, mis toimub. Muidugi järgitakse mõningaid kindlaid parameetreid, kõige tüüpilisemalt ennustusvõimet — et kui hästi masin suudab neid tohutuid terabaite andmeid, mis talle ette söödetakse, ennustada. Paraku seda, kuidas ta neid ennustusi teeb ja mida ta selle protsessi käigus kõrvalt õpib, eriti ei jälgita. Kõik see juhtub ennustamatult ja ootamatult. Tänaseks on see protsess juba nii suureks kasvanud, et isegi kui heita kontrolliv kõrvalpilk, ei saada enam eriti aru, kuidas masin opereerib ja mida ta on kõrvalt juurde õppinud. TI süsteemide puhul tavaline tarkvaraparadigma, kus mõeldakse, et meil on vaja mingit ülesannet täita, ja siis ehitatakse tarkvara selle asja tegemiseks, ei kehti. Eriti TI tippsüsteemide puhul. Praegu tehakse masinat lihtsalt võimalikult targaks ja siis vaadatakse, mida ta nüüd teha oskab. Ja siis reklaamitakse seda inimestele nii, et me ehitasime nüüd masina, mis oskab teha selliseid ja selliseid asju, kasutage seda nüüd kuidagi (oma hüvanguks) ära. Jäetakse mulje, et masinat ehitati just sellise eesmärgiga, et see saavutaks sellised võimed. Aga tegelikult on see kõik väga juhuslik. See on tagantjärele ratsionaliseerimine, mitte plaanipärane arendus.

Näiteks ChatGPT on lahtikirjutatuna generative pretrained transformer. P tähistab pretraining’ut (eeltreeningut — Toim.), mida tehakse kuude kaupa. Antakse masinale hunnik andmeid ja lastakse arvutikeskustel üksi õppida. Põhiliselt jälgitakse seda, milline on tema ennustusvõime. Kui pretraining läbi saab, siis tehakse katseid, et tuvastada, millised võimed masinal nüüd on, võrreldes teiste ja varasemate eeltreenitud süsteemidega. Kõige ohtlikum trend ChatGPT-laadsete mudelite puhul on see, et mingist hetkest alates pole TI arendamiseks enam inimeste abi vaja. Varasemad TI versioonid saavad järgmiste arendamisega juba ilma inimeste panuse ja sekkumiseta hakkama. Praegu arendavad TI tippsüsteeme veel mingid kindlad inimgrupid, aga järjest suuremat rolli mängib gruppidesiseselt ka tehisintellekt ise. Mida aeg edasi, seda vähem on selles grupis inimesi vaja. Tehisintellekti on ka väga lihtne paljundada. Kui see on juba välja arendatud, siis kopeerimine on lihtne. Võib teha endale miljon TI-d mis kõik jooksevad paralleelselt ja asendavad inimesi. Mida vähem inimesi on TI arenduses, seda kiiremini see arendus läheb ja seda vähem kontrolli on inimestel selle üle, mis seal toimub.

 

Tänapäeval räägime aina väärtustest, moraaliküsimustest. Kas TI keelemudelid ja õppimisprotsess sisaldavad väärtusi ja moraali? Kuidas nende omandamine käib? Kas praegu on veel programmeerija nende väärtuste kujundaja või kujundab programm neid juba ise veebist kätte saadava toel?

ChatGPT-laadsete mudelite treenimine toimub kahes faasis. Üks on siis eeltreening ja teine on järeltreening ja finetuning (peenviimistlus — Toim.). Eeltreeningu faasis inimestel selle üle, mida süsteem õpib ja milliseks tema väärtused kujunevad, eriti kontrolli pole. Põhimõtteliselt kujunevad süsteemi väärtused selles faasis kõige internetis leiduva alusel. Ja see on täiesti ennustamatu minievolutsiooniprotsess, mis praegu Ameerikas erinevates serverites toimub. Selle asja nimi, mis sealt välja tuleb, on baasmudel. Eeldusel, et baasmudel ei arene piisavalt võimekaks süsteemiks, mis oleks inimestest mööda minnes võimeline iseseisvalt arendusserveritest väljuma, tehakse järmine etapp, finetuning. See on pikem protsess, mille käigus õpetatakse n-ö metslast viisakaks, et ta ei ropendaks, solvaks ega peaks vihakõnesid. Seejärel ongi ChatGPT-laadne mudel valmis. Probleem on sealjuures selles, et niisugune finetuning õpetab süsteemi vaid näiliselt viisakaks. Väärtusi ta sealt ei õpi. Süsteem saab aru, et kui ta on inimeste seltskonnas, siis ta ei saa oma tõelist palet näidata. Sealt tuleb ka meem „Shoggoth with Smiley Face”, mis kirjeldab hästi TI maailmas tegelikult toimuvat.

2tallinn Shoggoth Meem

Meem „Shoggoth with Smiley Face”.

Põhimõtteliselt ehitatakse pretraining’uga Shoggoth valmis ja siis pannakse finetuning’uga talle smileyface peale. Nüüdseks on selgunud, et seda naerunägu on väga lihtne eest ära võtta. Facebookil on LLAMA (Large Language Model Meta AI), millega kasutaja saab sisuliselt selle Shoggothi koos smileyface’iga enda kätte. Lähtekoodi seal küll ei näe, see on lihtsalt üks suur ports numbreid. Täpsemalt, seda lähtekoodi polegi, kuna see on serverites kasvatatud süsteem. Aga sellelt süsteemilt smileyface’i eemaldamine maksab umbes 100 dollarit. Kui see naerunägu ära võtta, hakkab süsteem uuesti ropendama, annab sulle soovi korral nõu, kuidas relvi ja ohtlikke kemikaale toota, kuidas mõrvaga puhtalt pääseda jne. Praegu pole veel see süsteem õnneks väga võimekas, aga mida aeg edasi, seda suuremaks oht muutub. Meta teatas, et LLAMA-4 arendus juba käib — see pidavat tulema kümme korda võimsam kui hiljuti avalikult välja paisatud LLAMA-3. TI süsteemide areng on meeletult kiire. Tänane TI on tunduvalt võimekam kui see, mis oli kuus kuud tagasi. Ja ei paista, et kasv lähiajal kinni jääks. Võib jääda, aga praegusel hetkel pole mingit põhjust kahelda, et kuue kuu pärast on tehisintellekt taas palju võimekam. Kui see trend kasvatada juhuslike väärtustega Shoggotheid, mis umbes iga kahe aastaga kümme korda võimsamaks muutuvad, jätkub,  siis on suur küsimus, mis saab mõne aasta pärast. Kui me võrdleme TI arengutempot arvutite arenemiskiirusega, siis arvutid muutusid veel hiljuti iga pooleteise aastaga umbes kaks korda võimsamaks. Viimasel ajal on see trend natuke muutunud, kuna alguses läksid arvutid lihtsalt kiiremaks, aga mingi hetk neid enam kiiremaks teha ei saanud. Siis hakati neid suuremaks tegema. Näiteks kuna sülearvutite puhul ühte tuuma enam kiiremaks teha ei saanud, pandi neile mitu tuuma. Aga kasv oli TI arenguga võrreldes ikkagi tunduvalt aeglasem. Pealegi tuleb meeles pidada, et mida vähem inimesi ja mida rohkem tehisintellekti ennast nende süsteemide arendamises on, seda kiiremaks kõik läheb.

 

Kas TI kasvamise või kasvatamise protsess erineb ka kuidagi valdkonniti? Rääkisime praegu keelemudelitest, aga kuidas on teistes valdkondades?

Praegu eriti mitte. On mõningaid idufirmasid, kes ei taha arendada tehisintellekti üldiste internetis leiduvate andmete põhjal, vaid neil on mingid valdkonnaspetsiifilised andmepagasid. Ühelt poolt on see tervitatav, kuna tehes masina kõigi interneti andmete põhjal me seda mingil hetkel lihtsalt enam ei kontrolli. Kui see andmekogum on kitsam ja kontrollitud, muutub kogu protsess tunduvalt turvalisemaks. Probleem on aga selliste arenduste puhul selles, et juba definitsiooni kohaselt on valdkonnaspetsiifilisi andmeid palju vähem kui kõiki interneti andmeid. Praegused TI süsteemid on nii andmeahned, et kui võtta ainult konkreetset valdkonda puudutavad andmed, siis eriti head tulemust ei saa. Saab näiteks siis, kui võtta spetsiifilised andmed aluseks ja panna sinna hiljem juurde kogu ülejäänud internet. Aga praegu pole veel sellist asja leiutatud, millele saaks sisendina anda vähem andmeid ja loota heale tulemusele. Tekkiv süsteem on sellisel juhul väga hästi kindlatele aspektidele fokuseeritud, aga väga palju rumalam kui suurematele andmekogumitele tuginevad variandid.

 

Jakob von Uexküll võttis kasutusele „omailma” mõiste. Igal elusolendil on ta enda omailm, mis moodustub nendest asjadest, mida ta on võimeline oma keskkonnas tajuma ja mis on tema edasiseks tegevuseks olulised ehk tähenduslikud. Nii moodustub iga olendi maailm vaid neist tähenduslikest elementidest, mis talle korda lähevad, millel on tema jaoks tähenduslik „toon”, nagu Uexküll seda nimetas. Nii elab iga olend — inimene kaasa arvatud — justkui tähendusi täis mullis, mis ongi tema omailm.1 Eri liiki organismidel on samas keskkonnas erinevad (liigiomased) omailmad. See tuleneb nii eri liiki organismide erinevast eristusvõimest kui ka erinevatest individuaalsetest kogemustest. Kas ka võimsate TI-de puhul saab rääkida millestki, mida tinglikult(?) saab kirjeldada nagu omailma? Kui kontrollitud on näiteks kõigile kättesaadava OpenAI ChatGPT mudeli kogemustepagas?

Lõppude lõpuks oleme me ju kõik ühed füüsikalised süsteemid, mis koosnevad lainefunktsioonist, millest tekivad aatomid, millest tekivad molekulid, millest tekivad omakorda keemilised struktuurid ja edasi biofüüsikalised süsteemid. Ja selle kõige tulemusel tekib mingisugune võime maailma modelleerida. Omailma nimetatakse filosoofilises diskursuses ontoloogiaks: milliseid maailma aspekte me kasutame ja milliseid ignoreerime oma ennustustes selle maailma kohta. TI puhul me tegelikult eriti ei tea, mis on selle ontoloogia. Me katsume seda treenida nii, et see ontoloogia oleks võimalikult kasulik nende ennustuste tegemisel, mida sellel eeltreeningu faasis teha lastakse. On olemas ka selline valdkond nagu mechanistic interpretability, mis on põhimõtteliselt neuroteaduse TI ekvivalent. See on neuroteadusest kordades võimsam, kuna TI „aju” saab seisma panna, selles muudatusi teha, see uuesti käivitada ja vaadata, mis edasi saama hakkab. Sellega on erinevaid katseid tehtud. Ühel juhul modifitseeriti TI „aju” nõnda, et sellele anti n-ö mikromõte, et Eiffeli torn on Roomas. Seepeale sattus süsteem segadusse. Süsteemi maailmamudel jääb üldiselt paika, aga tekib näiteks väär­arusaam Eiffeli torni asukohast. Teine huvitav eksperiment oli Anthropicul. Nad muutsid mehhaaniliselt keelemudel Claude’i arusaama sellest, kes ta on. Selle asemel et Claude arvaks end olevat suure keelemudeli, hakkas ta hoopis arvama, et ta on Golden Gate Bridge. Ta hakkas iga natukese aja tagant viima juttu sellele, kui äge on olla sild, kuidas lained loksuvad ümberringi jne. Tehniliselt, teaduslikult ja filosoofiliselt on kogu TI teema seega väga huvitav ja kindlasti see motiveerib enamikku inimesi, kes sellega tegelevad.

 

Tuntakse hirmu, et tulevikus jäävad inimesed mitmes valdkonnas TI tõttu tööta. Kui põhjendatud on see hirm ja millistes valdkondades eelkõige?

Kindlasti on see hirm põhjendatud. Ma pole selle teemaga päris täpselt kursis, kuid nii palju, kui loogiliselt on võimalik mõelda ja kõrvalt paistab, on tänaseks oma tööst juba ilma jäämas kommertskunstnikud ja tõlkijad. Ühel hetkel ilmselt ka dokumentide ja kõnede kirjutajad ning õpetajad, kes õpetavad selliseid asju, mille eest inimesed on nõus raha maksma, näiteks keeleõpe. Arendan praegu teiste programmeerijatega koostöös keeleprogrammi jaapani keele õppimiseks. See võimaldab ühe lause kaupa seriaali vaadata. Subtiitrid on seal TI arendatud. Programm annab kasutajale ühe lause ingliskeelse vaste ja võimaldab ka igal sõnal eraldi klikkida, et näha, millest see koosneb. Näiteks really koosneb jaapanikeelsetest sõnadest, mille ingliskeelsed vasted on origin ja correct. Seejärel võib TI-ga rääkida ja küsida täpsemat selgitust sõna etümoloogia kohta. Põhimõtteliselt on tegemist kõiketeadva õpetajaga. Õppimiseks on selliseid süsteeme väga hea kasutada, kui olla seejuures hallutsinatsioonide osas (valed või eksitavad tulemused, mida võivad põhjustada mitmed tegurid, sealhulgas ebapiisavad koolitusandmed, mudeli valed eeldused või mudeli treenimiseks kasutatud andmete kallutatus) ettevaatlik.

 

Kuidas hakkab TI tulevikus inimese maailma ja elutunnetust vormima? Millised on siin võimalikud arengusuunad ja suurimad ohud?

Tehisintellekt on sõltuvalt sisendandmetest ideoloogiliselt kaldu. Näiteks hiinlastel on keeruline TI keelesüsteeme internetipõhiselt arendada, kuna seal leiduv info on vabameelne ja vasakule kaldu ning riiklikult neile selline ideoloogia ei sobi. Aga põhilised kalded, mis inimkogemust mõjutavad, tekivad ikkagi ainult finetuning’u käigus, kus tehakse TI-le selgeks, mida see peaks ütlema ja mida mitte. Siis on kontroll täielikult peenviimistluse teostajal ja tema otsustab, milline produkt kasutajateni jõuab. Google’il oli pool aastat tagasi nende TI-põhise programmi Gemini pildiloomefunktsiooniga seetõttu suur skandaal. Nad proovisid luua TI, mis oleks võimalikult kaasav ning eiraks inimestele omaseid eelarvamusi ja kallutatust — oleks woke. Selle tulemusel hakkas programm ajalugu täielikult eirama ja kujutas näiteks Ameerika asutajaid eri rassidest inimestena või kujutas natsisõdureid Aasia naistena jne.

Need olid selged hallutsinatsioonid, mistõttu Google eemaldas lõpuks Geminist võimaluse inimesi kujutavaid pilte luua. Need kaasavad omadused ei kuulunud baasmudelile, vaid kujundati välja peenviimistluse käigus. Google saab kriitikat igal juhul, vahet pole, mispidi nad lähenevad. Kõiki kasutajaid rahuldada pole võimalik.

3tallinn Gemini Rassid

Gemini pildiloomefunktsiooni ajalookäsitlus.

Kas võib juhtuda ka, et tehisaru hakkab oma arengus teatud faasi jõudes meie, inimeste, eest kultuuri arendama; et kultuuriline areng ei toimugi tulevikus enam eelkõige inimvaimu ja -tegevuse sfääris?

Üldine vastus on see, et kõike võib juhtuda. Keegi täpselt tegelikult ei tea. Üks asi, millele tasuks mõelda, on see, et me räägime inimkultuurist. Mõnes mõttes on see küsimus selle kohta, kuhu TI pidama jääb, kui ta peaks pidama jääma. Kui ta jääb pidama tasemele, kus teda mingil põhjusel inimkultuur või inimkultuuriga seostumine huvitab, siis on tõenäoliselt vastus jah. Kui meil on planeedil inimtasemel süsteeme, mida on rohkem kui inimesi, siis on kultuuriline mõju tõenäoliselt suur. Küsimus on praegu selles, kui kauaks need süsteemid inimtasemele jäävad. Kui need lähevad inimestest mööda, siis nad tõenäoliselt inimkultuuri ei mõjuta, kuna see ei paku neile huvi. Kui TI arengutase ületab mingil ajahetkel inimeste oma, siis on meil paratamatult palju suuremad probleemid kui kultuurilised mõjud.

 

Kui kaugel me praegu superintelligentse TI tekkimisest oleme?

Keegi täpselt ei tea. Eksperdid annavad sellele väga erinevaid tõenäosushinnanguid. Me võime mõelda, milline on ajaperiood, mil superinimlike süsteemide tekkimine on veel vähetõenäoline. See periood on hetkel mõõdetav ainult kuudes. Samas ei saa kindlalt väita, et see juhtub, aga ei saa ka sajaprotsendiliselt öelda, et ei juhtu.

 

Mis on potentsiaalsed ohud, kui superintelligentne tehisaru peaks sattuma n-ö halbadesse kätesse?

Facebook annab praegu avalikult TI kõigisse kätesse, võtku, kes tahab. Põhiline probleem, mis on sellega kaasnenud, on massiline häkkimine. See kõik sõltub sellest, milline on kättesaadava TI võimekus ja kui kiiresti see kasvab. Alles seejärel tekib küsimus, kuidas vältida võimekuste valedesse kätesse sattumist või siis ülivõimsa TI väljumist serveritest. Kõige ohtlikumad on erinevad massihävitusrelvad, näiteks biorelvad. Mul on näiteks kirjutuslaual üks TI tehtud vedelik, mis on väidetavalt deso, aga ma pole julgenud seda proovida. See pärineb ühest RAND Corporationi eksperimendist. Nad testisid, kui lihtne on tehisintellektil automatiseeritud biolaboritesse üle interneti tellimusi saata. Praegu oli TI-l veel näiteks maksmisel abi vaja, aga me ei tea täna, millal nendel süsteemidel enam tellimuse sooritamiseks kõrvalist abi vaja pole. Sellisel juhul võib juhtuda, et TI on võimeline kas iseseisvalt või siis mingisuguse kurja käe abiga bioloogilisi agente lahti laskma. Hetkel (juulis 2024) pole TI veel nii võimekas, aga võib-olla sügisel juba on.

 

Kui paljud inimesele eluliselt vajalikud süsteemid (näiteks vesi, elekter, põllumajandus) on praegu n-ö häkitavad, eriti tehisintellekti üliinimliku võimekusega?

Minu teada pole need süsteemid kõik internetiga ühendatud. Aga ma pole selle teemaga päris kursis, nii et täpselt ei oska öelda.

 

Milline on praeguse TI potentsiaal ja sellega seotud ohud sõjatööstuses?

Praegu käib Ukrainas võidujooks droonisegajate ja drooniintelligentsi osas. Mida vähem oleks droonidel inimestega sidet vaja, seda kergem oleks neil segajatest läbi saada. See motivatsioon on Ukraina sõja kontekstis igati mõistetav, kuid sellega kaasneb ka probleeme. See võib lõpuks viia selleni, et tekivad relvad, mis on intelligentsed, kiired, isepaljunevad ja väiksed (tõenäoliselt nii väiksed, et meie neid enam oma silmaga ei näe). Samuti võib juhtuda, et need pole enam riikide kontrolli all. Riikidele peaks olema eluliselt oluline vältida igati miniatuursete, kiirete, intelligentsete ja isepaljunevate taparobotite kõigile kättesaadavaks muutumist. Praeguse trendi juures pole aga selline stsenaarium kahjuks enam kaugel. Positiivne on see, et järjest rohkem riike hakkab sellest probleemist aru saama. Pidasin just hiljuti Viinis selleteemalisel riikidevahelisel konverentsil kõne.2 Praegu üritatakse rahvusvahelist seadusandlust luues kuidagi mööda saada ÜRO auto­noomsete relvade  komisjonist, kuhu kuuluvad nii Venemaa kui ka USA, kes blokeerivad momendil igasugust autonoomseid relvi puudutavat seadusandlust.

 

Te olete asutanud kaks uurimiskeskust — Ühendkuningriigis Cambridge’i Ülikooli juures asuva eksistentsiaalse riski uurimise keskuse (Centre for the Study of Existential Risk) ja Ameerika Ühendriikides Massachusettsi osariigis Cambridge’is tulevikuelu instituudi (Future of Life Institute ehk FLI). 2023. aasta märtsis tõi tulevikuelu instituut avalikkuse ette argumentidega kaetud häirekirja, millega kutsuti vähemalt pooleks aastaks võimsate tehisarude arengut pidurdama. Sellel pöördumisel, millele ka teie alla kirjutasite, oli esmalt tuhat allkirja, ruttu lisandus veel kümneid tuhandeid.

Küla tasandil saaksime teha nii, et leiame, et „me ei taha enam seda kratti või puuki”, ja noh, siis viskame selle merre ja ongi kõik. Aga kas globaalsel tasandil on üldse enam võimalik TI arendamisega seotud probleeme ja ohte kontrollida? Milliseid meetmeid on selles osas juba rakendatud?

Ikka on võimalik kontrollida. Ameerikas võttis Joe Biden näiteks 30. oktoobril 2023 vastu täitevkorralduse. Vabariiklased muidugi kirjutasid juba oma valimisprogrammi, et nad kutsuvad selle võimule saades kohe tagasi. Selle põhjuseks on aga peamiselt dokumendi vasakpoolseid loosungeid täis sõnastus. See sisaldab asju, mis on vabariiklastele selgelt ebameeldivad. Kahjuks pole tegemist neutraalse dokumendiga. Aga see on vähemalt praegu olemas ja Ameerikas toimib. Californias käib töö Wieneri eelnõuga, mille algatanud organisatsiooni (CAIS) nõukogu liikmeks ma olen. Ameerikas seega asjad arenevad. Hiinas on, nagu ikka, kõik asjad kontrolli all ja neil on tehisintellekti puudutav seadusandlus juba mõnda aega olemas. Euroopas võeti vastu tehisintellekti regulatsiooni akt (EU Artificial Intelligence Act). FLI pidi kõvasti tööd tegema, et seda tehnoloogiafirmade rünnakute eest kaitsta. See akt hakkas Euroopas 1. augustist osaliselt ja hakkab uuest aastast täielikult kehtima. Maailmas ei ole praegu ühtegi TI-ga seotud seadust, mis meid piisavalt võimeka TI vastu kaitseks, kuid see, et meil on midagigi, on tunduvalt parem kui see, kui meil poleks midagi. Suur probleem on praegu selles, et valdav osa seadusandlusega tegelevaid inimesi ei taju olukorra tõsidust ja TI ohtlikkust. Kuna üksteisega võidu jooksvad ettevõtted ei kontrolli võidujooksu ennast ja kuna nemad põhiliselt praegu TI arengukäiku dikteerivad, siis on kogu see protsess ettevaatamatu ja -arvamatu. Seetõttu suureneb nn hoiatuslaskude tõenäosus üha enam. Võib juhtuda asju, mille puhul on selgelt näha, et tegemist on suure jamaga. Hirm on ka seetõttu, et piisavalt suur jama võib ilmneda alles siis, kui on juba liiga hilja. Kui olukord on inimeste kontrolli alt väljunud ja selle lahendamiseks enam midagi ette võtta ei anna. Samas suurendab võidujooks TI-ettevõtete vahel natuke ka tõenäosust, et „hoiatuslask” toimub sellises faasis, kus tehisintellekt pole veel piisavalt võimas, et inimkonda hävitada. Sellise stsenaariumi puhul võib tekkida ka laiemal üldsusel šoki tulemusel lõpuks arusaam, et nüüd on vaja TI osas kiiresti midagi ette võtta.

 

Kas võib öelda, et rahaline kasu jätab praegu arendajate seas moraaliküsimused ja eksistentsiaalsed küsimused lihtsalt tagaplaanile?

Praegu võib nii öelda küll. Õnneks on selliseid TI arendajaid, kes inimkonnast ei hooli, ainult kümme kuni viisteist protsenti. Nad saavad küll aru, et riskid on olemas, kuid on otsustanud neid täielikult ignoreerida. Enamik siiski näeb riskide maandamise vajadust (kuigi pidevalt selle peale ei mõtle) ja mina usun, et senikaua, kuni võimalikult suur kontroll TI üle püsib inimeste käes, on meil veel lootust.

 

Millistele teemadele-tahkudele tuleks esmajärjekorras tähelepanu pöörata, et TI arendamist kontrolli all hoida?

Kõige lihtsam asi, mis on ka Euroopa Liidu aktis sees ja loodetavasti varsti rakendub, on see, et kõigel, mis on tehisintellekt loodud, peab olema juures vastav märge. Nii suudame vältida suuremat segadust inimeste seas, kes TI loodut kasutavad, näiteks süvavõltsingute puhul. Kuna TI loodav sisu muutub järjest odavamaks ja seda saab järjest rohkem, peab olema võimalik eristada, milline sisu on inimese tehtud ja milline TI genereeritud. Keerulisemate teemade juurde minnes tuleb välja tuua, et praegusel hetkel on maailmas umbes kuus inimest, kes otsustavad, mis TI-st saab või mida sellega ette võtta. Nad ei kuulu valitsustesse. Peaks selgeks tegema, kas ülejäänud maailmale on aktsepteeritav, kui inimkonna käekäiku mõjutavaid otsuseid dikteerivad ainult kuus inimest. Ja kui see pole aktsepteeritav, siis peaks välja mõtlema edasised sammud. Minu üks ettepanek on, et võiksid olla esinduskomisjonid, kust peab enne läbi käima ja luba taotlema, kui soovitakse enneolematult suurte TI-dega ekperimenteerida. Neid ettepanekuid ja teemasid on muidugi veel. Olen paljud neist ka oma kodulehel3 välja toonud, kui kellelgi peaks olema huvi lähemalt tutvuda.

 

Kui suur on tänapäeval pinge võimsate TI arendajate (näiteks Google, Amazon, OpenAI, NVIDIA) ja nende vahel, kes näevad selles arendamises ohtu ja püüavad seda piirata? Kuidas see pinge märkamatult inimkonda mõjutab?

Mul on seda raske öelda. Küsitlused näitavad, et keskmine ameeriklane on selgelt häiritud mainitud suurettevõtete hoolimatusest ja sellest, et teda TI katsejänesena kasutatakse. Tõenäoliselt see pahameel kasvab. Kuidas asi lõpuks välja kujuneb, on ähmane, kuna TI arendajate võim järjest suureneb. Info, et arendajad mängivad inimeludega, keskmise inimeseni ilmselt veel ei jõua. Samas saadakse juba väga hästi aru, et  küsimuse all on nende majanduslik tulevik ja heaolu. On juba näha, et inimesed hakkavad järjest tööst ilma jääma, kuna TI teeb selle paremini ära. Twitteris seletas koomik Andrew Rousso kogu olukorra väga tabavalt lahti.4 Suurtel TI arendajatel tekib üha rohkem sisemist ebakõla, kuna nad leiavad, et nad pole piisavalt legitiimsed. Võib tekkida olukord, kus selliste arendajatega, kes soovivad saada rohkem legitiimsust, õnnestub teha vahetustehing. Et nad piiraksid oma tegevust mingil viisil ja saaksid selle eest ühiskonnalt tunnustust. Sellele saaksid nad ka omavahelises konkurentsis edaspidi toetuda. See võib välja jõuda selleni, et on mingi ports ühiskonna sanktsioneeritud TI arendusettevõtteid ja neid, kes on selgelt n-ö õigemal teel. Selge on see, et mida võimsamaid süsteeme arendatakse, seda rohkem kõhklusi see arendajates tekitab. Praegu on Ameerika arendajatel suhtumine, et ehitame võimalikult võimsa masina ja vaatame, mis juhtub. Hiinlased on selles osas juba ideoloogilistel põhjustel palju ettevaatlikumad. Nad tugevdavad pidevalt oma TI-ga seonduvat seadusandlust ja riigi kontroll arendusettevõtete üle on päris suur. Aga Ameerikas see kahjuks veel nii pole. Praeguse tehisintellekti paradigma puhul pole võimalik kontrollida, mida baasmudel teeb või ütleb. 2023. aasta veebruaris oli näiteks Microsoft Bing AI Chatbotiga suur skandaal, kuna nad andsid välja programmi kodustamata versiooni. Bing hakkas kasutajaid ähvardama ja ähvardas ka üht ajakirjanikku, nõudes, et too oma naisest lahutaks ja Bingiga abielluks. See, mida Bing ütles, ei olnud Microsofti kontrolli all. Kuna Ameerikas puudub TI karm riiklik järelevalve, on seal sellised asjad võimalikud. Hiinas aga eriti mitte.

 

Mõned on kindlad, et tehisarul minateadvust tekkida ei saa, mõned arvavad, et see on siiski võimalik. Tulevikku vaatavalt räägitakse tehislike närvivõrkude suurusest, mis võib saada määravaks, millestki, mida võiks nimetada sünteetiliseks teadvuseks. Mingit kindlat teadmist skaalal võimatu–võimalik meil siin paraku pole. Küsimus on vist pigem tõenäosuses? Milline on teie arusaam ja intuitsioon, kas tulevikus on võimalik, et räägime TI puhul ka sünteetilisest (mina)teadvusest? Kuidas võidakse selleni jõuda?

Ikka on võimalik. TI-ga on tänaseks tehtud näiteks peeglikatse. See tunneb ennast „peeglist” väga hästi ära. Kui lasta TI-l midagi kirjutada, sellest kuvatõmmis teha ja see talle tagasi saata, siis ta tuvastab väga hästi, et tegemist on tema kirjutatud asjaga. Lisaks saab ta aru, et tegemist on tekstiga, mida tal on endal võimalik mõjutada.5 TI minateadvuseni jõudmine ei ole kindlasti arenduses omaette eesmärk, kuna arendustegevuses eesmärgid puuduvad. Lihtsalt vaadatakse, mis juhtub. Metafoorselt võib öelda, et kuhjatakse suur hunnik liiva kokku (kiipe tehakse ränist, ehk siis põhimõtteliselt liivast, kuna liiv on ränioksiid) ja lastakse sinna välk (elekter) sisse. Kui midagi katastroofilist ei juhtu, siis kuhjatakse lihtsalt rohkem liiva ja lastakse suuremat välku, kuni midagi juhtub. Seega võib mõnel süsteemil juhuslikult arendustegevuse kõrvalproduktina minateadvus tekkida küll.

 

Jätkuks eelmisele küsimusele: kas on võimalik, et hakkame tulevikus rääkima ka TI-st kui uuest eluvormist? Näiteks transhumanistid oleksid ilmselt kahe käega selle poolt. Just tänapäeval näeme ju väga palju seda, kuidas mõisteid ümber defineeritakse, uuesti sisustatakse. Noh, võtame kätte ja defineerime „elu” teistmoodi…

See on pigem küsimus inimpsühholoogia, mitte TI kohta. Minu arvates sellest arendusega seonduvalt mingit erilist vahet ei teki. Max Tegmark on kirjutanud raamatu „Our Mathematical Universe”, mille mõte seisneb selles, et kaugelt vaadates tundub maailm mittematemaatiline, aga kui hakata asju lähemalt vaatama, läheb maailmas sisalduv järjest matemaatilisemaks. Tegelikult pole puhtmatemaatiliselt eriti vahet, kas vaatleme eluvormi või hunnikut numbreid ehk tehis­intellekti. See, et tehisarust rääkides kasutatakse inimkeskseid mõisteid, tuleneb kommunikatiivsest lihtsustamisest. Me võime öelda, et TI ütles mulle seda või toda. Või siis formuleerida n-ö korrektse lause, lähtudes sellest, et TI on masin, ning öelda, et ma kirjutasin arvutiekraanil sellesse veebivormi, vajutasin sisestusklahvi ja ootasin, kuni signaal vastu tuleb, seejärel lugesin ekraanilt vajalikud pikslid läbi ja võtsin sealt selle sõnumi, mida ma nüüd teile edastan. Ja et vahepeal toimus palju matemaatilisi transaktsioone, mis minu antud sisendist väljundi tekitasid. Kumb tundub kommunikatiivselt loogilisem ja lihtsam? See, kuidas me TI-st räägime, tehisintellekti ennast minu arvates ei mõjuta. See on inimeste enda otsus, kuidas nad soovivad TI-st rääkida.

4tallinn Ex Machina

„Ex Machina”, 2014. Režissöör Alex Garland.

Kas tehisintellekti on täna võimalik ühe nupuvajutusega välja lülitada?

Ei ole. See on ka üks minu kodulehel välja toodud prioriteetidest, millega peaks TI turvalisuse osas tegelema. Seda küll töötatakse praegu välja, kuid pole ei TI arendajate ega ka riistvara arendajate huvides sellega tegelda, mistõttu sellega tegelevad peamiselt erainitsiatiivil asutatud organisatsioonid. Paari neist finantseerin ka ma ise. Praegune olukord on võrreldav näiteks sellega, et autodel polnud kunagi turvavöid. Mingi hulk inimesi arvas, et nende paigaldamine oleks mõistlik, aga autotootjad andsid mõista, et nad ei viitsi sellega tegelda ja et neil on sellest suva. Asja muutmiseks on vaja vastavat seadusandlust, mis turvameetmeid nõuaks. Seetõttu on need eraalgatuslikud uurimisprojektid väga teretulnud, kuna nad näitavad ühiskonnale, kas turvavööd on võimalikud ja vajalikud, või siis tänapäeva tulles, et TI väljalülitusnupp on võimalik ja kasulik. Õnneks sellega tegeldakse.

 

Kui fokuseerida veel eri tüüpi ohtudele, mis TI arendamisega inimkonna jaoks kaasa tulevad, mida nimetate? Ja kuidas neid vältida?

Üldine arusaam on see, et on üks suur üldine eksistentsiaalne oht ja siis palju väikseid spetsiifilisi ohte. Need väikesed ohud sõltuvad kõik TI võimekuse tasemest. ChatGPT-4 puhul võib välja tuua näiteks propaganda automatiseerimise ohud, mis on praegu bot’ide abil ka realiseerunud. Siis on veel eespool mainitud tööta jäämise ohud. Kui välja tulevad ChatGPT-4.5 või isegi 5, siis peab mõtlema ka bio- ja relvaohtudele. Mida võimekamaks süsteemid muutuvad, seda rohkem ohte tekib, kuni selleni välja, et inimestel kaob lõpuks TI üle kontroll.

 

Olgu mis on, aga tehisintellekti eristab ja jääb inimesest eristama see, et tal pole hinge. Kas just see võib saada viimaks määravaks ka ohuskaalal? Mida ma silmas pean: TI võib areneda x, y, z suunas ülimalt võimekaks ja teha seejuures omasoodu järeldusi p, q, r, millest me midagi ei tea ja… see kõik on oma funktsionaalsuses hingetu. Ühesõnaga, (inim)elul pole TI jaoks tema toimimise seisukohalt eraldi võetuna väärtust, see tasand on talle kättesaamatu. Nõnda pole tal ka oma järeldustes mingit põhjust hoolida sellest, et inimesel on hing ja et loodus elab. Samas võib ta endale õppimise käigus n-ö aru anda, et tal on inimesega võrreldes midagi puudu või et hoopis inimesed on tema silmis puudulikud.

Kas TI võib tulevikus muutuda elu- ja inimvaenulikuks? Või on ta juba eos oma olemuselt elu- ja inimvaenunlik? Ja veel, kui teie oma kolleegidega TI teemal suhtlete, kas hing on teie omavahelises arupidamises ka teemaks?

Hing otseselt teemaks pole. Võib öelda, et sellel on põhjus, miks viimased 5000–200 000 aastat (sõltub, kuidas arvestada) on planeeti Maa kontrollinud inimesed, mitte teised primaadid. Kui vaadata, mis erinevus on inimestel võrreldes šimpansitega, siis see seisneb portsus võimekustes, mida šimpansitel pole. Need saab paberile kirja panna. Sama loogika kehtib praegu TI arendamise puhul. See on arendajate nn poenimekiri. Võrreldakse omadusi, mille tõttu inimesed on domineerinud, ja püütakse neid TI-le külge pookida. Kui see nimekiri ammendub, saab TI-st planeedi kõige võimekam „liik”. Kui arendajatel ei õnnestu tehisintellekti inimeste ja kõigi teiste liikide huvidega arvestama panna, siis on tõenäoliselt meiega kõik.

 

Milliseid küsimusi peaks inimkond endalt TI-ga seoses küsima? Mida saaks lihtinimene turvalisuse säilitamiseks ära teha?

Lihtsat vastust pole. Üks asi, mida ma üldiselt soovitan, on see, et inimesed kasutaksid TI vahendeid ja paneksid seejuures aktiivselt tähele, kui kiiresti need programmid arenevad. Et tuvastataks, kui suur vahe on ChatGPT-4-l ja sellel versioonil, mis aasta tagasi väljas oli. Endas ei tohiks kinnistada arusaama, et TI on nüüd valmis. See areneb pidevalt ja väga kiiresti. Kasutades tekib parem arusaam sellest, mida TI on võimeline tegema ja kuidas need võimed arenevad. Seeläbi tekib ka parem arusaam võimalikest ohtudest. Inimesed on TI gigahertsides mõõdetava töötempoga võrreldes nagu taimed.6 Tasuks endalt küsida, et kui tulevikuperspektiivis on TI-st saadav kasu tohutu, siis kui suurt riski inimkonna täielikuks hävinguks on seejuures mõistlik võtta. Praegu pole mingit kindlat arusaama ega eesmärki, mille jaoks me täpselt tehisintellekti arendame ja millist kasu see võiks tuua. Seega on TI-ga seonduvate eksperimentide juures oht selgelt liiga suur, võrreldes võimalike kasuteguritega. Tänu TI-le võime saada tunduvalt võimsama ja kiirema progressi, kui maailm on eales kogenud, aga seda eeldusel, et me suudame seda juhtida. Praeguses paradigmas me kahjuks seda progressi inimestest targema TI-ga hakkama saamiseks piisavalt tugevalt ei juhi. Kui me aga peaksime asja kuidagi kontrolli alla saama, siis võib öelda, et saaksime tänu sellele tõenäoliselt palju kiiremini progresseeruva, selgemini ennustatava ja planeeritava tuleviku.

5tallinn Colossus1

„Colossus: The Forbin Project”, 1970. Režissöör Joseph Sargent.

Lõpetuseks, teil on oma kodulehel välja toodud muljetavaldav nimekiri teie lemmikfilmidest. Viimane sissekanne on 2019. aasta „The Gentlemen”. Kuidas see nimekiri tekkis? Mis filmid on teile lähiajal muljet avaldanud, nii dokumentaal- kui ka mängufilmide seast? Oskate ehk soovitada ka mõnd TI-ga seonduvat linateost?

Alustasin seda nimekirja kunagi ammu Ahti Heinla eeskujul. Tal oli pikk nimekiri filmidest, mis talle meeldisid. Kulutan igale filmile umbes üks kuni kolm tundi oma aega ja pärast seda on üsna lihtne kirja panna, kas see mulle meeldis või mitte. Loodan, et äkki õnnestub mul kunagi luua mingi programm, mis suudab ette ennustada, milliseid filme mul oleks mõistlik vaadata. Siiamaani pole see veel õnnestunud. Kahjuks pole mul viimasel ajal filmide vaatamiseks eriti aega olnud. Jõuan praeguse elutempo juures vaadata ainult neli kuni kuus filmi aastas. Lähiajal pole tõsiseid meeldimisi olnud, „Oppenheimer” näiteks sinna nimekirja välja ei jõudnud. TI-teemaliste filmidega on see jama, et filmid peavad üldjuhul olema inimestele huvitavad vaadata, aga realistlikud TI-stsenaariumid inimestele kahjuks huvi ei paku. Nendest huvitavaid lugusid vormida on võrdlemisi keeruline. Saab muidugi võtta ühe aspekti TI problemaatilisusest, sinna ümber mingi huvitav ja mitterealistlik lugu mõelda ja sellisel juhul võiks asi toimida. Üks selline suurepärane film on „Ex Machina”. See annab väga hästi edasi, et TI-l on reaalsuses inimestest täiesti suva. Teine sarnase mõttega film, mida julgen soovitada, on „Colossus: The Forbin Project”. Väga hea film, mille alusideeks on oht, mida masinad inimkonnale tekitavad, on ka näiteks „Düün”.

 

Vestelnud PILLE-TRIINU MAISTE ja DONALD TOMBERG

 

Viited:

1 Tartu Ülikooli filosoofia ja semiootika instituut 2022. Jakob von Uexküll. 10. VI. —
https://filsem.ut.ee/et/sisu/jakob-von-uexkull

2 Jaan Tallinn Keynote: 2024 Vienna Conference on Autonomous Weapons — https://www.youtube.com/watch?v=TMKamTRpzO4

3 Jaan Tallinna koduleht. — jaan.info/priorities

4 Andrew Rousso sketš. — https://x.com/AndrewCritchPhD/status/1767049190415237207?fbclid=IwY2xjawEa0D1leHRuA2FlbQIxMAABHT27rV7GKbdtwPnPnKeN0frTMd3O2CdN0ISmQHQO52egULXPhStMYRZbhw_aem_kz69GC-M1JQlhzpeZIyO7g

5 Rudolph Laine, Alexander Meinke, Owain Evans. Towards a Situational Awareness Benchmark for LLMs. — https://openreview.net/pdf?id=DRk4bWKr41

6 Andrew Critch 2022. Slow motion videos as AI risk intuition pumps. Lesswrong,
14. VI. — https://www.lesswrong.com/posts/Ccsx339LE9Jhoii9K/slow-motion-videos-as-ai-risk-intuition-pumps

Samal teemal

„ÄRKA ÜLES, ELINA!” — REPRESSIIVSE VÕIMUGA KOHANEMINE KUI LÕPUTU ÕUDUSUNENÄGU

Madis Kõiv ja Sulev Keedus, „Süütu”. Dramatiseerija ja…

NÄHTAMATU FILMIS EHK KUIDAS KIRJELDADA NINA. XI

Osalesin paar aastat tagasi Pimedate Ööde Filmifestivali vestluspaneelis pealkirjaga „The Art of Translation: Communication between Director…
juuni 2025

MIKS SEE TOOTS SIND REBIS?

Filmi ja tantsu vahel võib leida põhimõttelisi erinevusi, aga ka vähemalt sama suuri sarnasusi. Mõlemad põhinevad liikumisel. Mõlemad kätkevad endas…
juuni 2025

JUMALIK INSPIRATSIOON, LOOJA VABADUS JA DRAMATURGIA REEGLID I

Tõnis Pilli üheksaminutises portree-, intervjuu- ja tudengidokis „Peeter Simm, räägime filmist” (2015) ütleb…
juuni 2025
Teater.Muusika.Kino