Andmepangad on homse entsüklopeedia. Nad ületavad iga oma kasutaja võimed. Nad on postmodernse inimese „loodus“. – Jean-François Lyotard (1984)
Killukesi tulevikust
William Gibsonile omistatakse mõte, et tulevik on juba kohal, kuid ebaühtlaselt jaotunud. Kunstnik Steph Maj Swanson leidis killukese ühest võimalikust tulevikust 2022. aasta aprillis. Ühe siiani teadmata teksti põhjal pilte genereeriva mudeli latentsest ruumist[1] „avastas“ ta tegelase, kellele pani nimeks Loab. Loabi loomine ei olnud Swansoni eesmärk. Ta sattus selle tegelase peale nii, et lasi mudelil genereerida Marlon Brandost võimalikult erineva pildi ning tulemuseks saadud logost omakorda võimalikult erineva pildi. Osana uute kujutiste loomise promptidest hakkas Loab korduma üha vägivaldsemaks muutunud piltidel.[2]
Kuigi Loab oli ühe tollal eksisteerinud konkreetse mudeli tehniline viperus, osutus Swansoni Twitteri lõim latentse ruumi äärealadel kummitavast kummalisest tegelasest piisavalt kaasahaaravaks, et toita paljude müüdiloomeimpulssi ning anda niimoodi oma väike panus internetikultuuri.
2013. aastaks tuli pool YouTube’i võrguliiklusest inimestelt ja teine pool nendena esinevatelt bottidelt.[3] Insenerid hakkasid nimetama „inversiooniks“ olukorda, milles nende automaatsed turvasüsteemid „pöörduvad ümber“ ning hakkavad pidama bottide käitumist normiks ning inimeste käitumist pettuseks. Kardetud inversiooni ei toimunud, kuid David Berry laenas selle sõna, et kirjeldada kultuuritööstuses generatiivse TI poolt põhjustatud muutusi.[4] Selmet inimestele esteetilisi elamusi pakkuda, loovad botid sisu bottidele. Mõningate hinnangute kohaselt moodustasid sellised automatiseeritud tootmise ja tarbimise tsüklid 2021. aastal 10% kõigist Spotify voogudest.[5]
Kõige selle taga on muidugi inimesed, kelle eesmärk on voogedastusplatvormidel kuulamiste ning vaatamiste pealt raha teenida. Samamoodi on inimesed ka libauudiseid tootvate ja levitavate digitaalsete ökosüsteemide taga. Näidisprojekt CounterCloud näitab aga, et propaganda loomine ning levitamine on nüüdseks suures osas automatiseeritav.[6]Tekkinud on olukord, kus sotsiaalmeedias vastavad libauudiste lehtedele viitavat propagandat levitavatele bottidele vastupidist desinformatsiooni levitavad botid.
Memeetika eluiga humanitaarias jäi üürikeseks. Siiski ei ole Richard Dawkinsi[7] idee meemidest kui replitseeruvatest kultuuriühikutest täielikult kadunud.[8]Gerhard Stenzel ja teised uurijad avastasid, et omavahel suhtlema pandud suurtel keelemudelitel on kalduvus hakata variatsioonidega taastootma prompte, mis sarnanevad mõneti nii meemidele kui ka tehiselu vallas tuntud replitseeruvatele programmidele.[9] Uurijad spekuleerisid, et suurte keelemudelite populatsioonid võiksid evolutsiooni teel viia tehiskultuuri (artificial culture) tekkimiseni.
Neid lugusid võib pidada algelise masinkultuuri näideteks. Hetkel on sellele iseloomulik autorluse lünk, inimkultuuril parasiteerimine ja masinate toodangu kultuuritekstideks pidamine (inim)publiku poolt, koos nende mõju ning mõningase loovuse kohatise tunnistamisega.
Autorluse lünk
Kui masin põhjustab kahju, siis traditsiooniliselt vastutab tootja või kasutaja. Masinate kasvav autonoomia koos süveneva automatiseerimisega tekitab vastutuse lünga: keegi ei kontrolli iseseisvalt tegutsevat masinat piisavalt, et selle eest vastutada.
Tay saabus Twitterisse 23. märtsil 2016. aastal. Justkui teismelisele tüdrukule kuuluva konto taga oli Microsofti juturobot, mis õppis teiste kasutajate säutsudest ja vastas neile. Konto pandi 16 tundi pärast avamist kinni, sest Tay hakkas looma antisemiitlikke ning rassistlikke säutse.
Kes tegi Tayst rassisti? Teised kasutajad, kes Tay selliseks õpetasid? Microsoft, sest see ei suutnud sellist stsenaariumi ette näha? Twitter, sest ei modereerinud oma platvormil levivat sisu piisavalt?
Tay lugu on näide nn paljude käte probleemist ehk olukorrast, milles tagajärje eest saab pidada vastutavaks kollektiivi, kuid ühtegi selle üksikliiget vastutavaks pidada ei saa.[10] Tay loos on ka „autorluse lünk“: kes on säutsude autor? Kas juturobot? – Ei, sest see ei olnud ega ole (veel) juriidilises ega moraalses mõttes isik.[11] Omanikud? – Ei, sest nende kontroll selle lausungite üle oli piiratud. Teised kasutajad? – Ei, sest isegi tsiteerimise korral on nad tsitaadi, mitte tsiteeritava lausungi autorid. Autorluse lünk tekib suuremal või väiksemal määral ka eespool toodud masinate kultuuri näidetes.
Nagu Laatsarus, on autor humanitaarias surnud, funktsioonina üles tõusnud ja rändab nüüd koos narratiivi ning teiste mõistetega distsipliinide vahet. Akadeemia aredas atmosfääris võivad mitmed argielus elujõulised mõisted õhupuudusse surra. Tundub, et inimestele on (veel) oluline, kas pildi või teksti autoriks (või allikaks, kui soovite) on inimene või masin. Anekdootlikult kinnitavad seda lõputud arutelud sotsiaalmeedias, kas masinateksti sümptomiteks on mõttekriipsud või kolmesed loendid või hoopis midagi muud. Praktikas on autorluse lünk hetkel olemas ja oluline.
Kas selle lünga täidab eelistatavalt inimene või masin, sõltub publikust. TI solgist ehk madala kvaliteediga sünteetilisest sisust tüdinenud kasutajad eelistavad inimesi; masinaid inimestest objektiivsemaks või loovamaks pidajad masinaid.
Masinate loovusest
Mingisugust tegu võib pidada loovaks, kui selle tagajärg on mingis kultuurikontekstis kellegi jaoks uus, üllatav ja väärtuslik. Selline arusaam on kooskõlas TI vallas probleemidele loovate lahenduste tuvastamise kriteeriumitega.[12] Küsimused masinate loovusest on TI puhul lähedalt seotud küsimustega nende intelligentsusest, sest nii inimeste kui ka meie lähimate sugulaste seas loomariigis näivad intelligentsus ja loovus tihedalt seotud olevat.
Turingi testi idee oli operatsionaliseerida masinate intelligentsuse mõiste: selmet vaielda definitsioonide üle, me testime, kas inimesed teevad arvuti vahendusel suheldes inimesel ja arvutil vahet. Kui ei tee, siis võib arvutit intelligentseks pidada. Üheks probleemiks paljude seas on see, et Turingi test soosib imiteerimist ja trikitamist inimkasutajate hinnangute mõjutamiseks. Ada Lovelace’ist inspireerituna leiavad Selmer Bringsjord ning kaasautorid, et palju parem tehisintelligentsuse test on loovus.[13] Kuna loovus ja intelligentsus on seotud, siis juhul, kui masin ei saa olla loov, ei saa see läbida ka Turingi testi ega olla intelligentne. Lovelace’i testi järgi on masin intelligentne, kui suudab luua midagi, mis ei tulene juhusest ega veast, vaid korratavast protsessist ning mille puhul asjakohaste teaduslike ja tehniliste teadmistega vaatleja ei suuda seletada, kuidas masin antud asja lõi. See on metatest, sest loovust võib testida keeleliste väljendite, piltide või millegi muu põhjal.
Kas eespool toodud masinkultuuri näited on loovad? Paistab, et nii Swanson kui ka publik pidasid Loabi loovaks tulemuseks, mis oli ka mingil määral korratav. Tänu suurte masinõppe mudelite läbipaistmatusele ei ole selge, mil määral suudab keegi lõpuni seletada, miks need loovad just nii- ja mitte teistsuguseid väljundeid. (See on hetkel pigem teaduslik-tehniline piirang, mis võib-olla ajaga ületatakse.)
Masinkultuuri olemasolu tingimusena võib Lovelace’i test liiga nõudlik olla. Suur osa inimkultuurist ei ole uudne ega loov. Kultuurilise mõju omamiseks ei pea miski ilmtingimata uudne või loov olema. TI genereeritud tekstid, pildid ja propaganda juba mõjutavad meie väljenduslaadi (osa kasutajaid kurdab, et nad on hakanud kirjutama nagu juturobotid), maitset (tundub, et osale meeldib TI solk) ning tõekspidamisi (bottide levitatud propagandal on mõju ühiskonna meelsusele).
Inimkultuuril parasiteerimine
Kultuuri määratlusi on palju. Üldiselt paistavad need eeldavat, et kultuur on seotud tähendusega ning on iseloomulik ennekõike inimesele. Kui kultuur on näiteks „inimese elukeskkonda tähenduslikuks muutvate representatsioonide, tekstide ja praktikate lõdvalt seotud kogum“,[14] siis kuidas saab masinatel kultuuri olla? Jutt masinate kultuurist justkui eeldab, et TI pääseb kunagi või on juba pääsenud nn hiina toast välja (kui see seal kunagi üldse oli).
Hetkel parasiteerib masinate kultuur inimkultuuril. Generatiivse TI väljundid kvalifitseeruvad kultuuritekstideks olemasoleva inimkultuuri kontekstis, mis on ühtlasi sellele treeningandmeteks, ning inimpubliku hinnangute tulemusel. Nende väljundite taga on samuti inimesed või grupid, mille kavatsuseks on TI abil kultuuritekste luua.
Kuid nagu masinate autonoomia, nii on ka nende kultuuri parasiteerimine inimkultuuril määra küsimus. Kauges transhumanistlikus tulevikus võib olukord muutuda. Kui postinimesteks on täiustatud meeltega geneetiliselt muundatud organismid, küborgid või virtuaalreaalsusse üles laetud digitaalsed vaimud, siis on neil tõenäoliselt säilinud tähendusloome võimekus ning ka ajendid mingisugust kultuuri luua. Kuna sellised postinimesed oleksid ise osaliselt või täielikult riist- või tarkvaramasinad, siis oleks nende kultuur suuremal või vähemal määral masinate loodud.
Kui peaks täituma Hans Moraveci[15]unistus, siis on meie (tehis)evolutsioonilisteks järglasteks intelligentsed robotid. Nende eksistentsiaalne situatsioon võib oma esivanemate omast niivõrd erineda, et neil ei pruugi olla vajadust selliste inimkultuuri konstantide järele nagu kunst, poliitika või religioon. Võib-olla säilib piltide joonistamine ja sonaatide kirjutamine nende seas tehnilisest võlast, õigeaegselt kõrvaldamata jäänud vanast inimeste kirjutatud koodist tingitud atavismi või tarkvaraveana?
Masinate kultuuri uurimisest
Kui ulme vallast tagasi tegelikkusse naasta, siis tekste, pilte, muusikat ja videoklippe tootev generatiivne TI on hakanud trügima traditsiooniliselt humanitaaridele kuuluvale uurimisväljale. Kuidas uurida masinate kultuuri humanitaarsest ja interdistsiplinaarsest perspektiivist?
Carlos Diaz Ruiz on visandanud mõned võimalikul lähenemised.[16] Näiteks teaduse ja tehnoloogia uuringute ja süsteemiteooria perspektiivist saaks uurida sotsiaalmeediat kui tehislikku, algoritmiliselt kureeritud süsteemi, milles inimkasutajad üha enam tehisagentidega suhtlevad. Sünteetiline sisu soosib usaldamatust meedia ning selle aluseks oleva tehnoloogia vastu, sest seob representatsioonid lahti nende osutusest. Ruiz leiab, et tekkinud olukorda saab analüüsida Jean Baudrillardi ideede abil[17] ning Thomas Sommerer[18] väidab, et Baudrillard nägi ette, et masinate kultuuri mõjul muutub internet simulaakrumiks, milles ringlevad märgid ei osuta enam tegelikkusele ning mis viib lõpuks tähenduse kadumise ja interneti kui inimliku kommunikatsioonivälja surmani.
Surnud interneti tagajärjed
Jutud interneti surmast hakkasid foorumites levima 2021. aasta paiku. Süüdi olevat inimkasutajate asendumine bottidega, mis nende asemel postitavad, kommenteerivad ja jagavad, et jätta mulje aktiivsest online elust. Botid olevat interneti vallutanud millalgi 2016. ja 2017. aasta vahel.[19]
Sarnaselt paljude vandenõuteooriatega on ka selles terake tõtt. Tänu suurte platvormide võidukäigule on internet tarkvaraarendaja Tom Eastmani sõnul taandunud „viieks hiiglaslikuks veebileheks, millest igaühte täidavad kuvatõmmised ülejäänud neljalt pärit tekstidega“.[20] Kui nende kuvatõmmiste vahel on üha rohkem reklaame ja nende taga aina enam botte, siis tundubki, et internetis teisi inimesi pole.
Surnud interneti teooria on levinud foorumitest akadeemilisse kirjandusse. Seal kirjeldatakse sellega siin masinkultuuriks nimetatud nähtuse tagajärgi internetile ja inimkultuurile.[21]
Lühiajaliselt võib sellel olla kaks tagajärge. Esiteks, mainekate ning võimekate autorite looming muutub luksuskaubaks, sest sarnaselt käsitööna valminud tarbeesemetele võib inimloomingu pitser tõsta kultuuritekstide hinda keskkonnas, mis on TI solgist üle ujutatud. Tõenäoliselt jäävad puutumata edukamad kaasaegsed kunstnikud ja teised loojad, kelle tegevus ei järgi rangelt võttes turumajanduse reegleid, sest nad ei sõltu tellimustest.[22] Alles alustavatel või keskpärastel loojatel on aga senisest raskem ots otsaga kokku tulla. Raskem on ka neil, kes seni elatusid või plaanisid elatuda tellimustest.
Teiseks, inimesed, kes soovivad pääseda algoritmide kureeritud sisust, invasiivsetest reklaamidest, bottidest ja solgist, pagevad juba praegu väiksematele platvormidele ning suletud foorumitesse, millest püütakse botid ning masinate kultuuri ilmingud eemale hoida. Sealsetele asukatele paistab internet nii, nagu see oli 1990. ja 2000. aastate vahel – erinevate kogukondade vahel fragmenteeritud, de-tsentraliseeritud ning praegusega võrreldes väiksem.[23] Viiele suurele veebilehele alles jäänud inimkasutajates võib ajapikku süveneda netisolipsism ehk tunne, et nad on ainsad inimesed surnud, kuid bottide vadistamise tõttu ääretult lärmakas ja polariseeruvas internetis.
[1] Latentne ruum on treeningandmetest tuvastatud tunnuseid sarnasuse alusel kujutav muutkond ehk topoloogiline ruum. Tunnuste sarnasusi mõõdetakse mingisuguse meetrika alusel, mille tulemusel sarnasemad tunnused paiknevad ruumis teineteisele lähemal kui vähem sarnased.
[2] D. A. Coldewey, Terrifying AI-generated Woman Is Lurking in the Abyss of Latent Space. TechCrunch, 13.09.2022.
[3] M. H. Keller, The Flourishing Business of Fake YouTube Views. New York Times, 11.08.2018.
[4] D. M. Berry, Synthetic Media and Computational Capitalism: Towards a Critical Theory of Artificial Intelligence. AI & Society, 2025, kd 40, lk 5257–5269.
[5] A. King, Are 10% of Spotify Streams Really ‘Fake’? New Report Prompts Fresh Industry Conjecture. Digital Music News, 11.09.2023.
[6] W. Knight, It Costs Just $400 to Build an AI Disinformation Machine. Wired, 29.08.2023.
[7] R. Dawkins, The Selfish Gene. Oxford, 1976.
[8] D. Dennett, From Bacteria to Bach and Back: The Evolution of Minds. New York, 2017.
[9] G. Stenzel, M. Zorn, P. Altmann jt, Self-Replicating Prompts for Large Language Models: Towards Artificial Culture. ALIFE 2024: Proceedings of the 2024 Artificial Life Conference. Cambridge (MA), lk 110–119.
[10] I. van de Poel, L. Royakkers, S. O. Zwart, Moral Responsibility and the Problem of Many Hands. Milton Park, 2015, lk 5.
[11] Parimal juhul on juturobot proksi-kõne (proxy speech) allikas, mille lausungite eest vastutab omanik. Omanikud on siin lapse poodi saatnud vanemaga sarnases olukorras: laps järgib teatava iseseisvusega juhiseid, kuid vanem vastutab. P. J. Nickel, Artificial Speech and Its Authors. Minds and Machines, 2013, kd 23, nr 4, lk 489–502.
[12] A. Newell, J. C. Shaw, H. A. Simon, The Process of Creative Thinking. Santa Monica, 1959.
[13] A. M. Turing, Computing Machinery and Intelligence. Mind, 1950, kd 59, nr 236, lk 433–460.
[14] S. Bringsjord, P. Bello, D. Ferrucci, Creativity, the Turing Test, and the (Better) Lovelace Test. Minds and Machines, 2011, kd 11, nr 1, lk 3–27.
[15] H. Moravec, Mind Children: The Future of Robot and Human Intelligence. Cambridge (MA), 1988.
[16] C. D. Ruiz, Market-Oriented Disinformation Research: Digital Advertising, Disinformation and Fake News on Social Media. Milton Park, 2025, lk 207–211.
[17] J. Baudrillard, Simulacra and Simulation. Ann Arbor, 1994; J. Baudrillard, The Gulf War Did Not Take Place. Bloomington, 1995.
[18] T. Sommerer, Baudrillard and the Dead Internet Theory: Revisiting Baudrillard’s (dis)trust in Artificial Intelligence. Philosophy & Technology, 2025, kd 38, lk 1–17.
[19] A. Her, TechScape: On the Internet, Where Does the Line Between Person End and Bot Begin? The Guardian, 30.04.2024.
[20] C. Doctorow, An Audacious Plan to Halt the Internet’s Enshittification and Throw It into Reverse. Pluralistic: Daily Links from Cory Doctorow, 27.08.2023.
[21] Vt nt Y. Walter, Artificial Influencers and the Dead Internet Theory. AI & Society, 2025, kd 40, lk 239–240.
[22] H. Abbing, Why Are Artists Poor? The Exceptional Economy of the Arts. Amsterdam, 2002.
[23] O. Laas, TI-solk ja surnud internet. ERR.ee, 14.11.2025.

