Kas oleme valmis selleks, et tehisintellekt surnuid üles äratab?
2023-05-04 14:14:03 by Lora GremÜksteist aastat tagasi ärkas Tupac ellu. Nii tegi ka Michael Jackson kaks aastat hiljem. Olgu, nad ikka ei hinganud. Kuid seal nad olid, lavalaudadel, digitaalselt reinkarneerunud 'hologrammideks'. Need tekitasid kohe realiseerudes segaduse. Mõned inimesed, kes neid nägid, arvasid, et nad on päris armsad – tore austusavaldus. Teised said pahaseks. Kas saadete produtsendid said perede heakskiidu? Kas popkuningas tahaks isegi ellu äratada valguskiirte kogumina? Kas me saaksime tõesti tema eest selle valiku teha?
Vaid kümmekond aastat hiljem võite hologrammid unustada. Oleme lähenemas digitaalse surematuse võimalusele.
Oleme 2023. aastal olnud tunnistajaks tehisintellekti süvalaiendamisele mõne kuu jooksul teksti-pildiks generaatori DALL-E ja 'suure keelemudeli' ChatGPT kaudu. Nüüd on teie brauseris AI koos võimalustega, mis näivad olevat saabunud palju enne tähtaega. Bay Area idufirma OpenAI uusim mudel kannab nime GPT-4 ning see tugineb tohutul hulgal andmetele ja 'masinõppele', et vastata küsimustele, pidada vestlust ja kirjutada isegi terveid esseesid koos tsitaatidega. Need tsitaadid ei ole aga alati tõesed ja teave ei vasta alati tõele. Mudel ei saa tegelikult hinnata tõde ega väljamõeldisi, ta lihtsalt õpib, kuidas sõnu sidusal viisil kokku panna. See võib luua inimkõnet, kuid see pole teadlik ega eneseteadlik.
Mis on sellel pistmist Michael Jacksoni särava renessansiga Billboardi muusikaauhindade jagamisel? Üks asi oli, et hologrammijad läksid kuulsa kunstniku mõisa juurde ja küsisid luba temast neljaminutilise etenduse projektsiooni loomiseks. See oli primitiivselt elutruu, aga sisuliselt oli see kolmemõõtmeline film. Praegusel ajal räägitakse juba sellest, et inimesed võiksid hakata salvestama oma lähedaste helisalvestisi ja videoid, koostama nende kirjutisi ja tekste, et pärast nende edasiandmist saaks need andmepunktid masinõppemudelisse panna. luua surnud isikust digitaalne faksimiil. MIT projekt teemal ' Laiendatud igavik ja vahetatavad identiteedid ” juba töötab selle kallal. Vähemalt võib see olla see, mida Michael Sandel, Harvardi ülikooli mõjukas eetik ja poliitiline filosoof, nimetab 'virtuaalse surematuse vestlusbotiks', millega – kellega? – saate edasi-tagasi sõnumeid saata. Nimetage seda UndeadGPT-ks.
Siin näete suurepäraseid võimalusi. Mõned võivad leida lohutust oma ema hääle kuulmisest, eriti kui ta kõlab nii, nagu ta tõesti kõlas, ja annab sellist nõu, mida ta tegelikult andis. Kuid Sandel ütles mulle, et kui ta oma eetikatundides õpilastele valikut tutvustab, jaguneb reaktsioon kaheks, isegi kui ta küsib kahel erineval viisil. Esiteks küsib ta, kas nad oleksid vestlusbotist huvitatud, kui nende kallim pärandaks selle neile pärast nende surma. Seejärel küsib ta, kas nad oleksid huvitatud enda mudeli loomisest, mida teistele pärandada. Oh, ja mis siis, kui vestlusbot luuakse ilma ülestõusnud inimese sisendita? Arusaam, et keegi otsustas end postuumselt digitaalses avataris esindada, tundub oluline, kuid isegi siis, kui modell teeb vigu? Mis siis, kui see esitab valeandmeid – laimu, isegi – surnuid?
Varsti ei ole need küsimused teoreetilised ja puudub laialdane kokkulepe selle kohta, kellelt või isegi mida küsida. Oleme lähenemas põhjalikumale eetilisele probleemile, kui AI-alastes aruteludes sageli kuuleme: algoritmidesse sisseehitatud inimlik eelarvamus, privaatsus- ja järelevalveprobleemid, vale- ja desinformatsioon, petmine ja plagiaat, töökohtade ümberpaigutamine, sügavad võltsimised. Need probleemid on tegelikult kõik omavahel seotud – Osama bot Laden võib tõelise mehe tunduda mõistlikuna või lihtsalt jutlustada noortele džihaadi – ja neile kõigile tuleb vastu astuda. Me mõtleme palju igapäevasele (lapsed petavad AP ajaloos) ja äärmuslikele asjadele (mõni arenenud tehisintellekt kustutab inimrassi), kuid tõenäoliselt liigume vahepeal läbi segase koridori. Peame mõtlema, mis on lubatud ja kuidas me otsustame.

Jättes leiutajate otsustada, kas nad peaks teha midagi, mida nad saab ei ole kindlasti vastuvõetav edasiminek. Me ei saa korrata sotsiaalmeedia ajastu vigu, mil meist sai toode, mida ettevõtted müüvad. Praegu on sellega tegelevad ettevõtted sisuliselt isereguleeruvad, kuid linnaelanikel peaks olema sõnaõigus selles, mis dr Frankensteini keldris toimub.
See tähendab rolli kardetud föderaalvalitsusele ja meie vananev senaatorite laevastik peab kiiresti tegutsema. 'Meil on alates Clintoni ja Gore'i administratsioonist olnud kahepoolne kokkulepe luua regulatiivne oaas suurte tehnoloogia- ja idufirmade ümber,' ütleb politoloog ja Stanfordi inimkeskse tehisintellekti instituudi kaasdirektor Rob Reich. See peab muutuma. Ta ütleb, et vajame tööstust ja sotsiaalseid standardeid, mis kujundavad tehnoloogia arengut, 'mitte kuldtähti mõne ettevõtte jaoks ja mitte tähti teiste jaoks.'
See pole kaugeltki esimene kord, kui seisame ühiskonnana silmitsi hetkega, mida me suudame, aga peaksime. Võtke geenide redigeerimine, mis Reichi arvates on kasulik kontrast. Meditsiinis on meil Hippokratese vanne, institutsionaalsed eetikakomiteed ja muud pikaajalised, enamasti vaieldamatud biomeditsiiniuuringute normid. 'AI-teadlased on rohkem nagu hilises staadiumis teismelised, ' ütleb ta. 'Nad on äsja teadlikud oma võimust maailmas, kuid nende eesmine ajukoor on tohutult vähearenenud ja nende sotsiaalse vastutuse tunne ei ole sellest tulenevalt nii suur.'
Meie valitsemisprobleeme süvendab tõsiasi, et kuigi mõned ettevõtted juhivad nende enneolematute masinate ehitamisel teed, muutub tehnoloogia peagi laialivalguvaks. Suurem osa nende mudelite koodibaasi saab tõenäoliselt avalikult kättesaadavaks, võimaldades väga andekatel arvutiteadlastel garaažis omaenda luua. (Mõned Stanfordi inimesed on juba ehitanud ChatGPT imitaatori umbes 600 dollari eest.) Mis juhtub, kui mõned ettevõtlikud tüübid konstrueerivad surnud inimese mudeli ilma perekonna loata? (Saime aprillis eelvaate, kui Saksa kõmuleht andis tehisintellekti loodud intervjuu endise vormel-1 piloodi Michael Schumacheriga, kes sai 2013. aastal traumaatilise ajuvigastuse. Tema perekond ähvardas kohtusse kaevata.) Mis siis, et pilt on ebatäpne. või kannatab see selle all, mida arvutiteadlased nimetavad hallutsinatsioonideks, kui vestlusrobotid sülitavad välja metsikult valesid asju? Meil on juba kättemaksupornot. Mis saab siis, kui vana vaenlane konstrueerib teie surnud naisest vihast valeversiooni? 'Avatud juurdepääsu ja ohutusprobleemide vahel on oluline pinge, ' ütleb Reich. 'Tuumasünteesil on ka tohutu potentsiaal,' lisab ta, kuid mõnel juhul võib avatud juurdepääs tehisintellektimudelite lihale ja luudele olla nagu 'inimeste kutsumine üle maailma plutooniumiga mängima.'
Panused on tõesti eksistentsiaalsed ja mitte ainult stsenaariumi puhul, kus ülivõimas intelligentsus vabaneb ja ohustab meie liike. Kui ma tõstatasin ebatäpsete virtuaalse surematuse mudelite väljavaateid, pakkus Sandel, et tegelikud probleemid võivad tekkida, kui mudelid muutuvad üha täpsemaks. 'Mida rohkem anomaaliad kaovad,' ütleb ta, 'seda raskem on eristada virtuaalset kogemust tegelikust inimkohtumisest.'
Sandel nimetab seda autentsuse, mitte täpsuse probleemiks. Kui te oma koera klooniksite, kas nad mõlemad oleksid teie koer? Või pugeks Sparky II vaadates alati kuklasse? Kuna need mudelid lähenevad süsinikkoopia täiuslikkusele, seisame silmitsi küsimusega, mis eristab meid meie digitaalsetest kloonidest. Kas see on eneseteadvus? Empaatiavõime? Kas see on loovus – tõeline inspiratsioon – või oleme kõik lihtsalt, nagu ChatGPT, koondades sõnu ja mõisteid erinevatesse koosseisudesse? Kas mõne eelnimetatuga on võimalik koodijuppi imbuda ja kui palju selle väljaselgitamine meile maksma läheb?
Vajame eetilisi kaitsepiirdeid eelseisva kullapalaviku jaoks ja mitte ainult sellepärast, et kasumi eesmärk toob kaasa ohu. Kongress peaks tõsiselt mõtlema AI-ga sihitud reklaamide keelamisele, isegi esimese muudatuse lahinguga, mis vallandaks, kuid see on alles algus. Vajame palju põhjalikumaid kriteeriume, mis keskenduvad inimeste õitsengule ja kannatuste ennetamisele, mida võib-olla jõustab föderaalvalitsuse täiesti uus osakond. Nüüd uurime küsimusi, mida tähendab olla inimene, ja seda ei saa jätta Silicon Valley otsustada. Kui teie kadunud lähedase digitaalne faksimiil teiega räägib, kas nad on tõesti kohal? Kas see on kodufilmile lähemal või on see pidevalt saamine viisil, mida me inimesena tunnistaksime? Kas inimeseks olemine on lahutatav meie eksistentsi lühiajalisest olemusest? See võib isegi sünnitada uue kontseptsiooni: õigus jääda surnuks.
Sellest piisab, et hologrammid näeksid välja nagu laste asjad. Me räägime praegu jumalamasinast ja me ei saa endale lubada Genesise unes kõndimist. Lõppude lõpuks üritati üheksa aastat tagasi peatada Michael Jacksoni ülestõusmine, kuid see ei keskendunud ühelegi moraalile. Üks hologrammifirma kaebas teise patendi rikkumise pärast kohtusse.
Tippisime Shutterstocki tehisintellekti kujutise generaatorisse teksti 'surm ja ülestõusmine Andy Warholi popkunstniku idee järgi' ja saime pildi üleval.
Jack Holmes on LocoPorti vanemkirjutaja, kus ta käsitleb poliitikat ja sporti. Ta ka võõrustab Unapokalüpsis , saade kliimakriisi lahendustest.