Keerukirjanduse absurde esse pöörde, tehisintellekt on taas demonstreerinud oma viga: valeinformatsiooni enesekindel edastamine. Richard Powersi uus romaan, *Playground*, sisaldab tehisintellekti rida, mis köitis internetis tähelepanu. See rida kritiseerib ühiskonna liialdavat usaldust tehnoloogia vastu, et tõlgendada teavet meie eest, kuid selle tõelise allika leidmine osutus jahipidamiseks.
Sotsiaalmeedias jagamisel juhtis üks kasutaja tähelepanu sellele, et tehisintellekt oli tsitaadi valeallikaks nimetanud erinevat raamatut, Dave Eggersi *The Circle*. Eksimuse üle huvitatud, proovis üks inimene teist tehisintellekti, ChatGPT, mis enesekindlalt seostas tsitaadi Sierra Greeri raamatuga *Annie Bot*, kus see lõik puudub. Sellega ei peatud, Google’i Gemini valeütlusena teatas, et see rida võib olla pärit James S. A. Corey *The Expanse’ist*. See valeviidete kaskaad tõi esile selle tehisintellekti mudelite peamise probleemi.
Tehisintellekti ekspertide sõnul nimetatakse neid vigu “hallutsioonideks”. Vastupidiselt sellele, mida see termin подразумеет, pole see juhuslik viga, vaid süsteemne probleem. Suured keelemudelid, nagu ChatGPT ja Gemini, ei “tea” tegelikult midagi; selle asemel genereerivad nad teksti statistiliste tõenäosuste põhjal ulatuslikest andmebaasidest. Tulemuseks? Veenev, kuid eksitav väljund, mis võib kerge vaevaga petta kahtlejat kasutajat.
Need juhtumid rõhutavad skeptitsismi olulisust, kui kasutada tehisintellekti faktilise teabe saamiseks. Kui meie usaldus tehnoloogia vastu kasvab, on oluline oskus eristada tõelist teadmist ja tehislikku jäljendamist.
Kas me võime usaldada tehisintellekti? Tehisintellekti vigade ja potentsiaali uurimine
Ajal, mil tehisintellekti kasutatakse laialdaselt meie igapäevaelus, muutuvad selle potentsiaal, ohud ja paradoksid üha ilmsemaks. Virecent eksimused AI tsitaatide valeallikaks seosest on käivitanud arutelusid tehnoloogia usaldusväärsuse üle, millele me üha enam toetume. See stsenaarium on snapshot tehisintellekti praegustest võimetest ja piirangutest, tõstatades küsimusi, mis on kriitilise tähtsusega inimkonna tuleviku ja uute tehnoloogiate arendamise jaoks.
Põhjus: AI “hallutsioonid”
AI “hallutsioonid” viitavad juhtumitele, kus suured keelemudelid toodavad faktituks või täiesti vale teavet. See ei tähenda mitte ainult tehnilist viga; see paljastab süsteemse probleemi. Suured keelemudelid, nagu ChatGPT ja Google’i Gemini, töötavad ennustades, kui tõenäoliselt sõnad järjestikku esinevad, tuginedes ulatuslikele andmebaasidele. See statistiline lähenemine võib viia teksti genereerimiseni, mis näib usutav, kuid on vale.
Oluline õppetund on mõista, et need mudelid ei “mõista”, vaid arvutavad tekstilisi tõenäosusi. See erinevus on määrava tähtsusega kasutajatele, kes suhtlevad tehisintellekti platvormidega, kuna see mõjutab, kuidas me peaksime AI genereeritud teavet hindama ja sellele lähenema.
Inimkonna ja tehnoloogia arengu mõjud
Tehisintellekti hallutsioonide tagajärjed ulatuvad kaugemale pelgast faktilistest ebatäpsustest. Kui tehisintellekti tehnoloogiad muutuvad üha enam integreerituks valdkondadesse nagu tervishoid, õigus ja haridus, siis selliste eksimuste võimalikud tagajärjed muutuvad üha olulisemaks. Tehisintellekti mudelitelt saadud vale meditsiinilised tõlgendused või valeinfo automaatsetes õigusalastes nõuannetes võivad omada ulatuslikke tagajärgi.
Siiski panevad need väljakutsed ka innovatsiooni teele. Jõudlus tehisintellekti hallutsioonide ületamiseks kiirendab mudelite täpsuse ja usaldusväärsuse parandamise edusamme. Seotakse uusi algoritme, et kontrollida tehisintellekti väljundeid kinnitatud teadmiste aluste järgi, luues seeläbi faktipõhisema digitaalse assistendi.
Huvi ja vastuolud
Üks huvitav aspekt tehisintellekti mudelites on nende võime suhelda ja mõnikord isegi inimesi petta oma inimliku tekstigeneratsiooni kaudu. See võime tõstatab eetilisi küsimusi: kas tehisintellekti süsteemidel peaks olema lubatud genereerida potentsiaalselt eksitavat sisu? Millal peaks sekkumine olema vajalik, et tagada tehisintellekti väljundite usaldusväärsus?
Arutelu käib ka vastutuse üle. Kui tehisintellekti valeallikaks nimetab tsitaadi või fabritseeritud teabe, siis kes on vastutav? Arendajad, kasutajad või laiem tööstus, kes on vastuvõtnud neid tehnoloogiaid, ilma et oleks tagatud need veatuks?
Eelised ja puudused
Tehisintellekti kasutamisel teksti genereerimisel on nii eetilised eelised kui ka olulised puudused:
– *Eelised*: Tehisintellekt suudab töödelda ja genereerida teavet kiirusel, mis on inimeste jaoks arusaamatu. Sellel on loovuse potentsiaal, aidates kirjutajatel ja teadlastel ning genereerides isegi uusi ideid, kasutades mitte-jooneliselt mõtlemise protsesse.
– *Puudused*: Praegused usaldusväärsuse probleemid tähendab, et tehisintellekti süsteemid võivad kergesti edastada valeinformatsiooni, millele järgneb potentsiaalne arusaamatus kasutajate seas. Samuti võib tehisintellekti üleliigne usaldamine halvendada kriitilise mõtlemise oskusi ja inimeste võimet küsida teabeallikaid.
Küsimused ja vastused
– *Kuidas saame vähendada tehisintellekti hallutsioone?* Jätkuv uurimistöö hõlmab tugevamate faktikontrolli mehhanismide integreerimist ja algoritmide täiendamist, et tagada tehisintellekti väljundite lähedane vastavus kinnitatud andmetele.
– *Kas tehisintellekt mõistab kunagi tõeliselt teavet?* Kuigi tehisintellekti mõistmine, nagu inimesed seda tunnevad, jääb pikaajalise eesmärgiks, on praegused edusammud suunatud parema kontekstitunde poole, kuigi täielik “mõistmine” inimlikus mõttes ei ole veel ette nähtud.
Lisaks tehisintellekti tuleviku ja selle mõju kohta külasta neid ressursse: OpenAI ja Google AI.
Kuna tehisintellekt jätkab arenemist, on selle erakordsete võimete tasakaalustamine selle sisemiste väljakutsetega ülioluline, et kujundada tulevikku, kus tehnoloogia teenib inimkonda ilma eksitamiseta.