Literatūrinio absurdiškumo vingyje dirbtinis intelektas dar kartą parodė savo trūkumą: užtikrintai pateikdamas klaidingą informaciją. Richard Powers naujasis romanas *Playground* turi AI citatą, kuri patraukė dėmesį internete. Cita kritikuoja visuomenės pernelyg didelį pasitikėjimą technologijomis, kad jos interpretuotų informaciją už mus, tačiau rasti tikrąją jos šaltinį tapo ilgu ir sudėtingu procesu.
Bendrinant socialiniuose tinkluose, vienas vartotojas atkreipė dėmesį, kad AI klaidingai priskyrė citatą kitai knygai, Dave Eggers *The Circle*. Susidomėjęs klaida, asmuo išbandė kitą AI – ChatGPT, kuris užtikrintai susiejo citatą su Sierra Greer knyga *Annie Bot*, kuri neturi minimos ištraukos. Nesustodamas čia, „Google“ Gemini neteisingai pasiūlė, kad citata gali kilti iš *The Expanse* (James S. A. Corey). Šis klaidingų priskyrimų grandininis efektas akcentavo pagrindinę problemą su šiais AI modeliais.
AI ekspertai šiuos klaidų atvejus vadina „haliucinacijomis“. Priešingai nei šis terminas iš pirmo žvilgsnio gali pasirodyti, tai nėra retas gedimas, o sisteminė problema. Dideli kalbos modeliai, tokie kaip ChatGPT ir Gemini, iš tikrųjų nieko ‘žino’; vietoje to, jie generuoja tekstą remdamiesi statistinėmis tikimybėmis, gautomis iš didelių duomenų rinkinių. Rezultatas? Įtikinanti, bet klaidinga informacija, kuri gali lengvai apgauti nepatyrusius vartotojus.
Šie incidentai pabrėžia skepticizmo svarbą naudojant AI faktinei informacijai gauti. Augant mūsų pasitikėjimui technologijomis, gebėjimas atskirti tikrą žinias nuo dirbtinio imitavimu yra nepakeičiamas.
Ar galime pasitikėti AI? Dirbtinio intelekto trūkumų ir potencialo nagrinėjimas
Kada leverio laikais dirbtinis intelektas tampa visur, jo potencialas, pavojai ir paradoksai tampa vis aiškesni. Neseniai įvykusios klaidos, susijusios su AI citatų priskyrimo klaidomis, paskatino diskusijas apie technologijos patikimumą, kuria vis labiau pasikliaujame. Ši situacija yra aiški AI dabartinių galimybių ir ribų nuotrauka, kelianti klausimus, svarbius žmonijos ateičiai ir naujų technologijų plėtrai.
Pagrindinė problema: AI „haliucinacijos“
AI „haliucinacijos“ nurodo atvejus, kai dideli kalbos modeliai pateikia faktinėmis klaidingas arba visiškai sukurta informaciją. Tai ne tik techninis gedimas; tai atskleidžia sisteminę problemą. Tokie dideli kalbos modeliai kaip ChatGPT ir „Google“ Gemini veikia numatydami žodžių pasirodymo tikimybę sekoje, remdamiesi dideliais duomenų rinkiniais. Šis statistinis požiūris gali lemti teksto gamybą, kuris atrodo pagrįstas, bet yra neteisingas.
Kritinė išvada yra ta, kad šie modeliai nesupranta, o labiau apskaičiuoja tekstų tikimybes. Šis skirtumas yra svarbus vartotojams, kurie bendrauja su AI platformomis, nes tai padeda formuoti mūsų požiūrį ir vertinimą AI generuojamai informacijai.
Žmonijai ir technologijų plėtrai daromi poveikiai
AI haliucinacijų pasekmės neapsiriboja vien faktinėmis neteisybėmis. Augant AI technologijų integracijai į tokias sritis kaip sveikatos priežiūra, teisės klausimai ir švietimas, tokių klaidų potencialios pasekmės tampa vis reikšmingesnės. Klaidos medicinos diagnostikoje, gautomis iš AI modelių, ar dezinformacija automatizuotoje teisės patarime galėtų turėti toli siekiančių pasekmių.
Vis dėlto šie iššūkiai taip pat skatina inovacijas. Siekis įveikti AI haliucinacijas skatina modelio tikslumo ir patikimumo tobulinimą. Kūriami nauji algoritmai, kurie tikrina AI rezultatus prieš patikrintus žinių šaltinius, sukurdami labiau faktais grindžiamą skaitmeninį asistentą.
Įdomūs faktai ir ginčai
Vienas intrigingas AI modelių aspektas yra jų sugebėjimas bendrauti ir kartais net apgauti žmones savo panašiu į žmogų tekstų kūrimu. Šis gebėjimas kelia etinius klausimus: ar AI sistemoms turėtų būti leista generuoti galimai klaidinančią informaciją? Kada reikia imtis veiksmų, kad būtų užtikrinta, jog AI rezultatai būtų patikimi?
Taip pat kyla diskusijų dėl atsakomybės. Kai AI klaidingai priskiria citatą arba sukuria informaciją, kas už tai atsakingas? Kūrėjai, vartotojai ar platesnė pramonė, kuri priima šias technologijas nesureikšmindama neatidumo?
Privalumai ir trūkumai
AI naudojimas teksto generavimui siūlo tiek viliojančius privalumus, tiek reikšmingus trūkumus:
– *Privalumai*: AI gali apdoroti ir generuoti informaciją greičiu, kuris žmonėms neįtikėtinas. Jis siūlo potencialą kūrybingumui, padeda rašytojams ir tyrėjams, netgi generuodamas naujas idėjas per nelinijinius mąstymo procesus.
– *Trūkumai*: Dabartiniai patikimumo klausimai reiškia, kad AI sistemos gali lengvai platinti klaidingą informaciją, sukeldamos galimas klaidingas nuomones tarp vartotojų. Be to, per didelis pasitikėjimas AI gali sumažinti kritinio mąstymo įgūdžius ir žmonių gebėjimą analizuoti informacijos šaltinius.
Klausimai ir atsakymai
– *Kaip galime sumažinti AI haliucinacijas?* Nuolatiniai tyrimai siekia integruoti patikimesnį faktų tikrinimo mechanizmą ir tobulinti algoritmus, kad užtikrintų, jog AI rezultatai labiau atitiktų patikrintus duomenis.
– *Ar AI kada nors iš tiesų supras informaciją?* Nors AI supratimas, kaip mes jį žinome, lieka ilgalaikis tikslas, dabartiniai pažangumai siekia geresnio kontekstinio supratimo, nors visiškas „supratimas“ žmogaus sąvoka dar nėra įmanomas.
Dėl daugiau informacijos apie AI ateitį ir jos poveikį, apsilankykite šiuose šaltiniuose: OpenAI ir Google AI.
Kadangi AI nuolat evolucionuoja, svarbu subalansuoti jos išskirtines galimybes su jos esamais iššūkiais formuojant ateitį, kurioje technologijos tarnauja žmonijai, o ne klaidina.