A világháló és a TCP/IP protokollkészlet megalkotásában kulcsszerepet játszó Vinton Cerf, akit széles körben emlegetnek az internet (egyik) atyjaként, óvatosságra int a ChatGPT körüli hisztéria és az ennek kapcsán kialakult aranyláz közepette. Szerinte vigyázni kellene az elhamarkodott befektetésekkel az MI-chatbotokba, amelyek lényegében csak arra épülnek, hogy az új technológia mennyire menő – írja Cerf felszólalásáról a CNBC a kaliforniai Mountain View-ban tartott konferencián. Az online pionír egyébként számtalan megbízása és elismerése mellett majdnem két évtizede egyengeti a "globális szabályozás kialakítását és az internethasználat folyamatos terjedését" a Google színeiben.
A hasonló kérdésekben rendszeresen nyilatkozó szakember most a mesterséges intelligenciára épülő csevegőrobotok etikai problémáit vette elő, amelyekre tekintettel azt reméli, hogy mindenki átgondolja majd a technológiába való befektetéseit. Szerinte a ChatGPT, a Google Bard és más megoldások kapcsán is nyilvánvaló, hogy a rendszerek nem mindig működnek úgy, ahogy azt szeretnénk, és azt sem szabad elfelejteni, hogy az új technológia alkalmazói közül sem mindenki őszinte, vagyis a saját hasznukat keresik mások boldogulása helyett. Eközben olyan forró témáról van szó, amiről sokan gondolják, hogy elég meglobogtatni, és rögtön dőlni fog hozzájuk a befektetők pénze.
Most fordul majd komolyra
A dolog egyelőre tényleg így néz ki: Kínában például már az állami média figyelmeztet rá, hogy a hype miatt az ottani MI-fejlesztő cégek árfolyama annyira kilőtt, hogy az már nem feltétlenül áll arányban a későbbi termékeikben rejlő kockázatokkal. Cerf szerint érdemes figyelembe venni, hogy nem lehet mindig megjósolni az ilyen technológiák útját, a legtöbb probléma pedig hagyományosan az emberi természetből fakad, ami nem igazán változott az elmúlt 400, vagy akár 4000 évben. A mérnököknek viszont felelősséget kellene vállalniuk a hibák kijavításáért, és azt is nagyon fontos lenne megtanulni, hogyan lehet minimalizálni a legrosszabb forgatókönyvek esélyeit.
Az iztos, hogy egyelőre látványos hézag tátong a technológival kapcsolatos remények és annak tényleges teljesítménye között, ugyanakkor nagyon nehezen lehet különbséget tenni a meggyőzően tálalt válaszok és a pontos válaszok között. Cerf erre felhozott egy olyan példát, amikor megkért egy chatbotot, hogy készítsen róla magáról egy életrajzot, és a robot tényszerűnek mutatta be az általa összeállított anyagot annak ellenére, hogy az pontatlanságokat tartalmazott. Mindez az alkalmazástól függő következményekkel jár: a fiktív életrajzoknak nincsenek konkrét egészségügyi kockázatai, szemben azzal, ha a hasonló modellek elkezdenek orvosi tanácsokat adni a felhasználóknak.
I Forrás: bitport.hu