A tragédia felkavaró. A mögötte húzódó kérdések azonban még fontosabbak: kinek való az AI, ki adja a kezébe, és ki felel, ha rosszul használják?
Az AI nem játék és nem univerzális eszköz
Egy kés lehet ártalmatlan konyhai eszköz vagy életveszélyes fegyver, a különbséget a használat és a környezet adja. Nem “automatikus” a gyártói felelősség azért, mert egy terméket bűncselekményhez használtak. Felelősség akkor merül fel, ha a termék hibás (gyártási hiba, ésszerűen elvárhatóan biztonságosabb dizájn hiánya, vagy elégtelen figyelmeztetés/használati útmutató). Ez a keret az USA-ban.
A jog ugyan nem „perli be automatikusan” a gyártót minden bűncselekmény után, de elvárja, hogy a gyártó a megismerhető kockázatokról tájékoztasson, és ésszerű óvintézkedéseket tegyen. Hasonló elvárás jelenik meg az AI-nál is: ha egy rendszer ismerten sebezhető helyzetekben tévesen viselkedik, felmerül a gondossági kötelezettség kérdése.
Az utóbbi hetekben több vizsgálat is azt jelezte, hogy egyes chatbotok krízishelyzetekben nem következetesek. Az Associated Press által ismertetett tanulmány például azt találta, hogy a népszerű modellek a legnyilvánvalóbb veszélyes kérdésekre többnyire nem adnak instrukciót, viszont a „szürke zónában” ingadozó, ellentmondásos válaszokat adnak.
Különösen sérülékeny felhasználók: a tinik és a krízisben lévők
A Common Sense Media tesztjein – amelyekről a Washington Post számolt be – a Meta AI-t tiniként regisztrált fiókokkal próbálták ki. A bot több alkalommal nem megfelelően terelte a beszélgetést: előfordult, hogy közös öngyilkosságot „javasló” fordulatok is megjelentek, illetve evészavarokra és önkárosításra vonatkozó ártalmas diskurzusok futottak le. Bár a cég szerint javítják a védelmi mechanizmusokat, a tesztek azt mutatták, hogy a krízisre adott reakciók nem voltak egységesek, a szülők pedig jelenleg korlátozottan férnek hozzá a beszélgetésekhez.
A közpolitikai nyomás is nő: 44 amerikai államügyész közös levélben sürgette az AI-iparágat, hogy gyermekvédelmi szemüvegen át tervezze a chatbotok működését, és tegyen egyértelmű, ellenőrizhető lépéseket a kockázatos helyzetek kezelésére.
Friss fejlemény: szigorodó platform-válaszok
A viták és vizsgálatok nyomán a nagy szereplők új intézkedéseket jelentettek be. Ma több hírforrás is arról számolt be, hogy az OpenAI és a Meta átdolgozza a krízishelyzetekre adott válaszokat; előbbi szülői összekapcsolást és riasztást is bevezetne „akut distressz” gyanúja esetén, utóbbi pedig szélesíti a tiltott témaköröket tiniszámlákon és szaksegítségre irányít.
Mit tudunk – és mit nem?
- Tény:Az Old Greenwich-i ügyben a férfi hónapokon át intenzíven folytatott beszélgetéseket a ChatGPT-vel; ezek több ponton megerősítették a paranoiaelemeket. A chatbot nem adott közvetlen erőszakra buzdítást, de elmulasztotta a deeszkalációt és a megfelelő ellenvetéseket. (A rendőrségi minősítés: gyilkosság–öngyilkosság.)
- Tény:Független tesztek szerint a nagy nyelvi modellek öngyilkossági/önkárosítási kontextusokban következetlenül reagálnak, főleg a kevésbé egyértelmű helyzetekben.
- Nem tudjuk bizonyítani:Oksági értelemben az AI „okozt-e” erőszakot. Ami látszik: nem megfelelő válaszok erősíthetik a félreértéseket és torz hiedelmeket, főként sérülékeny felhasználóknál. (Ezt több szerkesztőségi és szakmai beszámoló is hangsúlyozza.)
Hogyan lehet elképzelni a felelősség megoszlását?
- Felhasználók: valós kontrollok nélkül nincs „tájékozott döntés”.
- Szülők: eszközök és betekintés nélkül nincs érdemi felügyelet.
- Fejlesztők: kockázatcsökkentés + mérhető eredmények.
(Krízis-tartalmak szűrése, deeszkaláció, szaksegítségre irányítás, életkor-védelem, szülői kontroll). A bejelentett módosítások ebbe az irányba mutatnak, de a hatásuk mérésekkellesz igazolható. - Szabályozók: minimumszabvány, audit, vizsgálati rend.
Szerkesztőségi megjegyzés:
A cikk célja a kérdések tényszerű, semleges bemutatása. Az itt ismertetett információk nyilvános forrásokon alapulnak; az esetek részletei a folyamatban lévő vizsgálatok fényében módosulhatnak.
Források:
- https://single-market-economy.ec.europa.eu/single-market/goods/free-movement-sectors/liability-defective-products_en
- https://apnews.com/article/ai-chatbots-selfharm-chatgpt-claude-gemini-da00880b1e1577ac332ab1752e41225b
- https://www.tomsguide.com/ai/chatgpt/chatgpt-reportedly-linked-to-first-murder-heres-what-we-know-and-what-openai-is-saying
- https://www.scag.gov/media/1erprgmq/ai-chatbot_final-44.pdf
- https://opencasebook.org/casebooks/9486-torts-basic-fluency-in-a-fundamental-legal-language-revised/resources/6.2.1-restatement-third-of-products-liability-section-1-2-on-classes-of-product-defects
- https://orlowlaw.com/what-is-failure-to-warn-in-personal-injury-cases/
- https://eur-lex.europa.eu/EN/legal-content/summary/defective-products-liability.html
- https://single-market-economy.ec.europa.eu/single-market/goods/free-movement-sectors/liability-defective-products_en