Már 2012-ben történt egy olyan hiba, amely világosan jelezte: a gépi döntéshozatal nem tévedhetetlen. Egy hibás kereskedési algoritmus 440 millió dolláros veszteséget okozott, és mindössze két munkanap alatt 75%-kal zuhant a cég részvényeinek értéke. Ez volt a hírhedt Knight Capital trading algorithm fail – a korai mesterséges intelligencia hibázásának egyik iskolapéldája.
De azóta?
Az Amazonnál 2014–2015 körül indult útjára egy AI‑alapú toborzóprogram, amely a jelöltek önéletrajzait „1-től 5-ig” pontozta – hasonlóan a vásárlói értékelésekhez az oldalon.
„Mindenki ezt a szent grált akarta” – idézte fel egy bennfentes. „Olyan motort képzeltek el, amelybe beadok 100 önéletrajzot, az pedig kiköpi a legjobb ötöt, akiket aztán felveszünk.”
A valóság azonban távol állt az álomtól. A modell a múltbeli, férfi túlsúlyos jelentkezések alapján tanult, így rendszerszinten hátrányosan kezelte a nőket: például negatív pontot adott a „women’s” szót tartalmazó önéletrajzoknak, és hátrébb sorolta azokat, akik például női főiskolán szereztek diplomát.
Bár a fejlesztők megpróbálták kiszűrni a problémás kifejezéseket, továbbra sem volt garancia arra, hogy más, rejtett torzítások ne maradjanak a rendszerben. 2018-ra a bizalom teljesen megingott: a fejlesztőcsapatot feloszlatták, és a rendszert soha nem alkalmazták hivatalosan a toborzási döntésekben.
A projekt költségeiről nincs nyilvános adat, de bizonyos, hogy nem olcsó kísérlet volt. Az Amazon végül megmentette a kísérlet egy részét, és egy „sokkal felvizezettebb változatot” kezdett használni alapfeladatokra – például a duplikált jelöltprofilok kiszűrésére.
| Forrás: Reuters – Amazon scraps secret AI recruiting tool
Google Photos "labeling scandal"
2015-ben a Google képfelismerő mesterséges intelligenciája súlyos hibát vétett. 2015 júniusának végén derült ki, hogy az alkalmazás automatikus címkézője két fekete embert „gorillák”-ként azonosított – teljesen automatikusan, emberi beavatkozás nélkül.
A botrány gyorsan elérte a nemzetközi sajtót, és a Google néhány napon belül reagált: bizonyos címkék – köztük a „gorilla” és a „majom” – használatát teljesen eltávolította a rendszerből. Ez gyakorlatilag szó szerinti cenzúrát jelentett, amely inkább a tünetet kezelte, mint a valódi problémát.
A hibát hiányos vagy elfogult tanítóadat okozta, amelyet nem kísért megfelelő emberi ellenőrzés. Az arcfelismerő modell különösen sötétebb bőrtónusok esetén bizonyult megbízhatatlannak, ami súlyos kérdéseket vetett fel az AI‑etika és az algoritmikus igazságosság terén. A hiba pontos gazdasági hatása nem ismert, de a reputációs kár jelentős volt: a Google AI‑megbízhatóságáról szóló narratívára hosszú időre árnyék vetült.
| Forrás: BBC – Google Photos racism row
Tesla Autopilot – halálos balesetek és jogi következmények
2019-ben Floridában egy Tesla Model S Autopilot üzemmódban súlyos balesetet okozott: egy személy életét vesztette, párja pedig súlyosan megsérült. 2025. augusztus 1-jén a floridai esküdtszék kimondta a Tesla részleges felelősségét, és 243 millió dollár kártérítés megfizetésére kötelezte a vállalatot. Az ítélet 43 millió dollár kompenzációs kártérítést (compensatory damages) és 200 millió dollár büntető kártérítést (punitive damages) tartalmazott – ez egyértelmű jelzés arra, hogy a bíróság nemcsak a veszteségeket akarta megtéríteni, hanem példát is kívánt statuálni.
Ez az ügy nemcsak anyagi veszteségként, hanem precedensként is mérföldkő: egyre világosabb, hogy az automatizált AI rendszerek felelőssége jogi szinten is meghatározó tényező lesz az előttünk álló években.
| Forrás: Reuters