Nemzetközi példák és alkalmazások
Kína
Az AP friss vizsgálata kimutatta, hogy az amerikai technológiai vállalatok is szerepet játszottak Kína digitális felügyeleti rendszerének (pl. Golden Shield, illetve az IJOP – Integrated Joint Operations Platform) kiépítésében. Ezeken keresztül arc-, járás- és DNS‑alapú felismerés, prediktív rendészet, tömeges adatgyűjtés valósul meg. Különösen a Hszincsiang régióban élő kisebbségek váltak célponttá. (Korábbi cikkünket erről ITT olvashatja!)
Pakisztán
Az Amnesty International szerint az ország nagy kapacitású lehallgatási rendszereket és kínai technológiájú internetes tűzfalat működtet, amely mobiltelefonokat és internetes forgalmat követ nyomon. A cél olykor politikai tiltakozások kezelése, kritikák elfojtása, szabadságjogok korlátozása.
Oroszország, Moszkva
Egy Reuters‑riport feltárta, hogy Moszkva arcfelismerő rendszereket használ tiltakozók azonosítására, beleértve olyan embereket is, akik csak kisebb szerepet játszottak a tüntetésekben. A cél: a társadalmi kontroll és a tiltakozó események előzetes megfékezése.
USA, New Orleans
A város rendőrsége és a hozzájuk tartozó magánszervezet (Project NOLA) több mint 200 arcfelismerő kamerát telepített, amelyek valós idejű riasztásokat küldenek a tisztviselőknek, ha gyanús személyek vannak az utcán. Ez a kapcsolat sértheti a helyi szabályozásokat, különösen az arcfelismerés használatának korlátait illetően.
2023 – Franciaország engedélyezi az AI‑vezérelt videófelügyeletet a párizsi olimpiára
2023-ban a francia parlament elfogadta azt a törvényt, amely kísérleti jelleggel engedélyezte algoritmikus videómegfigyelés alkalmazását a 2024-es párizsi olimpia és más nagy nyilvános események idejére. A rendszer nem használt arcfelismerést vagy biometrikus azonosítást — ezt a jogszabály kifejezetten tiltotta. Ehelyett viselkedéselemző algoritmusokat telepítettek, amelyek képesek detektálni például elhagyott tárgyakat, szokatlan tömegsűrűsödést vagy esést.
A törvény bevezetése azonban több ponton vitatott volt. A francia adatvédelmi hatóság (CNIL) szerint a rendeletek és végrehajtási szabályok részben késve, hiányos tájékoztatás mellett jelentek meg, ami megnehezítette a nyilvános kontrollt és az adatvédelmi biztosítékok átláthatóságát.Etikai, jogi aggályok
Profilalkotás és előítéletek
Az arcfelismerésben ismertté vált botlások – rossz felismerés, torzítottság (pl. faj, nem szerint) – veszélyeztetik, hogy ártatlan embereket tesznek gyanússá.
A NIST 2019-es demográfiai vizsgálata alátámasztja, hogy az arcfelismerő rendszerek jelentős részénél kimutathatók demográfiai különbségek (pl. bőrszín szerinti hibaarány).
Átláthatóság hiánya
Az emberek gyakran nem tudják, hogy megfigyelik őket, kik láthatják az adatokat, meddig tárolják, illetve milyen célból használják fel. Jogvédők és civil szervezetek többször felhívták a figyelmet, hogy az AI‑vezérelt megfigyelés gyakran a jogi keretek előtt (vagy azok ködös területén) működik.
Jogvédő szervezetek (ACLU) és több oknyomozás rendre a transzparencia és elszámoltathatóság hiányát jelzik az AI-alapú megfigyelésnél.
Előzetes letartóztatás, megfélemlítés
Amikor az AI előrejelzéseket használ arra, hogy személyeket figyeljenek vagy korlátozzanak, mielőtt bármilyen bizonyíték felmerült volna – ez fenyegeti az ártatlanság elvét és a jogállami normákat. Például a kínai esetekben – kisebbségek esetén – a prediktív rendészet lehetővé vált társadalmi kontroll céljából.
Az AP Kína-anyag részletes példákat hoz arra, hogy az IJOP előrejelzései megelőző intézkedéseket, tömeges letartóztatásokat eredményeztek a Hszincsiangban élő kisebbségeknél – ez valóban sértheti az ártatlanság vélelmét.
Az állami megfigyelés AI‑eszközökkel ma már nem futurisztikus álom, hanem valóság számos országban. Ezekben az esetekben a technológiai lehetőségek — arcfelismerés, viselkedéselemzés, előrejelző rendszerek — közvetlenül összefonódnak politikai és jogi kérdésekkel: ki birtokolja az adatot, ki dönt a felhasználásáról, és hol húzódik a határ az állampolgári szabadságjogok és az állami biztonság között.
Források
- “Silicon Valley enabled brutal mass detention and surveillance in China, internal documents show”, AP News, 2025.
- “Amnesty says Pakistan spying on millions through phone‑tapping, firewall”, Reuters, 2025.
- “Facial recognition is helping Putin curb dissent …”, Reuters, 2023.
- “Police secretly monitored New Orleans with facial recognition cameras”, The Washington Post, 2025.
- “How algorithmic video surveillance was used during the Paris Olympics”, Le Monde, 2024.
- “Racist facial recognition sparks ethical concerns …”, Reuters, 2021.
- “Machine Surveillance is Being Super‑Charged by Large AI Models”, ACLU, 2025.
Egyéb források:
- https://www.cnil.fr/fr/loi-sur-les-jeux-olympiques-la-videoprotection-algorithmique-surveillee-de-pres-par-la-cnil
- https://www.lemonde.fr/en/france/article/2023/05/17/france-authorizes-ai-surveillance-for-olympics_6038786_7.html
- https://www.politico.eu/article/france-olympics-2024-video-surveillance-law-raises-privacy-concerns/