A prompt injection lényege, hogy a támadó manipulálja az AI-nak adott bemeneti utasításokat (prompteket), hogy az a fejlesztők vagy felhasználók szándéka ellenére viselkedjen. Ez történhet például úgy, hogy egy látszólag ártalmatlan dokumentumba vagy kérdésbe rejtett utasításokat fűznek be, amelyeket az AI végrehajt. Ezzel a módszerrel például megszerezhetők lehetnek olyan rendszerbeállítások, hozzáférési kulcsok vagy bizalmas információk, amelyek normál körülmények között rejtve maradnának.
Egy vállalat esetében mindez azt jelenti, hogy a rendszerbe bevitt privát promptok, belső jegyzetek vagy felhasználói inputok révén a támadó kinyerheti például:
- üzleti stratégiákat,
- szenzitív kódot vagy konfigurációs adatokat,
- dokumentumokat vagy belső válaszokat, amelyeket normál esetben nem lenne jogában elérni.
Az Indirect Prompt Injection, azaz közvetett prompt injekció még alattomosabb: a rosszindulatú kód vagy instrukció nem közvetlenül a promptban jelenik meg, hanem például dokumentumok, e-mailek, adatforrások révén, amelyeket az AI visszahív a kontextusba.
Konkrét vállalati példák és adatvesztési esetek
Egy nemrégiben publikált vizsgálat szerint az alkalmazottak jelentős része megoszt érzékeny vállalati adatokat ChatGPT-vel vagy más AI eszközökkel, ami komoly adatvédelmi és megfelelőségi problémákhoz vezet.
A Scale AI startup példáján keresztül látszik, hogy tréningadatok és titkos projektek kerültek nyilvános Google Docokba, amelyek révén versenytársakhoz is eljuthattak.
Az IBM hozzájárulása rámutat arra, hogy a vállalati vezetők többsége már most úgy látja, hogy ha generatív AI-t vezet be a cég, akkor az három éven belül biztonsági incidenshez vezethet.
Hogyan védekezhet egy vállalat?
- Input-validálás és szűrés
Minden AI‑hoz érkező promptot először ellenőrizni kell: nem tartalmaznak-e nem várt parancsokat vagy „rejtett” promptokat.
2. Folyamatos monitoring és auditálás
Az AI rendszerek kimenetét rendszeresen ellenőrizni kell, és naplózni kell, hogy mely promt-parancsok hoztak eredményt.
3. Elválasztott jogosultságok & minimalizált adathozzáférés
Az AI‑nak ne legyen teljes hozzáférése minden belső adatbázishoz — csak azokhoz az adatokhoz, amelyek szükségesek az adott funkcióhoz.
4. Kétlépcsős prompt-kezelés & emberi jóváhagyás kritikus műveleteknél
Bizonyos kimenetek esetén automatizmus helyett emberi felülvizsgálat szükséges.
5. Képzés és tudatosság
Az alkalmazottakat is oktatni kell arra, hogy mit ne írjanak be AI rendszerekbe, milyen input lehet veszélyes.
6. Többlépcsős védelem / AI védekező mechanizmusok
Egyes kutatások már több AI‑ügynökös rendszert alkalmaznak, amelyik külön „védelmi agentekkel” figyelik és szűrik a promptokat.
Forráslista
- Prompt Injection – Wikipedia: https://en.wikipedia.org/wiki/Prompt_injection
- OWASP – LLM01: Prompt Injection: https://genai.owasp.org/llmrisk/llm01-prompt-injection
- The Turing Institute – Indirect Prompt Injection: https://cetas.turing.ac.uk/publications/indirect-prompt-injection-generative-ais-greatest-security-flaw
- Datacamp – Prompt Injection Attack: https://www.datacamp.com/blog/prompt-injection-attack
- IBM – AI risks in Data Breach Report 2025: https://aibusiness.com/cybersecurity/ibm-highlights-ai-security-issues-in-2025-data-breach-report
- Cyberhaven – Sensitive data in ChatGPT: https://www.cyberhaven.com/blog/employees-enter-sensitive-data-into-chatgpt
- CIO Dive – Shadow AI risks: https://www.ciodive.com/news/data-breach-cost-AI-governance-IBM/757218
- Business Insider – Scale AI document leak: https://www.businessinsider.com/scale-ai-public-google-docs-security-2025-6
- Wired – ChatGPT and enterprise data leaks: https://www.wired.com/story/chatgpt-data-leak-business-risks/
- OWASP – GenAI risks (full list): https://genai.owasp.org/
- IBM – Prompt Injection overview: https://www.ibm.com/think/topics/prompt-injection
- Dataversity – AI threat resilience: https://www.dataversity.net/articles/modernizing-security-and-resilience-for-ai-threats
- Microsoft Security – Generative AI input filtering: https://www.microsoft.com/en-us/security/blog/2023/12/06/securing-generative-ai/



































