Nyomtatás

Üzleti titkok veszélyben – az AI és a prompt injection kockázata

2025-10-21 291

A mesterséges intelligenciával (AI) való együttműködés egyre szorosabbá válik a vállalati működésben, ám ezzel párhuzamosan újfajta sebezhetőségek is megjelentek. Az egyik ilyen, sokáig alábecsült veszélyforrás a „prompt injection” nevű támadástípus, amelynek révén az AI-rendszerek nemcsak félrevezethetők, de érzékeny információk kiszivárogtatására is rávehetők.

A prompt injection lényege, hogy a támadó manipulálja az AI-nak adott bemeneti utasításokat (prompteket), hogy az a fejlesztők vagy felhasználók szándéka ellenére viselkedjen. Ez történhet például úgy, hogy egy látszólag ártalmatlan dokumentumba vagy kérdésbe rejtett utasításokat fűznek be, amelyeket az AI végrehajt. Ezzel a módszerrel például megszerezhetők lehetnek olyan rendszerbeállítások, hozzáférési kulcsok vagy bizalmas információk, amelyek normál körülmények között rejtve maradnának.

Egy vállalat esetében mindez azt jelenti, hogy a rendszerbe bevitt privát promptok, belső jegyzetek vagy felhasználói inputok révén a támadó kinyerheti például:

- üzleti stratégiákat,

- szenzitív kódot vagy konfigurációs adatokat,

- dokumentumokat vagy belső válaszokat, amelyeket normál esetben nem lenne jogában elérni.

Az Indirect Prompt Injection, azaz közvetett prompt injekció még alattomosabb: a rosszindulatú kód vagy instrukció nem közvetlenül a promptban jelenik meg, hanem például dokumentumok, e-mailek, adatforrások révén, amelyeket az AI visszahív a kontextusba.

Konkrét vállalati példák és adatvesztési esetek

Egy nemrégiben publikált vizsgálat szerint az alkalmazottak jelentős része megoszt érzékeny vállalati adatokat ChatGPT-vel vagy más AI eszközökkel, ami komoly adatvédelmi és megfelelőségi problémákhoz vezet.

A Scale AI startup példáján keresztül látszik, hogy tréningadatok és titkos projektek kerültek nyilvános Google Docokba, amelyek révén versenytársakhoz is eljuthattak.

Az IBM hozzájárulása rámutat arra, hogy a vállalati vezetők többsége már most úgy látja, hogy ha generatív AI-t vezet be a cég, akkor az három éven belül biztonsági incidenshez vezethet.

Hogyan védekezhet egy vállalat?

  1. Input-validálás és szűrés
    Minden AI‑hoz érkező promptot először ellenőrizni kell: nem tartalmaznak-e nem várt parancsokat vagy „rejtett” promptokat.

    2. Folyamatos monitoring és auditálás
    Az AI rendszerek kimenetét rendszeresen ellenőrizni kell, és naplózni kell, hogy mely promt-parancsok hoztak eredményt.

    3. Elválasztott jogosultságok & minimalizált adathozzáférés
    Az AI‑nak ne legyen teljes hozzáférése minden belső adatbázishoz — csak azokhoz az adatokhoz, amelyek szükségesek az adott funkcióhoz.

    4. Kétlépcsős prompt-kezelés & emberi jóváhagyás kritikus műveleteknél
    Bizonyos kimenetek esetén automatizmus helyett emberi felülvizsgálat szükséges.

    5. Képzés és tudatosság
    Az alkalmazottakat is oktatni kell arra, hogy mit ne írjanak be AI rendszerekbe, milyen input lehet veszélyes.

    6. Többlépcsős védelem / AI védekező mechanizmusok
    Egyes kutatások már több AI‑ügynökös rendszert alkalmaznak, amelyik külön „védelmi agentekkel” figyelik és szűrik a promptokat.

Forráslista

  1. Prompt Injection – Wikipedia: https://en.wikipedia.org/wiki/Prompt_injection
  2. OWASP – LLM01: Prompt Injection: https://genai.owasp.org/llmrisk/llm01-prompt-injection
  3. The Turing Institute – Indirect Prompt Injection: https://cetas.turing.ac.uk/publications/indirect-prompt-injection-generative-ais-greatest-security-flaw
  4. Datacamp – Prompt Injection Attack: https://www.datacamp.com/blog/prompt-injection-attack
  5. IBM – AI risks in Data Breach Report 2025: https://aibusiness.com/cybersecurity/ibm-highlights-ai-security-issues-in-2025-data-breach-report
  6. Cyberhaven – Sensitive data in ChatGPT: https://www.cyberhaven.com/blog/employees-enter-sensitive-data-into-chatgpt
  7. CIO Dive – Shadow AI risks: https://www.ciodive.com/news/data-breach-cost-AI-governance-IBM/757218
  8. Business Insider – Scale AI document leak: https://www.businessinsider.com/scale-ai-public-google-docs-security-2025-6
  9. Wired – ChatGPT and enterprise data leaks: https://www.wired.com/story/chatgpt-data-leak-business-risks/
  10. OWASP – GenAI risks (full list): https://genai.owasp.org/
  11. IBM – Prompt Injection overview: https://www.ibm.com/think/topics/prompt-injection
  12. Dataversity – AI threat resilience: https://www.dataversity.net/articles/modernizing-security-and-resilience-for-ai-threats
  13. Microsoft Security – Generative AI input filtering: https://www.microsoft.com/en-us/security/blog/2023/12/06/securing-generative-ai/
Hírfigyelő

Kiváncsi, mit írnak a versenytársakról? Elsőként olvasná a szakmájával kapcsolatos információkat? Kulcsemberekre, projektekre, konkurensekre figyelne? Segítünk!

Ez az e-mail-cím a szpemrobotok elleni védelem alatt áll. Megtekintéséhez engedélyeznie kell a JavaScript használatát.

Események

Versenyben

Ingatlanpiac

Üzleti hírszerzés, biztonság