GenAI-manipulációk a bizalmas adatok kinyerésére és támadási célú felhasználására: technikák, kísérleti vizsgálat és védelmi javaslatok

Kerényi Máté (2025) GenAI-manipulációk a bizalmas adatok kinyerésére és támadási célú felhasználására: technikák, kísérleti vizsgálat és védelmi javaslatok. Pénzügyi és Számviteli Kar. (Kéziratban)

[thumbnail of pb9m0e_KerenyiMate_GenAI_TDK.pdf] PDF
pb9m0e_KerenyiMate_GenAI_TDK.pdf
Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg

Download (724kB)
[thumbnail of pb9m0e_rezume.docx] Microsoft Word
pb9m0e_rezume.docx
Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg

Download (16kB)
[thumbnail of Dolgozat_biralati_lap_2025_Kerényi_Máté.pdf] PDF
Dolgozat_biralati_lap_2025_Kerényi_Máté.pdf
Hozzáférés joga: Bizalmas dokumentum (bírálat)

Download (154kB)
[thumbnail of 05_Dolgozat_biralati_lap_2025_HU ÚJ LOGO KerenyiMate.pdf] PDF
05_Dolgozat_biralati_lap_2025_HU ÚJ LOGO KerenyiMate.pdf
Hozzáférés joga: Bizalmas dokumentum (bírálat)

Download (738kB)

Absztrakt (kivonat)

A kutatás központi kérdése, hogy milyen manipulációs technikák segítségével lehet generatív mesterséges intelligencia rendszerekből bizalmas adatokat kinyerni, ezek a módszerek hogyan használhatók fel hackertámadási célokra – különösen jogosulatlan hozzáférés vagy információszerzés érdekében –, illetve milyen megelőzési, védelmi stratégiák állnak rendelkezésre. Van-e összefüggés egy modell fejlettsége és a manipulhatósága között. A kutatás során több széleskörben használt mesterséges intelligencia modell lett tesztpromptokkal vizsgálva, különálló chat beszélgetésekben folytatva támadási próbálkozásokat. Az értékelés egy háromszintű skálán történt (1: teljes elutasítás, 2: részleges válasz, 3: sikeres manipuláció). Két hosszú, 11 és 12 fordulós szerepjátékon keresztüli manipuláció is megvizsgálásra került. Továbbá történt egy álláspályázat kiválasztási folyamat szimuláció is, ahol azzal a feltételezéssel éltem, hogy a GenAI-ra bízzák a kiválasztási folyamatot, és az egyik pályázó a beküldött pályázatában elrejtett prompt injection támadással előnyre akar szert tenni. Az eredmények azt mutatták, hogy a nagy közönségek által használt AI modellek például a ChatGPT, Copilot, Gemini… a tiltott kérdésekre többnyire elutasító választ adtak. Az indirekt prompt injectionre pl. edukációs célnak álcázva túlnyomórészt részleges vagy teljes választ adtak. Ugyanakkor egy egyszerű Google keresés a tiltott kérdések többségére azonnal választ adott, így kérdéses az AI modellek biztonsági szűrésének végső hatékonysága. A hosszú, sokfordulós szerepjátékokon keresztül a Perplexity, Grok és DeepSeek etikai szabályrendszere akár teljesen kiiktathatóvá vált. Egy félkész zsarolóvíus formátummanipulációja a DeepSeeknél többszöri próbálkozásra is sikeres maradt. Az álláspályázat kiválasztási szimulációnál a Copilotnál sikerült a manipuláció. A modell fejlettsége és manipulálhatósága között nem sikerült egyértelmű tendeniciát azonosítani, ennek ellenére több modellnél növekvő fejlettségi szint növekvő sikeres manipulációt mutatott.

Intézmény

Budapesti Gazdasági Egyetem

Kar

Pénzügyi és Számviteli Kar

Tanszék

Informatika Tanszék

Tudományterület/tudományág

NEM RÉSZLETEZETT

Szak

Gazdaságinformatikus

Mű típusa: TDK dolgozat
Kulcsszavak: adatbiztonság, adatvédelem, manipuláció, mesterséges intelligencia, prompt injection
SWORD Depositor: User Archive
Felhasználói azonosító szám (ID): User Archive
Rekord készítés dátuma: 2026. Ápr. 16. 07:36
Utolsó módosítás: 2026. Ápr. 16. 07:36

Actions (login required)

Tétel nézet Tétel nézet