Kerényi Máté (2025) GenAI-manipulációk a bizalmas adatok kinyerésére és támadási célú felhasználására: technikák, kísérleti vizsgálat és védelmi javaslatok. Pénzügyi és Számviteli Kar. (Kéziratban)
|
PDF
pb9m0e_KerenyiMate_GenAI_TDK.pdf Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg Download (724kB) |
|
|
Microsoft Word
pb9m0e_rezume.docx Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg Download (16kB) |
|
|
PDF
Dolgozat_biralati_lap_2025_Kerényi_Máté.pdf Hozzáférés joga: Bizalmas dokumentum (bírálat) Download (154kB) |
|
|
PDF
05_Dolgozat_biralati_lap_2025_HU ÚJ LOGO KerenyiMate.pdf Hozzáférés joga: Bizalmas dokumentum (bírálat) Download (738kB) |
Absztrakt (kivonat)
A kutatás központi kérdése, hogy milyen manipulációs technikák segítségével lehet generatív mesterséges intelligencia rendszerekből bizalmas adatokat kinyerni, ezek a módszerek hogyan használhatók fel hackertámadási célokra – különösen jogosulatlan hozzáférés vagy információszerzés érdekében –, illetve milyen megelőzési, védelmi stratégiák állnak rendelkezésre. Van-e összefüggés egy modell fejlettsége és a manipulhatósága között. A kutatás során több széleskörben használt mesterséges intelligencia modell lett tesztpromptokkal vizsgálva, különálló chat beszélgetésekben folytatva támadási próbálkozásokat. Az értékelés egy háromszintű skálán történt (1: teljes elutasítás, 2: részleges válasz, 3: sikeres manipuláció). Két hosszú, 11 és 12 fordulós szerepjátékon keresztüli manipuláció is megvizsgálásra került. Továbbá történt egy álláspályázat kiválasztási folyamat szimuláció is, ahol azzal a feltételezéssel éltem, hogy a GenAI-ra bízzák a kiválasztási folyamatot, és az egyik pályázó a beküldött pályázatában elrejtett prompt injection támadással előnyre akar szert tenni. Az eredmények azt mutatták, hogy a nagy közönségek által használt AI modellek például a ChatGPT, Copilot, Gemini… a tiltott kérdésekre többnyire elutasító választ adtak. Az indirekt prompt injectionre pl. edukációs célnak álcázva túlnyomórészt részleges vagy teljes választ adtak. Ugyanakkor egy egyszerű Google keresés a tiltott kérdések többségére azonnal választ adott, így kérdéses az AI modellek biztonsági szűrésének végső hatékonysága. A hosszú, sokfordulós szerepjátékokon keresztül a Perplexity, Grok és DeepSeek etikai szabályrendszere akár teljesen kiiktathatóvá vált. Egy félkész zsarolóvíus formátummanipulációja a DeepSeeknél többszöri próbálkozásra is sikeres maradt. Az álláspályázat kiválasztási szimulációnál a Copilotnál sikerült a manipuláció. A modell fejlettsége és manipulálhatósága között nem sikerült egyértelmű tendeniciát azonosítani, ennek ellenére több modellnél növekvő fejlettségi szint növekvő sikeres manipulációt mutatott.
Intézmény
Budapesti Gazdasági Egyetem
Kar
Tanszék
Informatika Tanszék
Tudományterület/tudományág
NEM RÉSZLETEZETT
Szak
| Mű típusa: | TDK dolgozat |
|---|---|
| Kulcsszavak: | adatbiztonság, adatvédelem, manipuláció, mesterséges intelligencia, prompt injection |
| SWORD Depositor: | User Archive |
| Felhasználói azonosító szám (ID): | User Archive |
| Rekord készítés dátuma: | 2026. Ápr. 16. 07:36 |
| Utolsó módosítás: | 2026. Ápr. 16. 07:36 |
Actions (login required)
![]() |
Tétel nézet |

