Molnár Kitti (2024) A mesterséges intelligencia elfogultsága és annak hatása a döntéshozatalra. Pénzügyi és Számviteli Kar. (Kéziratban)
![]() |
PDF
Molnár_Kitti_PSZK.pdf Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg Download (1MB) |
![]() |
Archive (ZIP)
TDK.zip Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg Download (45MB) |
![]() |
PDF
08_BGE TDK_Szerzői hozzájárulás nyilatkozat 2024.pdf Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg Download (157kB) |
![]() |
Archive (ZIP)
Molnár_Kitti_PSZK.zip Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg Download (14kB) |
![]() |
PDF
Dolgozat_biralati_lap_2024_Molnár_Kitti.pdf Hozzáférés joga: Bizalmas dokumentum (bírálat) Download (105kB) |
![]() |
PDF
Dolgozat_biralati_lap_2024_Molnár_Kitti.pdf Hozzáférés joga: Bizalmas dokumentum (bírálat) Download (84kB) |
Absztrakt (kivonat)
A mesterséges intelligencia (MI) gyors fejlődése az elmúlt években nemcsak a technológiai újításokban, hanem a mindennapi élet számos területén is jelentős változásokat hozott. Számos iparágban alkalmazzák, mint például az orvosi diagnosztikában, pénzügyi elemzésekben vagy akár az önvezető járművek fejlesztésében. Ugyanakkor az MI egyik legsúlyosabb és leginkább figyelmen kívül hagyott problémája az algoritmusok elfogultsága. Az MI-rendszerek elfogultsága, mely gyakran a fejlesztés során használt adatok és tervezési döntések következménye, súlyos társadalmi és etikai kérdéseket vet fel. A torz eredmények, például a kisebbségi csoportokkal szembeni diszkrimináció, hosszú távon befolyásolhatják a technológia megbízhatóságát és igazságosságát. Az elfogultság kérdése az emberi döntéshozatalban mindig is jelen volt, azonban az MI-rendszerek bevezetése új szintre emelte ezt a problémát. Az algoritmusok által hozott döntések gyakran objektívnek tűnnek, mégis az adatforrásokban rejlő előítéletek, valamint a tervezés során figyelembe nem vett társadalmi szempontok súlyosan torzíthatják az eredményeket. Ez különösen aggasztó olyan helyzetekben, mint például a hitelbírálatok vagy az állásinterjúk, ahol az MI alapú rendszerek döntései emberek életére és karrierjére is hatással lehetnek. Az alábbi kérdések merültek fel benne a témával kapcsolatban: Mit jelent, hogy torzított a mesterséges intelligencia?Feltételezzük-e, hogy nem kell tökéletesnek lennie? Ha igen, elég csak annyi, hogy jobb, mint az ember? Hogyan lehet mérni a torzítottságot? Hogyan lehet elkerülni a torzítottságot? Milyen következményekkel járhat a torzított mesterséges intelligencia? Hogyan befolyásolja az önvezető autókat a torzítottság? A dolgozat során nem csak ezekre a kérdésekre kaptam választ, hanem különböző alternatív modelleket is létrehoztam, amik nem tesznek megkülönböztetést egyes csoportok között. Egy COMPAS nevezetű, az Egyesült Államokban használt bűnelkövetők szabadlábra helyezéséről döntő rendszer adatait használva, hoztam létre ezen modelleket és vizsgáltam meg, hogy milyen módszerekkel lehet ellenőrizni a modellek működését. A létrejött modellek fejlesztésére a későbbiekben jogi és társadalomtudományi szakemberekkel is meg lehet vizsgálni, hogy a modell ne csak technikailag, hanem társadalmilag is igazságos és elfogadható legyen.
Intézmény
Budapesti Gazdasági Egyetem
Kar
Tanszék
Gazdaságinformatika Tanszék
Tudományterület/tudományág
NEM RÉSZLETEZETT
Szak
Mű típusa: | TDK dolgozat |
---|---|
Kulcsszavak: | COMPAS, diszkrimináció, elfogultság, mesterséges intelligencia, modell tanítás, morális dilemma, önvezető autó |
SWORD Depositor: | User Archive |
Felhasználói azonosító szám (ID): | User Archive |
Rekord készítés dátuma: | 2025. Szep. 23. 11:55 |
Utolsó módosítás: | 2025. Szep. 23. 11:56 |
Actions (login required)
![]() |
Tétel nézet |