Az egészségügyben alkalmazott gépi tanuláson alapuló mesterséges intelligencia rendszerek szabályozásának összehasonlítása

Dr. Rottek Dávid (2022) Az egészségügyben alkalmazott gépi tanuláson alapuló mesterséges intelligencia rendszerek szabályozásának összehasonlítása. Pénzügyi és Számviteli Kar.

[thumbnail of Rottek_David_Om3z12.pdf] PDF
Rottek_David_Om3z12.pdf
Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg

Download (1MB)
[thumbnail of BA_O_Rottek_David.pdf] PDF
BA_O_Rottek_David.pdf
Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg

Download (247kB)
[thumbnail of Szakdolgozat_bírálat_Rottek Dávid_OM3Z12.pdf] PDF
Szakdolgozat_bírálat_Rottek Dávid_OM3Z12.pdf
Hozzáférés joga: Bizalmas dokumentum (bírálat)

Download (196kB)
[thumbnail of BA_B_Rottek_David.pdf] PDF
BA_B_Rottek_David.pdf
Hozzáférés joga: Bizalmas dokumentum (bírálat)

Download (203kB)

Absztrakt (kivonat)

A szakdolgozatban az egészségügyben alkalmazott, gépi tanuláson alapuló mesterséges intelligencia rendszerek szabályozását hasonlítottam össze, Kínában, az Egyesült Államokban és az Európai Unióban, mint az MI fejlesztésben domináns országokban. Az egészségügyben alkalmazott, gépi tanuláson alapuló MI rendszerek rendkívüli fejlődésen mentek keresztül az évek során, emiatt az egészségügyi diagnosztikában nagy hasznát veszik e rendszereknek. Egyes rendszerek a képalapú diagnosztikában jobb hatásfokkal dolgoznak, mint az emberek. Azonban a jelentős fejlődés ellenére komoly kockázatok, és hibalehetőségek merülnek fel e rendszerek használata során, mint például: 1) a páciensek károsodása a Mesterséges Intelligencia rendszer hibái miatt, 2) a rendszerekkel, eszközökkel való visszaélés, 3) a mesterséges intelligencia elfogultsága és a meglévő egyenlőtlenségek felszínre kerülése, 4) az átláthatóság hiánya, 5) adatvédelmi és biztonsági kérdések, 6) az elszámoltathatóság hiányosságai, és 7) a végrehajtás akadályai. További kockázatot jelenthet az MI rendszer elfogadásában az, hogy az érintettek (orvosok, páciensek) nem ismerik általánosságban az MI rendszerek működését. 2019-ben a G20 csúcstalálkozón az részes államok elfogadták, hogy az MI iparágukat milyen elvek mentén fogják szabályozni. A 6 alapvető alapelv: (1) Biztonságos és hatékony rendszerek működtetése, (2) Diszkrimináció tilalma, (3) adatvédelem, magánélet biztosítása, (4) tájékoztatás az MI rendszerről, átláthatóság (5) emberi tényező beillesztése a döntéshozásba, hiba vagy igény esetén, (6) ellenőrizhetőség biztosítása. A 2019-ben vállalt elvek azonban mindhárom szereplő esetében továbbra is elvek maradtak. Az adatvédelem területén azonban jelentős előrelépés történt mindegyik államban, ez azonban nem az MI fejlesztés elvei mentén történő megállapodás miatt történt, hanem a GDPR és 2010-es évek személyes adatvédelemre vonatkozó igény megerősödése miatt. Azonban az adatvédelmi szabályok is kötelezően alkalmazandók egy MI rendszerre, továbbá egy adott államban más szabályozások is érvényben vannak, pl. a diszkrimináció tilalmáról. Kínában nagyon gazdag és kidolgozott etikai kódex van hatályban a mesterséges intelligenciáról, azonban etikai elvekre nehéz kötelezettségeket telepíteni, mivel egy elv tágan értelmezhető, és teret enged a kreatív értelmezésnek, továbbá a címzetteket bizonytalanságban tartja. Kínában az adatvédelmi jogszabályok esetében is megfigyelhető ez a fajta elvszerű szabályozás, emiatt az emberi magánszféra sérülhet. További probléma Kínában, hogy az államhatalom kevésbé demokratikus berendezkedése informálisan is hatással lehet egy-egy állami szereplőre. Az USA-ban szintén etikai elvek vannak hatályban, igaz azok nem bírnak jogi kötelező erővel. Azonban az USA összetettsége teret enged az önszabályozásnak, akár a megfelelő hatóságok útján (FDA), akár a piaci szereplők, szabványosítás útján, továbbá a bíróságok jogfejlesztő tevékenysége és egy-egy tagállam törvényhozása által. Az Európai Unió, aki a három szereplő közül a legtávolabb jutott az MI szabályozásban, jelenleg egy rendelettervezet van az EU jogalkotó intézményei előtt, amelyet elképzelhető, hogy 2023-ban el fognak fogadni. A rendelet kockázati kategóriába sorolja az egyes MI rendszereket, tilalmazott mi, magas kockázatú, elfogadható kockázatú, és minimális kockázatú rendszerekre. A magas és elfogadható kockázatot jelentő rendszerek (magas az EÜ területén működő MI rendszer), meg kell felelniük a rendelet előírásainak. Meg nem felelősség esetén a rendelet igen magas bírságtétellel fenyegeti a fejlesztőket, forgalmazókat: maximálisan 30 millió euró, vagy az előző üzleti év globális árbevételének 6%-a. Az MI iparág dominanciájáért folyó verseny továbbra is tart, ezt mindhárom szereplő deklarálta már évekkel ezelőtt. Fontosabb a verseny megnyerése, mint egy konzisztens szabály megalkotása, hiszen a túlszabályozás csökkentheti az innovációt, és túlzó költséget jelenthet egy-egy fejlesztőnek. Továbbá probléma a hogyan, az MI annyira bonyolult, újszerű és összetett, hogy nagyon nehéz átlátni, különösen szabályozói oldalról.

Intézmény

Budapesti Gazdasági Egyetem

Kar

Pénzügyi és Számviteli Kar

Tanszék

Gazdaságinformatika Tanszék

Tudományterület/tudományág

NEM RÉSZLETEZETT

Szak

Gazdaságinformatikus

Konzulens(ek)

Konzulens neve
Konzulens típusa
Beosztás, tudományos fokozat, intézmény
Email
Kaderják Gyula
Belső
Mesteroktató; Alkalmazott Kvantitatív Módszertan Tanszék; PSZK
Szabados Levente
Külső
NEM RÉSZLETEZETT
NEM RÉSZLETEZETT

Mű típusa: diplomadolgozat (NEM RÉSZLETEZETT)
Kulcsszavak: adatvédelmi szabályozás, Amerikai Egyesült Államok, egészségügy, Európai Unió, mesterséges intelligencia
SWORD Depositor: Archive User
Felhasználói azonosító szám (ID): Archive User
Rekord készítés dátuma: 2023. Ápr. 21. 09:52
Utolsó módosítás: 2023. Ápr. 21. 09:52

Actions (login required)

Tétel nézet Tétel nézet