A nagy nyelvi modellek korlátai: Miért nem helyettesíthetők az emberek az LLM-ekkel?

Madlena Eszter (2023) A nagy nyelvi modellek korlátai: Miért nem helyettesíthetők az emberek az LLM-ekkel? Külkereskedelmi Kar. (Kéziratban)

[thumbnail of Madlena_Eszter_KKK.pdf] PDF
Madlena_Eszter_KKK.pdf
Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg

Download (634kB)
[thumbnail of Madlena_Eszter_KKK.docx] Microsoft Word
Madlena_Eszter_KKK.docx
Hozzáférés joga: Csak nyilvántartásba vett egyetemi IP címekről nyitható meg

Download (23kB)
[thumbnail of Dolgozat_biralati_lap_2023_Madlena Eszter.pdf] PDF
Dolgozat_biralati_lap_2023_Madlena Eszter.pdf
Hozzáférés joga: Bizalmas dokumentum (bírálat)

Download (143kB)
[thumbnail of Madlena Eszter.pdf] PDF
Madlena Eszter.pdf
Hozzáférés joga: Bizalmas dokumentum (bírálat)

Download (112kB)

Absztrakt (kivonat)

A dolgozatban a nagy nyelvi modelleknek (Large Language Models - LLM) kialakulásának háttere kerül ismertetésre. Az egyszerűbb neurális hálózatoktól eljutunk az LLM-ekhez, miközben bemutatásra kerül a mögöttük rejlő architektúrák a működése. Ezzel árnyaltabb képet kapunk arról, hogy az, amit emberinek érzékelünk, az valójában bonyolult statisztikai függvények működésének eredménye. A nagy nyelvi modellek azokból a szövegekből tanulnak, amelyeket e modellek létrehozói összeválogatnak, és ez teszi lehetővé az LLM-ek számára, hogy nagy valószínűséggel helyes természetes nyelvi kijelentéseket generáljanak, alkalmazkodjanak különböző írási stílusokhoz, területekhez; de nem rendelkeznek valódi megértéssel, tudatossággal vagy teljesen eredeti ötletek kialakításának a képességével. Különböző aspektusok vizsgálatával feltárásra kerül a mögöttük rejlő struktúra és a dolgozat keretein belül igazolást nyert az az állítás, hogy valójában a határait, mi emberek szabjuk meg, és nem öntudatra ébredésről van szó, hanem gondosan finomhangolt matematikai modellekről. A dolgozat végén egy saját fejlesztésű visszacsatolt neuronháló (Recurrent Neural Network – RNN) bemutatására kerül sor, ami kísérleti alapként szolgál annak megértéséhez, hogy lényegében hogyan működnek a szöveggeneráló mechanizmusok. A bemutatott RNN konkrét példákon keresztül demonstrálja és világosan alátámasztja a dolgozat mondanivalóját.

Intézmény

Budapesti Gazdasági Egyetem

Kar

Külkereskedelmi Kar

Tanszék

Társadalomtudományi Módszertan Tanszék

Tudományterület/tudományág

NEM RÉSZLETEZETT

Szak

Nemzetközi gazdálkodás

Konzulens(ek)

Konzulens neve
Konzulens típusa
Beosztás, tudományos fokozat, intézmény
Email
Dr. Bánhalmi Árpád
Belső
egyetemi adjunktus; Társadalomtudományi Módszertan Tanszék; KKK

Mű típusa: TDK dolgozat
Kulcsszavak: gépi tanulás, mesterséges intelligencia, nagy nyelvi modellek, természetes nyelvi feldolgozás, visszacsatolt neurális hálózat
SWORD Depositor: Archive User
Felhasználói azonosító szám (ID): Archive User
Rekord készítés dátuma: 2024. Már. 22. 12:52
Utolsó módosítás: 2024. Már. 22. 12:52

Actions (login required)

Tétel nézet Tétel nézet