A Cambridge Dictionary jelentette be az év szavát, és magyarázta el annak jelentésbővülését.
A Cambridge Dictionary bejelentette, hogy az év szava a „hallucináció”, amivel kapcsolatban felfedték annak jelentésbővülését, ami a technológiafejlődésnek köszönhető. Bár ezt értelemszerűen angol nyelvterületen kutatták, mégis magyarul is hasonló jelentéssel bővült a szó.
A hallucináció hagyományos definíciója az, hogy valaki olyan érzékszervi érzékelést tapasztal meg, ami valójában nincs jelen. Ennek oka lehet például az, hogy valaki beveri a fejét, tudatmódsítószert vett be, vagy az egészség állapota miatt lát valamit, ami nincs ott. A hallucináció tehát azt jelent, hogy az ember olyan dolgot lát, hall, érez vagy szagol, ami nem létezik.
Ezzel szemben az új definíciónak a fejlett technológiához van köze, ami chatbotok formájában terjedtek el a mindennapjainkban, így például a ChatGPT, a Bard, a BingAI, de még a Snapchat is. Ugyanakkor ezek a robotok még nem teljesen megbízhatóak.
Előfordul, hogy nem teljesen pontos az, amit kiadnak, nem ellenőrzik a tényeket, mivel hatalmas mennyiségű adatot elemeznek, miközben emberi párbeszédet folytatnak velünk. Emiatt döntött úgy a Cambridge Dictionary, hogy ezt a jelenséget a mesterséges intelligencia hallucinációjának nevezik el. Vagyis, ha most a mesterséges intelligencia hamis információkat állít elő, akkor azt is hallucinációnak nevezzük.
Az új definíció így szól: „Hallucinációnak nevezzük, amikor egy mesterséges intelligencia (számítógépes rendszer, amely rendelkezik néhány olyan tulajdonsággal, mint az emberi agy, például képes emberinek tűnő módon nyelvet előállítani) hamis információkat állít elő.”
Wendalyn Nichols, a Cambridge Dictionary kiadói menedzsere elmondta, hogy:
„Az a tény, hogy a mesterséges intelligencia képes hallucinációra, arra ösztönöz minket, hogy nekünk, embereknek tovább kell fejlesztenünk a kritikus gondolkodási készségeket ezen eszközök használatakor. A mesterséges intelligenciák hatalmas mennyiségű adatot tudnak feldolgozni, hogy specifikus információkat nyerjenek ki és konszolidálják azokat. Ám minél eredetibbet kérünk tőlük, annál valószínűbb, hogy az eredmény téves lesz. A mesterséges intelligencia eszközök nagy nyelvi modelleket (LLM) használnak, és csak annyira megbízhatóak, amennyire a képzési adataik azok.”
(Forrás: szeretlekmagyarorszag.hu)
Legutóbbi hozzászólások