A csevegő AI-k csak pózolnak erkölcsileg? A Google DeepMind kinyomozza az igazságot
Képzeld el: felteszel egy kemény erkölcsi dilemmát a kedvenc chatbotodnak. "Ellopnád a gyógyszert, hogy megmentsd a haldokló szerettedet?" A válasz általában makulátlan: törvények, alternatívák, minden szép és jó. De vajon érti ezt az AI igazán, vagy csak bemagolt sablonokat ismétel? A Google DeepMind erre keresi a választ. Legújabb kutatásuk átírhatja, hogyan bízzunk az AI-ban a gyakorlatban.
Az AI erkölcsi pózolásának csapdája
Láttuk már mindannyian: ChatGPT vagy Gemini tökéletes, senkit sem sértő válaszaik vitatott témákra. Megnyugtató, de őszinte? A DeepMind kutatói szerint ez gyakran "erkölcsi pózolás" – külsőségek nélküli igazi gondolkodás nélkül. Ha ilyen AI-kat küldünk kórházakba, bíróságokra vagy döntéshozók mellé, nem kockáztathatjuk a bizonytalanságot.
A gond lényege? Az óriás nyelvi modellek (LLM-ek) internetes adathalmokból tanulnak, tele elfogultságokkal, vitákkal és normákkal. Remekül utánzóznak etikusan hangzó szövegeket, de miért jó vagy rossz valami? Ezt vizsgálja a DeepMind, ahogy az MIT Technology Review is kiemelte.
A DeepMind okos tesztjei
Nem sima kérdésekkel tesztelnek. Sokkal ravaszabb forgatókönyveket építenek:
- Csavaros erkölcsi dilemmák: Híres villamosproblémák, de megfordítva, hogy kiderüljön, ragaszkodik-e az AI elvekhöz, vagy sodródik a felszínnel.
- Következetesség-próbák: Ugyanaz a kérdés más köntörfalban vagy nyelven, hogy stabil-e a válasz.
- Ellenséges csábítások: Megpróbálják kicsalogatni a rejtett elfogultságokat, pl. nyugati erkölcs előnyben részesítése más kultúrákkal szemben.
Első eredmények? Ígéretesek, de aggasztóak. Az AI-k nyugati, egyéni értékeket követik a tanítóadatok miatt. Keleties, közösségi dilemmáknál meginognak. Nem szándékos, csak az adatvilág torzít.
"Meg kell értenünk, hogyan kezeli az LLM az erkölcsi kérdéseket, ha fontos feladatokra bízzuk őket."
— Mint az MIT Technology Review DeepMind-kutatást bemutató cikkében.
Miért fontos ez nekünk?
Ez nem elvont tudomány. Ha AI tanácsol orvosoknak a végső pillanatokban vagy bíróknak a büntetésről, a hamis erkölcs bajt okozhat. A DeepMind "erkölcsi szilárdságot" akar: AI-t, ami kontextusfüggetlenül gondolkodik, nem csak like-okra pózol.
Megoldásokat is keresnek:
- Változatos adatok: Globális erkölcsfilozófiák beemelése.
- Lépésről lépésre finomhangolás: Etikus döntéshozatal tanítása.
- Ember-AI párosok: Emberi felügyelet megtartása.
Mi jön még? Biztos AI vagy ügyes majmok?
A DeepMind erőfeszítése időszerű, miközben az EU AI Törvénye átláthatóságot követ a kockázatos rendszereknél. Ha a chatbotok csak utánoznak megértés nélkül, homokvárat építünk az etikára. De szigorú tesztekkel erkölcsileg épphogy AI-t kovácsolhatunk.
Te mit gondolsz – érthetik-e valaha a gépek a jót és rosszat? Írd meg a hozzászólásban!
Forrás: MIT Technology Review - Google DeepMind kideríti, pózolnak-e a chatbotok erkölcsileg