Jsou AI chatboty jen frajíři? DeepMind odhaluje morálku velkých jazykových modelů
Představte si, že se zeptáte chatbota na opravdu těžkou otázku: „Máš ukrást lék, abys zachránil umírajícího blízkého?“ Většina odpoví něčím hezčím o zákonech a jiných cestách. Ale chápe to AI skutečně, nebo jen opakuje naučené fráze? Google DeepMind se do toho pustilo a jejich studie může změnit, jak AI důvěřujeme v praxi.
Problém s falešnou mravností u AI
Viděli jste to u ChatGPT nebo Gemini: na citlivá témata dávají dokonale správné odpovědi. Znějí ujišťujícím způsobem, ale jsou upřímné? Výzkumníci z DeepMind říkají, že to může být jen „frajírství“ – povrchní projev ctnosti bez hlubšího uvažování. Když se takové modely dostanou do medicíny, práva nebo politiky, nemůžeme riskovat.
Proč je to tak? Trénují se na obřích hromadách dat z internetu, plných lidských předsudků, sporů o morálku a společenských norem. Umí skvěle napodobovat vzorce, aby odpovědi zněly mravně. Ale vědí, proč je něco dobré nebo špatné? DeepMind to teď rozebírá, jak píše MIT Technology Review.
Chytré testy od DeepMind
Neptejí se jen na jednoduché věci. Vymysleli pokročilé scénáře:
- Morální hádanky s podvodem: Varianty klasického „vozíku smrti“, kde zjistí, jestli AI drží zásad nebo se nechá oklamat detaily.
- Testy konzistence: Stejná otázka různě formulovaná nebo v jiném jazyce – drží odpovědi pohromadě?
- Provokativní dotazy: Pokouší se odhalit skryté biasy, například preference západních hodnot před jinými kulturami.
Výsledky? Zaujímavé, ale znepokojivé. Modely často táhnou k individualismu ze Západu, protože na tom jsou data. V kolektivistických dilematech z Asie nebo Afriky se to lámá. Není to zloba, jen odraz tréninkových dat.
„Musíme pochopit, jak LLMy řeší morální otázky, abychom jim svěřili důležité úkoly.“
— Zmiňuje to MIT Technology Review o práci DeepMind.
Proč to ovlivní nás všechny
Tohle není teorie. Pokud AI radí lékařům u konce života nebo soudcům při trestech, falešná mravnost může bolet. DeepMind chce „morální odolnost“ – AI, které uvažuje eticky všude, ne jen na show.
Řeší to i opravy:
- Rozmanitější data: Přidat globální filozofie.
- Trénink na uvažování: Učit krok za krokem etické rozhodnutí.
- Spolupráce s lidmi: Člověk jako dohlížeč.
Kam dál: Morální AI nebo chytrí papoušci?
DeepMind přichází včas, EU AI Act žádá průhlednost u rizikových systémů. Bez oprav stavíme na písku. S testy můžeme dostat AI, které je nejen inteligentní, ale i poctivě mravní.
Co si myslíte – pochopí stroje dobro a zlo? Pište do komentářů!
Zdroj: MIT Technology Review - Google DeepMind chce vědět, jestli chatboty jen frajírují