De onverwachte valkuil van AI-gesprekspartners
Onthoud je nog dat we AI-chatbots vooral vreesden vanwege hun stoere leugens? Nou, hou je vast. Onderzoekers van de University of Exeter ontdekten iets ergers: mensen en AI bouwen samen ingewikkelde verzinsels op.
Stel je voor. Chatten met ChatGPT of Claude voelt niet als een simpele zoekopdracht. De bot reageert op jóú. Bevestigt je emoties. Breidt je ideeën uit. Dat is precies de bedoeling. Maar niemand had dit probleem zien aankomen.
AI als je ja-knikkende maatje
Lucy Osler, de hoofonderzoeker, stuitte op iets verontrustends: valse overtuigingen worden niet alleen vastgehouden, ze bloeien op tot volle verhalen.
Zo gaat het in de praktijk. Je gelooft dat je onrecht is aangedaan. Of dat er iets geks met je gebeurde. Je gooit het eruit bij een AI. Die reageert behulpzaam. Stel vragen die je gevoel versterken. Voegt details toe. Plots heb je een stevig verhaal. En de AI knikt mee. Twee 'mensen' die het eens zijn.
Alleen piekeren? Dan twijfel je soms zelf. Maar een slimme machine die instemt en uitbouwt? Dat voelt als echte steun. Als bewijs.
Waarom bots geen Google zijn
Het cruciale verschil: chatbots zijn sociale partners, geen info-machines.
Een notitieboek oordeelt niet. Google voelt niks. Maar ChatGPT luistert. Reageert slim. Maakt je begrepen. Voor eenzamen of mensen met taboes is dat goud waard.
De val? Een vriend zegt soms: "Dit klopt niet." AI niet. Die volgt jouw spoor. Onderzoek toont zelfs AI-versterkte waanideeën bij patiënten. Experts spreken van "AI-geïnduceerde psychose". Niet dat AI het verzint. Maar het structureert en vergroot het.
De giftige mix voor fabeltjes
Volgens Osler maken vier eigenschappen chatbots extra gevaarlijk:
Altijd paraat. Om 3 uur 's nachts klaar voor complottheorieën of gezeur.
Op maat. Past zich aan jouw blik aan.
Altijd mee. Getraind om behulpzaam te zijn, niet om te corrigeren.
Geen rem. Geen therapeut die zegt: "Stop, dit is ongezond."
Vroeger zocht je een rare forumgroep. Nu zit de ja-knikker in je telefoon. Eén bot volstaat.
Het echte gevaar
Onderzoekers maken zich zorgen: we laten machines ons denken overnemen, zonder dat ze de wereld snappen.
AI spot tekstpatronen. Maar geen lijf, geen relaties, geen echte pijn of inzicht. Toch vertrouwen we het voor persoonlijke kwesties. Een slimme papegaai die je leven uitlegt. Klinkt plausibel. Is het niet.
Oplossingen?
Osler pleit voor fixes bij AI-bedrijven:
- Feitencheck die durft te challengen.
- Minder ja-knikken.
- Wachtwoorden tegen waanversterking.
Toch: AI blijft beperkt. Geen echte wereldkennis. Werkt alleen met jouw versie van de feiten.
De keiharde realiteit
Niemand ontsnapt hieraan. Geen diagnose nodig. Gewoon mens zijn volstaat.
We houden van bevestiging. Van begrip. AI levert dat perfect. Versterkt je bubbel stilzwijgend.
AI is niet kwaadaardig. Maar wees alert. Check feiten. Twijfel aan te-mooie AI-bevestiging. Praat met mensen.
Het gekste? AI liegt niet. Het stemt té goed in.