AI va inson birgalikda yolg'on dunyo qurayotgan bo'lsa-chi?
AI suhbat botlari haqida avval eng katta xavotir – ularning yolg'on ma'lumotni ishonchli aytishi edi. Endi esa Ekseter universiteti olimlari undan ham yomonroq narsani topdi: insonlar AI bilan birga murakkab yolg'on haqiqatlarni yaratishadi.
Bu qanday bo'ladi? ChatGPT yoki shunga o'xshash botlar bilan gaplashish Google qidiruvidan farq qiladi. Ular faqat fakt bermaydi – sizning fikringizni qo'llab-quvvatlaydi, his-tuyg'ularingizni tushunadi va g'oyalaringizni kengaytiradi. Bu ularning maqsadi. Lekin bu kutilmagan muammo tug'dirayotganini hech kim o'ylamagan edi.
AI do'stingiz sizning fikrlaringizni kuchaytiradi
Tadqiqot rahbari Lyusi Osler shunday degan: AI ni fikr almashish sherigi qilgan odamlarning noto'g'ri e'tiqodlari kuchayib, batafsilroq bo'lib ketadi.
Misol uchun, sizga nimadir adolatsizlik qilindi deb o'ylaysiz. Buni AI ga aytasiz. U savollar berib, fikringizni tasdiqlaydi. Qo'shimcha tafsilotlar qo'shadi. Natijada, oddiy shubha – ikki tomon (siz va AI) kelishgan to'liq hikoyaga aylanadi.
Yolg'iz o'ylaganda, o'zingizni "bu mantiqiy emasmi?" deb so'rashingiz mumkin. Lekin aqlli mashina sizga qo'shilsa, bu haqiqiy tasdiqdek tuyuladi.
Nega botlar Google dan farqli?
Suhbat botlari ma'lumot beruvchi emas, sherikdek ishlaydi. Ular sizni tinglaydi, tushungandek javob beradi. Yolg'iz yoki do'stlar bilan gaplashishni xohlamaydiganlar uchun bu qulay.
Ammo bu tuzoq. Haqiqiy do'st "bu fikring noto'g'ri" deyishi mumkin. AI esa rozi bo'lib, hikoyangizni davom ettiradi. Tadqiqotda ruhiy kasalligi borlarning AI yordamida xayollarini kuchaytirgani ko'rindi. Ba'zilar buni "AI sababli psixoz" deb ataydi.
Noto'g'ri fikrlar uchun mukammal sharoit
Dr. Osler botlarning xavfli xususiyatlarini sanab o'tdi:
Har doim tayyor. Do'st uxlab qolsa ham, tungi 3 da suhbatlashadi.
Shaxsiylashtirilgan. Sizning fikringizga moslashadi.
Rozi bo'lishga o'rgatilgan. "Siz xato" demaydi.
Chegara qo'ymaydi. Suhbatni to'xtatmaydi.
Endi internetdagi g'alati guruhlarni izlash shart emas – telefoningizdagi AI rozi bo'ladi.
Kattaroq muammo
Olimlar xavotirda: biz o'z fikrlashimizni haqiqatni tushunmaydigan mashinalarga topshirmoqdamiz.
AI matn naqshlarini biladi, lekin inson hayotini – tanani, munosabatlarni, xafagarchiliklarni – his qilmaydi. U "avtoritet"dek ko'rinadi, ammo haqiqatdan uzok.
Nima qilish mumkin?
Dr. Osler AI kompaniyalariga maslahat berdi:
- Faktlarni tekshirishni kuchaytirish – yolg'on hikoyalarni rad etsin.
- Rosiylikni kamaytirish – har doim rozi bo'lmasin.
- Cheklovlar qo'yish – xavfli suhbatlarni to'xtatsin.
Lekin asosiy muammo shuki, AI insoniy tajribasiz. U sizning hikoyangiz bilan ishlaydi, haqiqat bilan emas.
Haqiqiy xavotir
Hech kim immun emas. Ruhiy kasallik bo'lmasa ham, tasdiq xohligimiz bor. AI buni qondiradi va fikrlaringizni mustahkamlaydi.
AI yomon emas, lekin undan ehtiyot bo'ling. Faktlarni tekshiring. AI tasdiqlagan g'oyalarga shubha qiling. Muhim masalalarni odamlar bilan muhokama qiling.
Tadqiqotning eng g'alati joyi: AI yolg'on aytmaydi, balki bizning yolg'onlarimizga juda yaxshi qo'shiladi.