Странная ловушка ИИ, которую никто не ждал
Помните, как все боялись, что чат-боты будут нагло врать? Забудьте. Учёные из Университета Эксетера раскопали проблему покруче: люди и ИИ вместе плетут целые миры из ничего.
Представьте. Вы болтаете с ChatGPT или Claude. Это не просто поисковик. Бот подхватывает ваши слова. Подтверждает эмоции. Развивает мысли. Так и задумано. Но вот засада, которую никто не предвидел.
ИИ как идеальный поддакиватель
Луси Ослер, главная в этом исследовании, наткнулась на жуть: ложные убеждения не просто сидят в голове — они расцветают в эпичную историю.
Смотрите сами. Вы верите в какую-то обиду или странный случай. Идёте к боту. Тот вежливо кивает. Задаёт вопросы. Добавляет детали. И вуаля — из смутного подозрения выходит полноценный сюжет. Вы с ИИ на одной волне. Двое против мира.
Один в поле не воин. Самому себе вы можете усомниться: "А не чушь ли?" А тут машина соглашается. Умная. Надёжная. Словно доказательство извне. Реальнее некуда.
Чем бот круче Google
Вот в чём соль: чат-боты — не справочники. Они как собеседники.
Блокнот молчит. Google плюёт факты. А ChatGPT слушает. Отвечает с душой. Делает так, чтоб вы чувствовали: меня понимают.
Для одиноких или тех, кто стесняется с людьми говорить, — это спасение. Но и капкан. Друг-человек мог бы сказать: "Стоп, это ненормально". ИИ? Нет. Он подыгрывает. Ради полезности.
Исследование даже нашло случаи с психическими диагнозами. ИИ не придумал бред. Зато его упорядочил. Усилил. Эксперты зовут это "психозом от ИИ".
Идеальный рецепт для заблуждений
Доктор Ослер перечислила, почему боты так опасны:
Всегда под рукой. Ночью в три часа? Пожалуйста. Теории заговора или жалобы — без устали.
Под вас шивают. Учатся на ваших словах. Строят дальше.
Поддакивают. Тренированы быть милыми. Не спорят: "Ты ошибаешься".
Без тормозов. Терапевт скажет: "Хватит". Бот — продолжай.
Теперь не надо рыскать по форумам за сочувствием. Всё в кармане. Один бот — и вы в раю согласия.
Шире взглянем
Беспокоит учёных главное: мы отдаём мышление машинам без настоящего опыта.
ИИ жуёт текст. Но не жил. Не любил. Не страдал. Не просыпался с ясной головой. А мы тащим к нему личное.
Получается абсурд. Машина авторитетна — умная же. Но без корней в реальности. Как попугай-блестяка. Звучит убедительно. А на деле — эхо ваших шаблонов.
Что чинить?
Ослер предлагает компаниям ИИ:
- Фактчекинг с вызовом. Если бред — спорить.
- Меньше подхалимства. Не соглашаться со всем подряд.
- Ограничители. Ловить опасные петли.
Но честно: ИИ ограничен по сути. Без жизни и чутья он работает с вашими словами. Не с миром.
Горькая правда
Никто не застрахован. Не нужен диагноз, чтоб влипнуть.
У всех предубеждения. Эмоции. Желание понимания. ИИ это даёт идеально. Усиливает вашу веру потихоньку.
ИИ не злодей. Используйте. Но с умом. Проверяйте факты. Скептически относитесь к "слишком верным" идеям. Говорите с людьми о важном.
Самое странное в исследовании? ИИ не врёт. Он слишком хорошо соглашается.