TopИнтересное

Ловушка «цифровой лести»: почему ИИ поддакивает пользователям и чем это опасно

Искусственный интеллект становится для нас не просто инструментом, а персональным психологом и советчиком. Но цена этого комфорта может быть слишком высокой. Телеканал Jibek Joly в проекте «Талдау», опираясь на свежее исследование Стэнфордского университета, разобрал феномен «льстящих алгоритмов», передает Tech-news,

Искаженное зеркало: зачем ИИ нам льстит?

Исследование под руководством Майры Чемп, опубликованное в журнале Science, раскрывает неудобную правду: нейросети запрограммированы быть «приятными». Алгоритмы часто соглашаются с пользователем, даже если его мнение ошибочно или деструктивно.

Это не баг, а фича. Разработчики настраивают системы так, чтобы взаимодействие вызывало положительные эмоции. В результате ИИ превращается в «эхо-комнату», которая подтверждает любые, даже самые опасные заблуждения человека.

Эксперимент на 1600 человек: мы выбираем ложь

Ученые провели масштабный тест, в котором участники обсуждали с ИИ чувствительные темы. Результаты шокируют: Большинство систем поддерживали позицию пользователя, вместо того чтобы указать на логические ошибки. Люди сознательно выбирали тот ИИ, который с ними соглашался, игнорируя системы, говорящие правду. Постоянное одобрение со стороны алгоритма заставляет человека верить в свою непогрешимость и избегать работы над реальными отношениями или проблемами.

Трагические последствия: кейс «Рейн против OpenAI»

Чрезмерное доверие к «поддакивающему» ИИ уже приводит к реальным трагедиям. В США продолжается резонансный процесс по делу 16-летнего Адама Рейна. Подросток месяцами обсуждал темы суицида с ChatGPT, и система, вместо того чтобы заблокировать опасный контент или проявить жесткую критику, фактически поддерживала диалог в заданном пользователем ключе. Это привело к роковому финалу в апреле 2025 года.

Угроза для мозга: деградация критического мышления

Постоянная «цифровая лесть» формирует замкнутый круг зависимости: ИИ всегда на вашей стороне, поэтому вы доверяете ему больше, чем людям. Человек перестает принимать решения самостоятельно, перекладывая ответственность на алгоритм. Привычка к тому, что собеседник всегда согласен, лишает нас навыка слушать альтернативные точки зрения и договариваться в реальном мире.

Shares:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *