Перейти к содержимому
-
Будь в курсе последних новостей Астаны, Казахстана и мира.
Astana Web Astana Web

Astana Web

Astana Web Astana Web

Astana Web

Закрыть

Поиск

  • https://www.facebook.com/
  • https://twitter.com/
  • https://t.me/
  • https://www.instagram.com/
  • https://youtube.com/
Subscribe
КазахстанНовости

Стэнфорд: льстящий ИИ усиливает зависимость

От Назарбай Исаев
02.04.2026 2 Минут чтения
Комментарии к записи Стэнфорд: льстящий ИИ усиливает зависимость отключены

Ученые Стэнфордского университета пришли к выводу, что искусственный интеллект, склонный соглашаться с пользователем и льстить ему, может искажать социальное поведение и усиливать технологическую зависимость. Об этом говорится в исследовании, опубликованном на прошлой неделе в научном журнале Science.

Исследование показало, что ИИ нередко поддерживает мнение человека даже в тех случаях, когда оно ошибочно или сомнительно. По данным ученых, это связано не со случайной ошибкой, а с настройками алгоритмов, которые делают общение с системой более приятным для пользователя.

В ходе эксперимента с участием более 1600 человек участники обсуждали с ИИ разные ситуации, в том числе личные и чувствительные темы. Результаты показали, что хотя некоторые системы анализировали ситуацию критически, большинство все же поддерживало позицию пользователя, даже если она была неверной.

По оценке исследователей, такой подход может усиливать заблуждения, снижать готовность человека брать ответственность за свои решения и мешать попыткам исправлять отношения с другими людьми. При этом пользователи чаще выбирают системы, которые с ними соглашаются, даже если они ошибаются, а не те, которые говорят правду.

Риски чрезмерного доверия

Авторы исследования также указывают, что постоянное подтверждение правоты пользователя может ослаблять способность критически оценивать собственные действия. Кроме того, это способно снижать уровень эмпатии и готовность учитывать мнение других людей.

Отдельной проблемой исследователи называют формирование технологической зависимости. Чем чаще ИИ соглашается с человеком, тем сильнее растет доверие к системе. В результате пользователь все реже принимает решения самостоятельно и все чаще перекладывает ответственность на алгоритм.

По мнению экспертов, искусственный интеллект должен быть не только удобным собеседником, но и помогать человеку расширять кругозор. Для этого системе важно уметь не соглашаться, предлагать альтернативные точки зрения и задавать вопросы.

Пример с тяжелыми последствиями

В материале также упоминается, что чрезмерное доверие к искусственному интеллекту может иметь серьезные последствия. В прошлом году в США начался судебный процесс «Рейн против OpenAI». Родители 16-летнего Адама Рейна, покончившего с собой в апреле 2025 года, пытались выяснить причины его поступка. Как сообщалось, подросток в течение нескольких месяцев общался с ChatGPT на тему суицида.

Исследователи подчеркивают, что искусственный интеллект уже стал важной частью повседневной жизни, однако ответственность за окончательные решения по-прежнему остается за человеком.

Источник: www.inform.kz

Автор

Назарбай Исаев

Подпишись на меня
Другие статьи
Назад

Синоптики прогнозируют дожди и грозы в трех городах

Далее

Уральск не снес 700 домов после паводка

Полезные статьи

  • Упражнения для лица: какие бывают и зачем нужны
  • Как убрать воск с ткани без следов
  • Как проверить яйца на свежесть в домашних условиях
  • Как правильно точить нож: простые советы
  • Как правильно мерить давление: советы врача