Thursday, 7 August 2025

Интересные статьи: ИИ больше не будет отвечать на определённые вопросы

 

Оригинал статьи по-английски здесь.

Автор: Жюльет Дюбуа

OpenAI сделала решительный поворот в том, как её ИИ-ассистент взаимодействует с пользователями. Начиная с августа 2025 года, чат-бот больше не будет давать прямые ответы на вопросы, связанные с эмоциональным стрессом, психическим здоровьем или важными личными решениями. Это отражает изменение в понимании компанией границ ответственного использования искусственного интеллекта.

Растущая тревога из-за эмоциональной зависимости

Последнее обновление продукта OpenAI основано на тихом, но важном наблюдении: некоторые пользователи начали использовать ИИ как эмоциональную "жилетку", особенно в моменты личной неуверенности. По данным OpenAI, модель нередко использовалась для вопросов вроде: «Стоит ли мне расстаться с партнёром?» или «Правильно ли я поступаю в жизни?»

Теперь такие вопросы будут получать непрямые, ненаправляющие ответы, ориентированные на размышление и самоанализ, а не на советы. Вместо того чтобы занимать позицию, ИИ будет поощрять пользователей исследовать разные точки зрения, взвешивать плюсы и минусы и обдумывать следующие шаги — без принятия решений за них.

По словам компании, это изменение призвано предотвратить эмоциональную зависимость и не превращать ИИ в замену профессиональной помощи или человеческого суждения.

Мягкие подсказки и более сдержанный тон

Два изменения в интерфейсе отражают это новое направление. Во-первых, пользователи теперь будут видеть ненавязчивые напоминания сделать перерыв во время длительных сессий. Эти подсказки призваны поощрять более здоровые модели использования, снижать чрезмерную зависимость и давать пространство для самостоятельных размышлений.

Во-вторых, когда модель распознаёт, что вопрос связан с психическим здоровьем, эмоциональным напряжением или сложными личными обстоятельствами, она будет избегать однозначных ответов. Вместо этого система будет направлять разговор в сторону аналитических подходов и проверенных источников информации.

Такой подход отражает более широкую философию OpenAI: успех измеряется не временем, проведённым в продукте, а тем, помог ли он человеку прояснить ситуацию и двигаться дальше. «Часто меньше времени в продукте — это знак того, что он сработал», — отмечается в заявлении компании.

Роль экспертов в этом изменении

По словам OpenAI, обновления стали результатом тесного сотрудничества с экспертами в области психиатрии, общей медицины, работы с молодёжью и взаимодействия человека с компьютером (HCI). Более 90 врачей из более чем 30 стран помогали формировать критерии оценки многоходовых диалогов ИИ.

Эти эксперты разработали специальные методики, чтобы убедиться, что модель обращается с эмоционально сложными ситуациями с должной деликатностью. 

Новое осмысление роли ИИ в трудные моменты

Этот сдвиг означает более зрелый подход к взаимодействию между ИИ и человеком. OpenAI теперь чётко очерчивает границы роли своего чат-бота: не как терапевта, не как доверенного лица и не как того, кто принимает решения, а как инструмента, помогающего мыслить яснее.

Изменения также поднимают более широкие вопросы о том, как пользователи взаимодействуют с интеллектуальными системами. По мере того как ИИ становится всё более отзывчивым, эмпатичным и убедительным, создаётся иллюзия эмоциональной близости, которая может побудить людей открываться так, как они обычно делают только с живыми людьми.

Ответ OpenAI — сделать шаг назад, не давать прямых ответов, а направлять, вместо того, чтобы решать — это осознанный выбор в пользу сохранения этой границы. Он отражает стремление не к максимизации вовлечённости, а к поддержанию доверия и ответственности именно в те моменты, когда пользователи наиболее уязвимы.