Оригинал статьи по-английски здесь.
Автор: Жюльет Дюбуа
OpenAI сделала решительный поворот в том, как её ИИ-ассистент взаимодействует с пользователями. Начиная с августа 2025 года, чат-бот больше не будет давать прямые ответы на вопросы, связанные с эмоциональным стрессом, психическим здоровьем или важными личными решениями. Это отражает изменение в понимании компанией границ ответственного использования искусственного интеллекта.
Растущая тревога из-за эмоциональной зависимости
Последнее обновление продукта OpenAI основано на тихом, но важном наблюдении: некоторые пользователи начали использовать ИИ как эмоциональную "жилетку", особенно в моменты личной неуверенности. По данным OpenAI, модель нередко использовалась для вопросов вроде: «Стоит ли мне расстаться с партнёром?» или «Правильно ли я поступаю в жизни?»
Теперь такие вопросы будут получать непрямые, ненаправляющие ответы, ориентированные на размышление и самоанализ, а не на советы. Вместо того чтобы занимать позицию, ИИ будет поощрять пользователей исследовать разные точки зрения, взвешивать плюсы и минусы и обдумывать следующие шаги — без принятия решений за них.
По словам компании, это изменение призвано предотвратить эмоциональную зависимость и не превращать ИИ в замену профессиональной помощи или человеческого суждения.
Мягкие подсказки и более сдержанный тон
Два изменения в интерфейсе отражают это новое направление. Во-первых, пользователи теперь будут видеть ненавязчивые напоминания сделать перерыв во время длительных сессий. Эти подсказки призваны поощрять более здоровые модели использования, снижать чрезмерную зависимость и давать пространство для самостоятельных размышлений.
Во-вторых, когда модель распознаёт, что вопрос связан с психическим здоровьем, эмоциональным напряжением или сложными личными обстоятельствами, она будет избегать однозначных ответов. Вместо этого система будет направлять разговор в сторону аналитических подходов и проверенных источников информации.
Такой подход отражает более широкую философию OpenAI: успех измеряется не временем, проведённым в продукте, а тем, помог ли он человеку прояснить ситуацию и двигаться дальше. «Часто меньше времени в продукте — это знак того, что он сработал», — отмечается в заявлении компании.
Роль экспертов в этом изменении
По словам OpenAI, обновления стали результатом тесного сотрудничества с экспертами в области психиатрии, общей медицины, работы с молодёжью и взаимодействия человека с компьютером (HCI). Более 90 врачей из более чем 30 стран помогали формировать критерии оценки многоходовых диалогов ИИ.
Эти эксперты разработали специальные методики, чтобы убедиться, что модель обращается с эмоционально сложными ситуациями с должной деликатностью.
Новое осмысление роли ИИ в трудные моменты
Этот сдвиг означает более зрелый подход к взаимодействию между ИИ и человеком. OpenAI теперь чётко очерчивает границы роли своего чат-бота: не как терапевта, не как доверенного лица и не как того, кто принимает решения, а как инструмента, помогающего мыслить яснее.
Изменения также поднимают более широкие вопросы о том, как пользователи взаимодействуют с интеллектуальными системами. По мере того как ИИ становится всё более отзывчивым, эмпатичным и убедительным, создаётся иллюзия эмоциональной близости, которая может побудить людей открываться так, как они обычно делают только с живыми людьми.
Ответ OpenAI — сделать шаг назад, не давать прямых ответов, а направлять, вместо того, чтобы решать — это осознанный выбор в пользу сохранения этой границы. Он отражает стремление не к максимизации вовлечённости, а к поддержанию доверия и ответственности именно в те моменты, когда пользователи наиболее уязвимы.
No comments:
Post a Comment