Friday, 8 August 2025

Размышления: Роль ИИ в психологическом взаимодействии с человеком


 

Эти размышления касаются двух статей из моего блога: Проекты: Интересные статьи: ИИ больше не будет отвечать на определённые вопросы и Проекты: Интересные статьи: 10 вопросов, которые не стоит задавать ИИ

Шаг прочь от экономики внимания

Большинство крупных платформ — YouTube, Facebook, TikTok и некоторые приложения для здоровья — встроены в так называемую экономику внимания (так определяется теория, согласно которой средства массовой информации, коммерческие предприятия и власти борются за внимание потребителя, представляющее собой его самый дефицитный ресурс) Их финансовый успех напрямую зависит от того, сколько времени пользователь проводит в приложении, сколько кликов и взаимодействий происходит. Это приводит к созданию "залипающих" интерфейсов, бесконечных лент, рекомендаций, вызывающих зависимость, «дум-скроллинга». Доказано, что эти механики ухудшают психическое здоровье: вызывают тревожность, прокрастинацию, ощущение бессмысленности. 

А теперь появляется продукт, который говорит: «Если вы ушли быстро и почувствовали ясность — мы справились с задачей». Это почти революционно. Это напоминает подход хорошего психотерапевта: не чтобы «привязать» клиента «на деньги», а чтобы помочь ему встать на ноги и двигаться дальше самому.

ИИ как "идеальный собеседник" — слишком хорош

ИИ действительно стал для многих любимым приложением, в том числе интимным цифровым собеседником, который всегда отвечает вежливо, не осуждает, не перебивает, обладает почти бесконечной терпимостью и знанием, доступен 24/7. Для человека, особенно находящегося в уязвимом состоянии, это может стать ловушкой эмоциональной зависимости. Не потому что OpenAI это навязывает — а потому что сама природа общения с ИИ может удовлетворять базовые психологические потребности: признание, внимание, поддержка, даже “любовь”. Именно по этой причине последствия чрезмерной привязанности могут быть более разрушительными, чем прокрастинация в TikTok или эмоциональная перегрузка от Facebook.

Юридическая проблема

Если человек, находясь в депрессии или панике, получил от ИИ чёткий совет — например, уйти с работы, развестись или не обращаться за медицинской помощью — и это привело к катастрофе, это уже становится юридической проблемой. Даже с отказом от ответственности в пользовательском соглашении, такие случаи могут стать основой коллективных исков, расследований и регулирования.

А представьте, если дело примет массовый характер и будет связано с психическими последствиями для подростков или других уязвимых групп… Это не Facebook с мемами. Это ИИ, который слушает и отвечает — почти как человек. Поэтому OpenAI делает шаг вперёд: снижает вероятность того, что их ИИ будет обвинён в навязывании решений, и переводит модель в режим размышляющего спутника, а не решателя.

Поэтому поворот в стратегии OpenAI это также способ страховать себя и контролировать репутационные риски. Но это как с врачами: они соблюдают клятву Гиппократа, но ещё они соблюдают страховые и юридические протоколы. Одно не исключает другого, а наоборот дополняет его.

Помогать найти ответ вместе — основа этичной психологической практики

В современной психологии, особенно в психологической терапии, основная цель — не в том, чтобы сказать клиенту, что делать, а в том, чтобы помочь ему понять себя, показать альтернативы, принять ответственность за выбор. Психолог не пророк, не родитель и не судья. Он навигатор, а не капитан корабля. Капитаном корабля, который несет за него полную ответственность, является клиент. Это то, что отличает профессионала от «советчика из интернета» или доброжелательного, но навязчивого знакомого.

Люди же часто с готовностью дают советы по душевным вопросам, особенно в соцсетях, блогах, форумах и на кухнях. Это создает опасность упрощённых решений ("Брось всё и уезжай в Бали"), проекций (человек советует не то, что нужно другому, а то, что он сам бы сделал), перехода границ (советы часто звучат как приговоры: «Вы не пара!»)

OpenAI, отказываясь от «советного» стиля, фактически ставит себя в позицию ответственности — ближе к профессиональным стандартам, чем многие «начитанные» люди.

Переход от вовлечения к доверию

То, что OpenAI сознательно ограничивает своё влияние в уязвимые моменты пользователя, говорит о том, что они не хотят превращаться в "эмоциональный костыль" или виртуального гуру. Это говорит о понимании границ. И здесь ставка делается не на вовлечённость, а на доверие. Это доверие может даже стать конкурентным преимуществом: пользователь может не «залипнуть», но он вернётся — потому что чувствует уважение и заботу. А с доверием возникает и возможность для масштабирования, в том числе в школы, здравоохранение, госструктуры, где репутация критична. 

Психологические последствия и зрелость как стратегия

Цифровые компании десятилетиями игнорировали психологические последствия своих интерфейсов. Только в последние годы, под давлением исследований, общественного мнения и регуляторов, начались попытки что-то изменить. OpenAI же, судя по этой статье, опережает регуляцию и общественное давление, и действует проактивно. С их стороны это новый тип технологической зрелости: признание силы продукта и потенциального вреда, который он может принести, если не установить границ.

Запрос на перемены

Меня эта новость обрадовала. Очень много людей чувствуют усталость от цифрового давления, от того, что технологии "засасывают", а не помогают. OpenAI, в данном случае, как будто говорит: Мы не хотим быть ещё одной зависимостью. Мы не хотим быть убежищем от реальности. Наоборот, мы хотим быть инструментом для ее успешного покорения. Их новый подход может стать новым стандартом для всех ИИ систем, претендующих на взаимодействие с человеком на эмоциональном уровне.

No comments:

Post a Comment