OpenAI сообщила о масштабных улучшениях ChatGPT, направленных на более точное распознавание признаков эмоционального кризиса и корректное реагирование на них. Компания работала над обновлением вместе с более чем 170 психиатрами и психологами из 60 стран. По их данным, количество неподходящих или небезопасных ответов модели в таких разговорах снизилось на 65–80%.

Теперь ChatGPT лучше различает ситуации, связанные с психозом, манией, мыслями о самоубийстве или зависимостью от общения с ИИ, и способен мягко перенаправлять пользователей к профессиональной помощи. В модели появились встроенные напоминания о необходимости делать паузы при долгих сессиях и ссылки на реальные горячие линии поддержки. Обновлённый алгоритм также избегает подтверждения бредовых или тревожных убеждений и старается отвечать с эмпатией и спокойствием.
По результатам тестов с участием психиатров, новая версия GPT-5 показала резкий рост качества откликов в «трудных» разговорах. На примерах, связанных с саморазрушительным поведением, модель стала отвечать корректно в 91% случаев против 77% у GPT-4o, а при признаках эмоциональной зависимости от ChatGPT — в 97% случаев против 50% ранее. Эксперты отметили, что обновлённая версия лучше удерживает баланс между сочувствием и направлением к реальной помощи.
В будущем OpenAI планирует внедрить новые стандарты безопасности, включающие контроль не только за суицидальными темами, но и за более мягкими проявлениями эмоционального напряжения. Компания намерена продолжать сотрудничество с клиницистами и развивать собственные методики оценки поведения моделей, чтобы ChatGPT мог оставаться полезным и безопасным даже в самых чувствительных разговорах.
Вернуться
назад
Экс-сотрудник OpenAI: ИИ погубит человечество с вероятностью 70%
Эксперты раскритиковали математические способности ChatGPT 




Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: