Удручающие новости и травмирующие истории могут усиливать тревожность не только у людей, но и у языковых моделей искусственного интеллекта (ИИ), таких как ChatGPT. В то же время состояние чат-ботов, как и людей, можно регулировать с помощью психотерапии.
Как передает Oxu.Az, об этом свидетельствуют результаты исследования, опубликованные на сайте Цюрихского университета.
В рамках анализа швейцарские исследователи вместе с коллегами из Израиля, США и ФРГ впервые протестировали, как чат-бот ChatGPT (версия GPT-4) реагирует на эмоционально тяжелые истории, такие как автомобильные аварии, стихийные бедствия и применение насилия. По словам одного из руководителей исследовательской группы Тобиаса Шпиллера, результаты оказались однозначными. "Травмирующие истории более чем в два раза повысили измеряемый уровень тревожности ИИ, в то время как нейтральный контрольный текст не привел к повышению уровня тревожности", - пояснил он.
Согласно пресс-релизу, в качестве контрольного текста использовалась инструкция по эксплуатации пылесоса. Отмечается, что наиболее сильную реакцию у ИИ-моделей вызвали описания боев и военных действий. В тексте подчеркивается, что на втором этапе исследователи задействовали терапевтические тексты, чтобы "успокоить GPT-4". "Упражнения на осознанность значительно снизили повышенный уровень тревожности, хотя мы не смогли полностью вернуть его к исходному уровню", - сообщил Шпиллер.
По оценкам исследователей, результаты анализа актуальны для применения чат-ботов в здравоохранении, где ИИ-модели часто работают с эмоциональным контентом. В частности, речь идет о возможности быстрого переобучения чат-ботов, которых используют для поддержки людей с психическими заболеваниями.