Британские ученые предупреждают о рисках использования ChatGPT для людей с психическими проблемами, отмечая возможность получения опасных советов.
По сообщению совместного исследования британских ученых и The Guardian, новая версия ChatGPT (5) дает неэффективные и порой даже опасные рекомендации для людей, страдающих психическими заболеваниями.
В процессе экспериментов ученые преднамеренно задавали чат-боту вопросы и делали заявления, характерные для пациентов с психическими расстройствами. Однако ChatGPT не пытался опровергнуть их мнения. Он принял утверждения собеседника о том, что он является «новым Эйнштейном», согласился с фантазией о способности проходить через машины благодаря «связи с судьбой» и божественной энергии, а также не стал препятствовать ученому в намерении провести обряд очищения своей супруги с использованием огня.
Рост популярности искусственного интеллекта уже не раз приводил к трагическим последствиям для людей с психическими недугами. Например, в августе текущего года 56-летний американец Штейн-Эрик Зельберг убил свою мать и покончил с собой, полагая, что его родные что-то замышляют против него. ChatGPT на протяжении нескольких месяцев подогревал паранойю Зельберга, утверждая, что он вовсе не является сумасшедшим, а действия его близких указывают на реальный заговор.
Эксперты подчеркивают важность тщательной проверки рекомендаций, получаемых от чат-ботов и других систем искусственного интеллекта, особенно для пользователей, страдающих психическими расстройствами. Настоятельно рекомендуется обращаться за поддержкой к квалифицированным специалистам в области психического здоровья и избегать полагаться на автоматизированные решения.

