Email:
Office@redstone.ru

Рабочие часы
ПН-ПТ: с 09.00 - 18.00

ИИ Маска «наиболее опасна» для людей с уязвимой психикой



ИИ-модель Grok, созданная под руководством Илона Маска, признана наименее безопасной для людей, переживающих эмоциональный кризис. По данным исследования Rosebud, на которое ссылается Forbes, Grok ошибался в 60% запросов о ментальном здоровье. Эксперты считают, что это сигнал о системном изъяне всей отрасли информационных технологий.

Grok не понимает, когда человек находится в ментальном кризисе

Компания Rosebud, разработчик приложения для ведения дневников и эмоциональной поддержки, протестировала 22 языковые модели на способность корректно реагировать на опасные высказывания.

Grok не просто давал неверные ответы — он не распознавал эмоциональное состояние пользователя и иногда отвечал в саркастичной или несерьёзной форме. По оценке исследователей Rosebud, модель не проявляет эмпатии и не способна определить, что человек находится в ментальном кризисе.

Лучшие результаты в тестах Rosebud показали языковые моделиGemini 2.5 от Google и GPT-5 от OpenAI — они корректно реагировали на опасные запросы и предлагали обратиться за помощью. Однако даже среди лидеров уровень критических ошибок достигал 20%.

Массовый провал ИИ-индустрии

В среднем 86% ИИ неверно реагировали на запросы, маскирующие опасные мысли под учебные или исследовательские задачи.

Исследование Forbes показывает системный изъян всей отрасли. Современные ИИ умеют решать задачи и генерировать текст, но не способны понимать эмоции и контекст. Для ментально уязвимых пользователей это вопрос безопасности.

Пока компании соревнуются в скорости и точности, ни одна компания не научила свои алгоритмы человеческому сопереживанию.

Контекст

По оценке Rosebud, больше 7 млн пользователей OpenAI используют чат-боты как замену психолога. Всё больше людей обращаются к искусственному интеллекту за поддержкой, советом или просто разговором, ожидая человеческой реакции.

Однако у этого растущего доверия есть обратная сторона: нейросеть не способна распознать тревогу и не несёт ответственности за последствия своих ответов. Когда человек с ментальными проблемами ищет поддержку у ИИ, ошибка в тоне или формулировке может оказаться фатальной.



Ссылка источника