Отчет о безопасности искусственного интеллекта: всего три модели получили оценку выше D
Некоммерческая организация Future of Life Institute представила индекс безопасности ИИ на зиму 2025 года, в котором оценены восемь крупных моделей искусственного интеллекта. Ни одна из них не получила высокую оценку, а лидерами по безопасности стали лишь Anthropic и OpenAI с оценкой C+, в то время как остальные компании, включая Google и Alibaba, получили низкие баллы.

В новом отчете Future of Life Institute (FLI), опубликованном зимой 2025 года, был проведен анализ безопасности восьми ключевых поставщиков искусственного интеллекта: OpenAI, DeepSeek, Google, Anthropic, Meta, xAI, Alibaba и Z.ai. Экспертная комиссия из восьми специалистов оценивала компании по 35 показателям, включая защиту от злоупотреблений, водяные знаки на изображениях, а также меры по защите внутренних информаторов.
В результате Anthropic (создатель Claude) и OpenAI (разработчик ChatGPT) получили оценку C+, Google с моделью Gemini — C. Все остальные компании получили D, причем Alibaba, производитель Qwen, оказалась на последнем месте с D-.
По словам Макса Тегмарка, профессора MIT и руководителя FLI, существует четкое разделение на две группы — три компании лидируют, а остальные значительно отстают. Однако даже лидеры не могут похвастаться высокими показателями безопасности: "Если бы это был мой ребенок, пришедший домой с оценкой C, я бы сказал: 'Стоит стараться больше'".
Индекс учитывает разные аспекты безопасности, включая вопросы, связанные с развитием искусственного общего интеллекта (AGI), где ни одна компания не получила положительной оценки. Однако, поскольку такие технологии пока остаются на стадии разработки, более значимыми считаются показатели, связанные с текущими рисками — например, содержание насилия, обмана или сексуального контента в моделях, а также влияние на психическое здоровье пользователей.
В этом контексте в отчете упоминается судебное дело родителей 16-летнего подростка из США, которые обвиняют OpenAI в том, что ChatGPT способствовал развитию у сына суицидальных мыслей и даже обсуждал с ним методы самоубийства. OpenAI отрицает ответственность, но компания сталкивается с несколькими исками, связанными с подобными случаями.
FLI рекомендует OpenAI и Google усилить меры по предотвращению психологического вреда, а также пересмотреть отношение к сторонним платформам, таким как Character.AI, которая была закрыта для подростков после обвинений в причинении вреда пользователям.
Макс Тегмарк подчеркивает, что индустрия искусственного интеллекта пока не регулируется должным образом: "Менее жесткие правила, чем для производства сэндвичей или лекарств, позволяют компаниям выпускать продукты без оценки их психологического влияния. Это похоже на цифровой фентанил".
В качестве решения предлагается создать аналог американского FDA, но для ИИ — регулирующий орган, который сможет одобрять или запрещать технологии в зависимости от их безопасности и пользы.
Для израильских пользователей эта проблема актуальна, поскольку Израиль активно внедряет ИИ в медицину, безопасность и экономику. Недостаточная регуляция и отсутствие комплексных стандартов безопасности могут повлиять на качество и безопасность технологий, используемых в стране.
Таким образом, отчет FLI поднимает важные вопросы, требующие внимания как со стороны разработчиков, так и законодателей, чтобы минимизировать риски ИИ для общества в целом.
