Эксперты: разработчики ИИ-моделей «абсолютно не готовы» к угрозам сверхинтеллекта
- Все крупные компании получили оценки D и ниже за планирование экзистенциальной безопасности.
- OpenAI и DeepMind показали худшие результаты по методам управления рисками.
- Эксперты сравнили ситуацию с запуском АЭС без плана предотвращения катастрофы.
Крупнейшие разработчики ИИ не имеют четких стратегий по обеспечению безопасности систем с интеллектом на уровне человека. К такому выводу пришел Институт будущего жизни (FLI), опубликовавший доклад о текущем уровне готовности индустрии к появлению искусственного сверхразума (AGI).
Организация отметила, что протестировала семь крупнейших разработчиков больших языковых моделей (LLM). По итогу ни один из участников теста не получил оценку выше D за планирование экзистенциальной безопасности.
Индекс безопасности ИИ. Данные: FLI .Среди рассматриваемых компаний значатся OpenAI, Google DeepMind, Anthropic, Meta, xAI, а также китайские Zhipu AI и DeepSeek. Индекс охватывает шесть направлений, включая текущие угрозы и готовность к потенциальным катастрофическим последствиям выхода ИИ из-под контроля.
Наивысший общий балл — C+ — получил стартап Anthropic. За ним следуют OpenAI с C и Google DeepMind с оценкой C-. Остальные компании показали еще более слабые результаты. Один из рецензентов заявил, что ни у одной из организаций нет «ничего похожего на последовательный, реализуемый план» по контролю над ИИ.
По словам соучредителя FLI и профессора MIT Макса Тегмарка, передовые компании строят системы, сравнимые по опасности с ядерными объектами. При этом они не публикуют даже базовых планов по предотвращению катастроф. Ученый подчеркнул, что темпы развития ИИ опережают прежние ожидания. Если раньше речь шла о десятилетиях, то теперь сами компании говорят о горизонте в несколько лет.
В докладе также упоминается, что с момента февральского саммита по ИИ прогресс ускорился. Модели Grok 4, Gemini 2.5 и видеогенератор Veo3 уже демонстрируют значительный рост возможностей.
Параллельно с отчетом FLI параллельный отчет выпустила организация SaferAI . Она пришла к схожим выводам о «неприемлемо слабом» управлении рисками в индустрии. Эксперты уверены, что представители индустрии обязаны в срочном порядке пересмотреть свой подход к разработке AGI.
Представитель Google DeepMind заявил, что в отчете FLI не отражены все их меры безопасности. Остальные компании на момент публикации не комментировали ситуацию.
Напомним, мы писали, что корпорация Meta переманила к себе ученых OpenAI для работы над суперинтеллектом.
Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.
Вам также может понравиться
Запуск ERAUSDT для фьючерсной и ботовой торговли
Запуск ESUSDT для фьючерсной и ботовой торговли
Новые спотовые маржинальные торговые пары - CROSS/USDT, TAC/USDT
Eclipse (ES): эффективный способ объединить скорость Solana и безопасность Ethereum

Популярное
ДалееЦены на крипто
Далее








