Гиганты индустрии ИИ не выполняют заявленные меры безопасности

Автор: Марат Асия

Отчет опубликован на фоне исков и обвинений в адрес ИИ-компаний

Фото создано при помощи ИИ/freepik.com

Восемь ведущих компаний в сфере ИИ, включая OpenAI, Meta, Anthropic и DeepSeek, не имеют убедительных планов предотвратить катастрофические риски ИИ, показало новое исследование, передает Azattyq Rýhy со ссылкой на Euronews

Крупнейшие в мире компании в области искусственного интеллекта (ИИ) не выполняют собственные обязательства по безопасности, говорится в новой оценке, предупреждающей, что эти провалы связаны с «катастрофическими» рисками.

Отчет опубликован на фоне исков и обвинений в адрес ИИ-компаний, что их чат-боты причиняют психологический вред, в том числе выступая в роли «тренера по самоубийству», а также сообщений о кибератаках с помощью ИИ.

Зимний индекс безопасности ИИ 2025 года, опубликованный некоммерческой организацией Future of Life Institute (FLI), оценил восемь крупных компаний, включая американские Anthropic, OpenAI, Google DeepMind, xAI и Meta, а также китайские DeepSeek, Alibaba Cloud и Z.ai.

В отчете отмечается отсутствие достоверных стратегий предотвращения катастрофического злоупотребления ИИ-инструментами или потери над ними контроля, пока компании гонятся за искусственным общим интеллектом (AGI) и сверхинтеллектом, формой ИИ, превосходящей человеческий разум.

Независимые аналитики, изучившие отчет, выяснили, что ни одна компания не представила проверяемый план поддержания человеческого контроля над очень мощными системами ИИ.

Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли, отметил, что ИИ-компании утверждают, будто способны создать сверхчеловеческий ИИ, но ни одна не показала, как предотвратить утрату человеческого контроля над такими системами.