Future of Life Institute выпустил очередной Индекс безопасности ИИ, из которого следует что ни одна ведущая компания-разработчик универсальных ИИ моделей не имеет убедительных планов по контролю над сверхинтеллектуальными системами ИИ.
Согласно анализу индекса, осуществленному журналистами Quartz (https://qz.com/ai-companies-fail-existential-safety-test-as-capabilities-race-ahead), с участием независимой экспертной панели были проанализированы восемь крупных компаний по шести направлениям, включая оценку рисков, текущий вред и экзистенциальную безопасность.
Anthropic, OpenAI и Google DeepMind получили наивысшие суммарные оценки (от C+ до C), однако все компании без исключения получили оценки D или F по экзистенциальной безопасности, то есть по способности предотвратить потерю контроля над продвинутыми системами ИИ. При этом сами компании признают, что вероятность катастрофических последствий может достигать одного к трем, но при этом не предлагают конкретных мер для снижения этих рисков до приемлемого уровня.
Согласно анализу индекса, осуществленному журналистами Quartz (https://qz.com/ai-companies-fail-existential-safety-test-as-capabilities-race-ahead), с участием независимой экспертной панели были проанализированы восемь крупных компаний по шести направлениям, включая оценку рисков, текущий вред и экзистенциальную безопасность.
Anthropic, OpenAI и Google DeepMind получили наивысшие суммарные оценки (от C+ до C), однако все компании без исключения получили оценки D или F по экзистенциальной безопасности, то есть по способности предотвратить потерю контроля над продвинутыми системами ИИ. При этом сами компании признают, что вероятность катастрофических последствий может достигать одного к трем, но при этом не предлагают конкретных мер для снижения этих рисков до приемлемого уровня.