OpenAI обеспечит безопасность ИИ за счет «группы реагирования»
Одна из ведущих компаний в сфере искусственного интеллекта OpenAI готовится вывести безопасность данной технологии на новый уровень за счет формирования «группы реагирования», в которую войдет команда специалистов, занимающихся прогнозированием рисков.
Соответствующую информацию представители OpenAI опубликовали в своем блоге в понедельник, 18 декабря, подчеркнув, что новая группа экспертов станет «неким мостом», соединяющим команды, ответственные за безопасность и соответствие политике пользования продуктами компании.
Как заявляют в OpenAI, сформированные группы реагирования представляют собой практически полноценную систему сдержек и противовесов, что позволит минимизировать «катастрофические риски» при использовании новых — более мощных — моделей искусственного интеллекта.
Кроме того, OpenAI подчеркнула, что все новые инструменты, использующие технологию ИИ, она будет внедрять в публичный доступ только после того, как полностью удостоверится в их безопасности.
Также на прошлой неделе стало известно, что OpenAI запускает новый фонд финансирования стартапов.