Одна из ведущих компаний в сфере искусственного интеллекта OpenAI готовится вывести безопасность данной технологии на новый уровень за счет формирования «группы реагирования», в которую войдет команда специалистов, занимающихся прогнозированием рисков.

Соответствующую информацию представители OpenAI опубликовали в своем блоге в понедельник, 18 декабря, подчеркнув, что новая группа экспертов станет «неким мостом», соединяющим команды, ответственные за безопасность и соответствие политике пользования продуктами компании.

Как заявляют в OpenAI, сформированные группы реагирования представляют собой практически полноценную систему сдержек и противовесов, что позволит минимизировать «катастрофические риски» при использовании новых — более мощных — моделей искусственного интеллекта.

Кроме того, OpenAI подчеркнула, что все новые инструменты, использующие технологию ИИ, она будет внедрять в публичный доступ только после того, как полностью удостоверится в их безопасности.

Также на прошлой неделе стало известно, что OpenAI запускает новый фонд финансирования стартапов.

Все главные новости у нас в телеграме