Лидеры OpenAI призвали к регулированию ИИ, чтобы предотвратить уничтожение человечества
Руководители ChatGPT компании OpenAI призвали к регулированию "сверхинтеллектуальных" ИИ, утверждая, что для защиты человечества от риска случайного создания чего-то, способного его уничтожить, необходим аналог Международного агентства по атомной энергии (МАГАТЭ), сообщает The Guardian.
В короткой заметке, опубликованной на сайте компании, соучредители Грег Брокман и Илья Суцкевер, а также исполнительный директор Сэм Альтман призвали к начале работы над инспекцией, аудитом и соответствию стандартам безопасности, чтобы снизить риск, который могут представлять ИИ.
"Можно предположить, что в течение следующих 10 лет системы ИИ превзойдут уровень квалификации экспертов в большинстве областей и будут выполнять столько же продуктивной деятельности, сколько одна из крупнейших современных корпораций. С точки зрения как потенциальных плюсов, так и минусов сверхинтеллект будет более мощным, чем другие технологии, с которыми человечеству приходилось сталкиваться в прошлом. Мы можем иметь значительно более процветающее будущее; но для этого нам придется управлять рисками. Учитывая возможность экзистенциального риска, мы не можем просто реагировать".Авторы обращения
В более краткосрочной перспективе три разработчика призвали к "определенной степени координации" между компаниями, работающими на передовой исследований в области ИИ, чтобы гарантировать, что разработка все более мощных моделей будет плавно интегрироваться в общество, уделяя при этом первостепенное внимание безопасности.
Такая координация может осуществляться, например, через проект под руководством правительства или через коллективное соглашение об ограничении роста возможностей ИИ.
Исследователи предупреждали о потенциальных рисках сверхинтеллекта на протяжении десятилетий, но по мере ускорения темпов развития ИИ эти риски стали более конкретными. Базирующийся в США Центр безопасности ИИ (CAIS), который работает над "снижением рисков искусственного интеллекта в масштабах общества", описывает восемь категорий "катастрофических" и "экзистенциальных" рисков, которые может представлять развитие ИИ.
В то время как некоторые опасаются, что мощный ИИ полностью уничтожит человечество, случайно или намеренно, CAIS описывает другие, более пагубные риски.
Мир, где системам ИИ добровольно передается все больше труда, может привести к тому, что человечество "потеряет способность к самоуправлению и станет полностью зависимым от машин", что называется "ослаблением"; а небольшая группа людей, контролирующих мощные системы, может "сделать ИИ централизующей силой", что приведет к "фиксации ценностей", вечной кастовой системе между управляемыми и управляющими.
Лидеры OpenAI говорят, что эти риски означают, что "люди во всем мире должны демократическим путем определять границы и значения по умолчанию для систем ИИ", но признают, что "мы еще не знаем, как разработать такой механизм". Тем не менее, они говорят, что дальнейшее развитие мощных систем стоит риска.
"Мы верим, что это приведет к созданию гораздо лучшего мира, чем тот, который мы можем представить сегодня (мы уже видим первые примеры этого в таких областях, как образование, творческая работа и личная продуктивность)".Авторы обращения
Они предупредили, что приостановка развития также может быть опасной.