Искусственный интеллект могут использовать для создания оружия судного дня

Опасения по поводу того, что преступники или террористы могут использовать ИИ для массового уничтожения, будут доминировать в обсуждении на саммите мировых лидеров, сообщает Zakon.kz.

В преддверии саммита по безопасности ИИ, который пройдет в ноябре в Великобритании, чиновники ищут консенсус по совместному заявлению, предупреждающему об опасности использования этой технологии, сообщает The Guardian.

Существуют опасения, что в скором времени технология станет достаточно мощной, чтобы помочь людям создавать биооружие, и ИИ освободится от человеческого контроля.

Саммит будет посвящен таким рискам, как использование ИИ для создания биооружия или кибератак, а также появлению передовых систем, не поддающихся контролю со стороны человека.

Премьер Великобритании Риши Сунак уже несколько месяцев предупреждает о рисках, связанных с ИИ. Он призвал международное сообщество принять защитные меры для предотвращения его неправильного использования.

Другой серьезной проблемой является появление "искусственного интеллекта общего назначения" (AGI), под которым понимается система ИИ, способная автономно выполнять любые задачи на уровне человека или выше него, что может представлять экзистенциальную опасность для человека. Есть опасения, что до появления AGI остались считанные годы.

Однако некоторые эксперты в области ИИ утверждают, что угроза преувеличена, и она приводит к игнорированию таких проблем, как дезинформация. На прошлой неделе один из руководителей технологического сектора заявил американским законодателям, что концепция неконтролируемого искусственного интеллекта является "научной фантастикой".

Великобритания
Следите за новостями zakon.kz в: