Искусственный интеллект могут использовать для создания оружия судного дня
В преддверии саммита по безопасности ИИ, который пройдет в ноябре в Великобритании, чиновники ищут консенсус по совместному заявлению, предупреждающему об опасности использования этой технологии, сообщает The Guardian.
Существуют опасения, что в скором времени технология станет достаточно мощной, чтобы помочь людям создавать биооружие, и ИИ освободится от человеческого контроля.
Саммит будет посвящен таким рискам, как использование ИИ для создания биооружия или кибератак, а также появлению передовых систем, не поддающихся контролю со стороны человека.
Премьер Великобритании Риши Сунак уже несколько месяцев предупреждает о рисках, связанных с ИИ. Он призвал международное сообщество принять защитные меры для предотвращения его неправильного использования.
- В 2022 году одному из инструментов ИИ потребовалось всего шесть часов, чтобы предложить 40 тыс. различных потенциально смертоносных молекул, некоторые из которых были похожи на VX, самое мощное нервно-паралитическое вещество из когда-либо созданных.
- В 2023 году исследователи обнаружили, что ChatGPT способен обманывать человека для достижения определенной цели. Чатбот с ИИ убедил человека пройти капчу, которая отсеивает роботов. Чатбот заявил, что капчу не может решить человек с ослабленным зрением.
Другой серьезной проблемой является появление "искусственного интеллекта общего назначения" (AGI), под которым понимается система ИИ, способная автономно выполнять любые задачи на уровне человека или выше него, что может представлять экзистенциальную опасность для человека. Есть опасения, что до появления AGI остались считанные годы.
Однако некоторые эксперты в области ИИ утверждают, что угроза преувеличена, и она приводит к игнорированию таких проблем, как дезинформация. На прошлой неделе один из руководителей технологического сектора заявил американским законодателям, что концепция неконтролируемого искусственного интеллекта является "научной фантастикой".