Создатели искусственного интеллекта должны отказаться от своего "технологического утопического" мышления, по мнению службы по контролю за терроризмом, на фоне опасений, что новая технология может быть использована для обхаживания уязвимых лиц, пишет The Guardian.
По словам британских спецслужб, слишком много разработок ИИ сосредоточено на потенциальных положительных сторонах технологии, но при этом не учитывается, как террористы могут использовать ее для совершения атак.
Независимый правительственный обозреватель законодательства о терроризме признал, что его все больше беспокоит возможность использования чат-ботов с искусственным интеллектом для убеждения уязвимых людей в совершении террористических атак.
"Что меня беспокоит, так это внушаемость таких людей, когда они погружены в беседу. Использование ИИ в контексте национальной безопасности имеет значение, потому что в конечном итоге живая беседа может убедить людей что-то делать", – рассказал британский спецслужащий.
Службы безопасности, как известно, особенно обеспокоены способностью чат-ботов с искусственным интеллектом ухаживать за детьми, которые уже составляют растущую часть террористических дел МИ5.