"Закон о матрице": как защититься от искусственного интеллекта и какую извлечь выгоду
Собственно, никакого статуса у искусственного интеллекта пока нет. 27 апреля 2024 года в Казахстане в качестве госучреждения был образован Комитет искусственного интеллекта и развития инноваций Министерства цифрового развития, инноваций и аэрокосмической промышленности РК. Из чего следует, что он и будет курировать развитие искусственного интеллекта в стране. Однако само понятие ИИ в законодательстве не объясняется. Ибо нет соответствующего закона.
Как, впрочем, и везде, за одним исключением. Напомним, в текущем году ЕС принял первый в мире закон об искусственном интеллекте – Artificial Intelligence Act. И 1 августа 2024 года он вступил в силу. Любопытно, что в этом вопросе Европа обогнала Китай и США – признанных лидеров в этой сфере.
Ну а что касается Казахстана, пока в стране есть лишь Концепция развития искусственного интеллекта на 2024-2029 годы (причем утверждена и введена в действие совсем недавно постановлением правительства РК от 24 июля 2024 года). Правда, министр МЦРИАП анонсировал, что закон об ИИ разработан и даже:
"Планируется, что закон "Об искусственном интеллекте" будет подписан главой государства не позднее первой половины 2025 года".
Но не будем забегать вперед, пока текст данного закона недоступен для широкой публики. Возможно, правда, речь идет о проекте Цифрового кодекса, глава 19 которого (статьи 121-134) действительно посвящена безопасности применения технологий ИИ. В любом случае этот документ, как бы он на выходе не назывался, пока еще не прошел все необходимые инстанции. Поэтому есть смысл сказать о том, какие моменты законодательство непременно должно регулировать.
Искусственный интеллект и естественный страх перед ним
В принципе, таких главных моментов два. И о них сказано в Концепции правовой политики РК (пункт 4.13.) от 15.10.2021, когда в Казахстане впервые и подняли эту тему:
"Необходимость правового регулирования искусственного интеллекта и робототехники определяется в первую очередь решением вопроса распределения ответственности за вред, причиненный их действиями, а также решением проблемы определения принадлежности права интеллектуальной собственности на произведения, созданные с участием искусственного интеллекта".
Итак, в будущем законе об ИИ и вообще в законодательстве должны быть решены два вопроса. Первый: кто несет ответственность за вред, причиненный роботом и любым другим IT-продуктом с применением ИИ: создатель, оператор (пользователь) или, может быть, сам "носитель" искусственного интеллекта?
И другой важный вопрос: кому принадлежат права интеллектуальной собственности на произведения, созданные с участием ИИ? Список претендентов тот же.
Практически это выглядит так. Представим, что беспилотный автомобиль совершил ДТП, нанеся ущерб другим участникам дорожного движения (такие случаи уже не редкость, правда, пока за рубежом). Вообще, по закону, ответственность – административную или уголовную – несут виновные, которыми необязательно являются собственники авто. Но кто должен отвечать, если собственник (пассажир) невиновен, а за рулем находился робот?
Допустим, подобное произошло в Казахстане. По УК уголовной ответственности подлежат только физические лица (статья 15 УК). Согласно КоАП (статья 28), административное взыскание могут также наложить и на юрлицо. Но проблема в том, что робот де-юре – ни то, ни другое. Однако это пока.
Напомним, что в античном мире, да и много позже (в США, например, до 1865 года) часть людей, а именно, рабы, также не обладали правоспособностью. Сегодня рабство вне закона и воспринимается как дикий пережиток старины, анахронизм.
Почему не предположить, что такая же судьба ждет и роботов? Чем, в конце концов, не физическое лицо?..
Но, повторимся, пока ни в одной из юрисдикций мира люди не готовы к столь радикальным реформам и не признают за ИИ правоспособности. В том числе и в ЕС, где принят первый закон об искусственном интеллекте.
И потому вопрос об ответственности за вред или праве интеллектуальной собственности решается между двумя лицами: производителем IT-продукта и тем, кто его приобрел и пользуется. Причем решается прямо противоположно.
Если речь идет о вреде, то есть – возвращаемся к нашему примеру – когда установлена "вина" автопилота, которым оснащена устроившая ДТП машина, то отвечать придется, скорее всего, автокомпании, ее создавшей и продавшей. Почему "скорее всего"?
Все зависит от договора между производителем и покупателем, в котором такая ответственность за действия робота-автопилота должна быть предусмотрена. Если такого пункта в договоре нет, то крайним окажется человек: тот, кто управлял машиной в режиме автопилота. Но, разумеется, продать автомобиль с автопилотом без такого условия в договоре весьма проблематично.
Если же речь идет о праве интеллектуальной собственности, созданной с применением ИИ, то им обладает тот, кто законным образом приобрел и пользуется IT-продуктом. В этом плане пока и в ЕС, и в США применяются общие положения об интеллектуальной собственности, и правовые последствия пользования ИИ ничем не отличаются от пользования, скажем, Microsoft Word.
А именно, какой-нибудь Google или OpenAI разработали то, что называется LLM, large language model, большую языковую модель с триллионом токенов (то есть смысловых единиц), притом самообучающуюся. То есть с каждым ее использованием она улучшается, совершенствует связи и оттачивает оттенки смыслов. С помощью этого чат-бота можно, в частности, создавать внятные тексты: журналистские статьи, научные диссертации и даже художественные рассказы. Надо лишь дать вводные.
Сейчас не будем отвлекаться на качество этих текстов (как и на водительское мастерство автопилотов). То тема отдельного разговора, а нас в данный момент интересует правовой аспект.
Так вот, само программное обеспечение на основании проприетарной лицензии находится в собственности разработчиков (или правообладателей). Но пользователи чат-ботов (а их сотни миллионов человек) имеют права ИС на те произведения, которые создали с помощью системы. Что логично: ведь для того они продуктом и пользуются.
Поэтому московский студент, написавший с помощью LLM ChatGPT дипломную работу, а затем во всеуслышание заявивший об этом (и защитивший – громкое было дело), такой же ее полноценный автор, как писатель, напечатавший рассказ в редакторе Word. Ни OpenAI , ни Microsoft не могут претендовать на авторство ни в коей мере.
Европейский эксперимент с ИИ
Такова ситуация в общих чертах, но есть много нюансов. Кроме того, подобный подход действует, подчеркнем, в юрисдикциях, уже давненько (относительно, конечно) столкнувшихся с проблемой ИИ. Хотя полноценный закон принят лишь в ЕС, но и в других странах есть те или иные НПА, регулирующие вопрос более или менее.
В казахстанском же законодательстве тема не разработана вовсе. И если, не дай Бог, кто-то на машине с автопилотом попадет в ДТП на отечественном перекрестке, инспектор не сможет определить и наказать виновного из-за правового тумана. Потому-то, собственно, и требуется срочно закон.
Конечно же, взбесившийся (или перегревшийся) компьютер, из-за которого ваш автомобиль попал в переплет – хотя и яркий пример, но не основной в массе вреда, который может принести ИИ.
Возвращаясь к Artificial Intelligence Act – первому в мире закону об искусственном интеллекте, который был принят в ЕС и вступил в действие с 1 августа 2024 года, расскажем о тех превентивных мерах, которые прописаны в этом документе для предотвращения от возможного вреда от недобросовестного ИИ.
Закон использует так называемый риск-ориентированный подход: чем выше риск обществу, тем строже правила. В связи с чем все ИИ-системы подразделяются на три категории:
- запрещенные приложения ИИ (с недопустимо высоким риском вреда);
- ИИ-системы с высоким, но все же допустимым риском;
- все остальные IT-продукты с применением ИИ.
Как всегда в случае с пунктами и подпунктами законов при подробном рассмотрении того, что приписано мелким шрифтом, картина существенно меняется.
А именно, предполагается, что люди смогут контролировать потенциальный вред от ИИ, и потому по общему правилу ИИ-системы будут допускаться к использованию без какой-либо специальной проверки, ведь потенциальной пользы-то больше…
В некоторых случаях, правда, потребуется предварительное заключение уполномоченного органа (нотифицированной организации) на предмет соответствия определенным требованиям. Если есть "значительная угроза здоровью, безопасности или основным правам человека". Ну то есть Минздрав будет проверять ИИ-приложения к медоборудованию и т.п.
А отдельные ИИ-системы и вовсе будут запрещаться. Например, "системы биометрической идентификации или ИИ, который манипулирует человеческим поведением или использует уязвимости людей". Но, во-первых, список этот не исчерпывающий.
А во-вторых – и это главное – под запрет не попадают ИИ-системы, используемые "в военных целях".
Как-то так в ЕС. Сейчас в других юрисдикциях говорят, что внимательно изучат, насколько инструментальны будут эти нормы, и учтут европейский опыт при создании своих национальных законов.