Этическая ловушка: расовая дискриминация может создать проблему для банковского ИИ

искусственный интеллект, фото - Новости Zakon.kz от 23.06.2023 17:44 Фото: unsplash
Использование искусственного интеллекта (ИИ) в финансовых услугах создает новые этические ловушки. Эксперты полагают, что существующие расовые и гендерные предубеждения людей могут стать серьезной проблемой для ИИ в банковской сфере, передает Zakon.kz.

Еще в далеком 1942 году популярный писатель-фантаст Айзек Азимов описал три закона роботехники: робот не должен наносить какой-либо вред человеческому здоровью; создавать угрозу жизни или своим бездействием допускать аналогичные последствия; роботу вменяется в обязательном порядке исполнять приказы, отдаваемые человеком. Но видимо сегодня этих законов оказалось мало для создания искусственного сверхразума, способного работать с клиентами финансовой сферы.

Как отмечают эксперты Deloitte, когда дело доходит до банковских и финансовых услуг, искусственный интеллект, научившись у людей расовым и гендерным предубеждениям, может стать серьезной проблемой для финансовых организаций. Этот риск, считают эксперты, должен заставить разработчиков ИИ задуматься об этичности моделей искусственного интеллекта.

Проблема расовой предвзятости у ИИ. Что тому виной?

Конечно, очевидно, что ИИ будет иметь огромные преимущества как для самих финансовых организаций, так и для потребителей их услуг. Он может взять на себя проблему с обнаружением мошенничества с кредитными картами, робо-советы, алгоритмические приложения для торговли акциями и персонализированные чат-боты. Но в конечном итоге системы ИИ все же могут стать заложниками непреднамеренной предвзятости.

Причина рисков, по мнению экспертов Deloitte, может крыться в подсознательной предвзятости или отсутствии разнообразия среди разработчиков ИИ. К примеру, если разработчик имеет расистские или гендерные наклонности, он может повлиять на обучение искусственного интеллекта. ИИ, совершенствуясь, также берет информацию из всех возможных источников, в том числе и из интернета, где масса ложных данных и негативных проявлений человечества. В результате трудно предсказать, как поведет себя ИИ. К примеру, есть риск, если платформа онлайн-кредитования начнет отклонять заявки на получение кредита от этнических меньшинств или женщин. В конечном итоге это может привести к подрыву доверия между финансовыми учреждениями, людьми и машинами.

В комментариях изданию CNBC основатель Black Women in Artificial Intelligence Энгл Буш рассказала, что когда системы ИИ используются для принятия решений об одобрении кредита, существует риск воспроизведения существующих систематических ошибок, которые есть в исторических данных.

Эксперты вспоминают 30-е годы в Чикаго, где кредитоспособность населения определилась по расовой демографии района.

"Это может привести к автоматическим отказам в выдаче кредита лицам из маргинализированных сообществ, что усилит расовое или гендерное неравенство. Поэтому для банков важно понимать, что внедрение ИИ в качестве решения может непреднамеренно увековечить дискриминацию". Энгл Буш

Борьба с предубеждениями ИИ

Однако, по словам разработчиков в области ИИ, искусственный интеллект не принимает решения и был создан не для создания кредитных рейтингов или оценки рисков потребителей.

Как отмечает главный операционный директор Taktile Никлас Гуске, самые мощные ИИ-приложения предназначены для предварительной обработки неструктурированных данных, например для классификации транзакций.

Решение проблемы

Решение проблемы с ИИ в банковской сфере и устранении некоторых рисков, связанных с ИИ, эксперты видят в создании глобального регулирующего органа, аналогичного ООН, и закона, регулирующего ИИ.

"Я опасаюсь того, что из-за генеративного ИИ мы вступаем в этот мир постправды, где ничто из того, что мы видим в интернете, не заслуживает доверия — ни текст, ни видео, ни аудио, но тогда как мы получаем нашу информацию? И как мы гарантируем, что информация имеет высокий уровень целостности?"Румман Чоудхури, бывший исполнительный директор Twitter

Директор антирасистской группы European Network Against Racism Ким Смаутер в свою очередь подчеркивает необходимость принятия закона об искусственном интеллекте, первой в своем роде нормативно-правовой базы, которая включала бы в себя подход к основным правилам для ИИ и такие концепции, как возмещение ущерба.

Эксперты Deloitte уверены, что для работы ИИ необходимо государственно-частное сотрудничество для устранения непредвиденных последствий для общества по мере того, как ИИ преобразует финансовую систему.

"Это потребует активного сотрудничества между учреждениями и регулирующими органами для выявления и устранения потенциальных источников предвзятости в машинных решениях и других исключающих эффектов". Deloitte

В заключение можно отметить, что, по мнению экспертов, пока человечеству для того, чтобы создать искусственный сверхразум, который бы не наносил вреда, а был полезен людям, предстоит еще много работать, когда дело доходит до дискриминации.

Поделиться новостью
Следите за новостями zakon.kz в:
Если вы видите данное сообщение, значит возникли проблемы с работой системы комментариев. Возможно у вас отключен JavaScript
Сообщите об ошибке на странице
Ошибка в тексте: