Греция

Эксперт: Скоро появятся новые законы, определяющие использование искусственного интеллекта

Эндрю Берт – главный юристконсульт компании Immuta и специалист по аналитике искусственного интеллекта.

За последние несколько лет стало ясно: скоро появятся новые законы, определяющие использование искусственного интеллекта. В конце марта пять крупнейших финансовых регуляторов США озвучили запрос о предоставлении информации об использовании ИИ банками, что сигнализирует процесс подготовки финансового сектора к новым правилам.

Через несколько недель после этого Федеральная торговая комиссия США выпустила набор рекомендаций о «справедливости и беспристрастности» ИИ, определив несправедливое (и поэтому незаконное) использование ИИ как действие, которое «приносит больше вреда, чем пользы».

Европейская комиссия последовала этому примеру и выпустила 21 апреля собственные предложения по регулированию использования ИИ. Там говорится о штрафах в размере 6% от годового дохода компании за несоблюдение требований. Такие наказания являются историческим максимумом за подобные нарушения.

И возникает очевидная дилемма: с одной стороны, развитие нормативно-правовой базы в данном вопросе существенно влияет на способность использовать технологии искусственного интеллекта. С другой стороны, пока законы находятся в стадии разработки, всё еще не окончательно очерчено и понятно. К счастью, можно выделить 3 тенденции, которые объединяют почти все существующие и потенциальные законы. Принимая их во внимание, компании могут обезопасить использование ИИ в будущем для себя.

Первое – требование проводить оценку рисков и фиксировать документально, что было для этого сделано. Во многих нормативных документах это называется «оценка пользы алгоритмов». В штате Вирджиния, например, закон о защите данных потребителей уже требует оценки действий определенных алгоритмов. Несмотря на то, что конкретные требования к оценке различаются, все они имеют общую структуру, состоящую из 2 частей: четкого описания рисков, создаваемых каждой системой ИИ, и описаний того, как устраняется каждый из них. Так что вы не проиграете, если составите документацию и пропишете там все риски и способы их регуляции.

Вторая тенденция – это подотчетность, объективность и индивидуальные требования к разным специалистам: у юристов, например, должны быть другие способы оценки, чем у бухгалтеров. ИИ должен быть протестирован и утвержден техническим персоналом, который не участвовал в процессе его разработки. В некоторых случаях есть смысл нанять внешних экспертов для оценки.

Третья тенденция – необходимость постоянного мониторинга систем ИИ даже после проведения оценок и обзоров. Поскольку результаты довольно нестабильны, риски использования программ ИИ неизбежно растут и меняются, а значит, не могут быть установлены раз и навсегда. Управление рисками – непрерывный процесс. В шаблоне документации ЕС целый раздел посвящен оценке производительности системы искусственного интеллекта. Так что аудит и проверка работы программ должны проводиться регулярно, в идеале по графику. И все детали нужно фиксировать в отчете: кто выполняет проверку, какие сроки, кто ответственен.

Конечно, везде способы регулирования могут частично меняться: где-то существует полный запрет на распознавание лиц, например. Законодатели и сами не пришли еще к консенсусу относительно того, что такое «ИИ» и как его использовать. Некоторые правила, например, касаются только узкопрофильных программ по обучению, другие охватывают все системы, принимающие участие в формировании решений. Расхождение в определении ИИ – признак того, что мы находимся на заре его регулирования. И вышеизложенные общие черты помогут вам подготовиться к моменту, когда обязательные нормы войдут в нашу повседневную рабочую жизнь.

Оригинал статьи — Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Top.Mail.Ru