Какова стратегия Европы в области развития и регуляции искусственного интеллекта, в чем их проблемы и какими они должны быть — в новом отчете организации Access Now.
В этом месяце Access Now выпустили отчет, в котором составили карту и проанализировали стратегии и предложения по регулированию искусственного интеллекта (ИИ) в Европе. Отчет охватывает как региональные стратегии Евросоюза и Совета Европы, так и национальные планы нескольких стран-участниц, включая Францию, Финляндию, Германию и Италию. Access Now предлагает критерии оценки стратегий ИИ, которые помогут убедиться, что в центре развития и внедрения ИИ находится человек и уважение к его правам.
.
Гонка в деле разработки искусственного интеллекта идет вовсю, и Европа не остается в стороне. Приглядывая одним глазом за конкурентами, от Кремниевой долины до Китая, отдельные страны-участницы и Евросоюз в целом анонсировали «стратегии ИИ», которые предписывают вложить деньги в образование, исследования и разработку, чтобы дать ход европейскому ИИ.
Мировые лидеры от Москвы до Вашингтона и Пекина участвуют в безумной гонке ИИ, так что страх отстать вполне реален. Все, по-видимому, согласны, что Европа должна запрыгнуть в поезд ИИ, но никто, похоже, не знает, куда этот поезд идет. Не забывают ли страны задать себе важнейшие вопросы: Какого рода ИИ мы хотим для нашего общества? Какое влияние эта технология окажет — или уже оказывает — на права человека, на жизни людей? Есть ли области общественной жизни, решения в которых слишком важны или слишком деликатны, чтобы отдавать их на откуп машине? Быть может, речь в конце концов идет вовсе не об одной гонке ИИ, а о нескольких, идущих в противоположных направлениях.
Правительства уже вынуждены отвечать на все эти вопросы для конкретных приложений ИИ. Им придется решить, где существующие законов и правоохранительные органы справятся с этими рисками, а где придется подстроиться — либо дать больше инструментов регуляторам, либо обновить регуляции. Это не обязательно означает удушение инновации. Как и с безопасностью автомобилей в XX веке, креативное регулирование может стать символом не европейской бюрократии, а европейского качества. У ЕС за плечами прочные традиции защиты прав человека и эффективного регулирования — взять для примера Хартию ЕС или Европейскую Конвенцию по Правам Человека, лидерство в вопросе прав, связанных с данными в виде Общего регламента по защите данных (GDPR), и правил ответственности производителей за продукцию — стоит рассматривать их как актив.
.
В своем отчете мы оценили и сравнили европейские стратегии в области ИИ, сопоставив их с набором принципов и прав человека, наиболее важных в контексте разработки, внедрения и использования ИИ. Мы разработали список критериев, в основе которых, с одной стороны, принципы и права, напрямую прописанные в самих стратегиях, а с другой — наиболее широко признанные проблемы, связанные с ИИ. Этот список включает 10 принципов и прав, от прозрачности и подотчетности до права на приватность, защиту данных и свободу самовыражения, а также более широкие коллективные и экономические права.
Если брать в целом, то через большинство стратегий ИИ проходит тема «этики искуственного интеллекта». Многие отмечают, что этика при правильном подходе может укрепить существующие правовые рамки и дать ответы на некоторые вопросы, поднятые использованием ИИ. Куда большие опасения вызывают стратегии, авторы которых, сделав реверанс в сторону «этики», демонстрируют главным образом готовность ослабить нормативную среду. Власти должны быть бдительны и не позволить под дымовой завесой этики дерегулировать технологическую среду.
Государства и эксперты предпочитают говорить об этике, по-видимому, из-за ощущения, что кодифицировать ИИ-специфичное регулирование еще слишком рано. Отчасти это вызвано тем, что для некоторых ключевых проблем, связанных с использованием ИИ, могут найтись технологические решения, которые сделают ненужными изменения правовых норм.
В целом, большинство опубликованных стратегий хотя бы вскользь упоминают многие важнейшие области, где ИИ будет иметь последствия для прав человека — в частности, прозрачность, подотчетность, приватность и будущее работы. Области, которые чаще всего обозначаются в качестве проблемных, — это, с одной стороны, те, где встречаются случаи дискриминации, в частности, система уголовного правосудия, а с другой — те, где возможны последствия для приватности и защиты данных. Вместе с тем, это те области, где ученые, организации, занимающиеся правами человека, и регуляторы уже ищут решения. Существующие принципы прав человека и защиты данных — если их подкрепить ресурсами для исполнения и волей органов власти к подотчетности — уже являются эффективными инструментами для управления ИИ на пользу обществу. GDPR еще слишком молод, и потому его влияние на ИИ еще недостаточно исследованы, но в будущем он может дать почву для интересных тематических исследований.
Несмотря на это, в большом числе стратегий ИИ мы обнаружили существенные пробелы в вопросах прав человека, и предложили ряд рекомендаций по их устранению. Наш общий вывод — в том, что целью Европы должна стать консолидированный подход к регулированию ИИ, который учитывает различные контексты, в которых ИИ уже разрабатывается и используется, а воплощение этого подхода должно быть последовательным и уважать права человека по всему Союзу.
.
В то время как такие страны, как Россия и Китай, по-видимому, заинтересованы преимущественно в военных разработках, ЕС потенциально может возглавить развитие человекоцентричного ИИ, подтвердив свои ценности и предоставив адекватные гарантии прав. Тогда у Европы будет возможность задать то направление развития ИИ, которое, хотелось бы верить, по-настоящему приведет к ИИ во имя Человечества.
В области технического развития, Европа всегда с завистью смотрела на США. Американскую нормативную среду, почти свободную от регулирования, часто изображали главной причиной, невероятного успеха технических компаний, которые находятся на переднем рубеже разработки ИИ. Но мрачная реальность: отключения интернета, закрытые пространств, цензура, уязвимости нулевого дня, речи ненависти, нарушения защиты данных и приватности, а также дезинформация все сильнее угрожают затмить прошлые надежды и поставить под угрозу трансформирующую силу интернета в деле реализации прав человека.
Тем временем, общим местом стало считать Китай с его зловещей системой «социального кредита» образцовой антиутопией, движимой ИИ; тем, чего следует избегать. Проще говорить, к примеру, что плюралистические демократии ЕС никогда не пойдут по китайскому пути, чем замечать и избегать проблемных местных аналогов, особенно с учетом того, что, невзирая на нарушения прав человека, усилия Китая по развитию ИИ активно восхваляются. Когда страховая компания извлекает ваши посты из социальных сетей, чтобы, оценив ваш образ жизни и уровень риска, тем самым определить страховой взнос — это ли не мягкая, приватизированная форма социального кредита? Случай Китая также служит напоминанием, что крупнейшие компании, работающие с данными — включая тех, что находятся на переднем рубеже развития ИИ — со временем эволюционируют и не всегда в лучшую сторону.
Вызов для Европы — в том, чтобы разработать политику в области искусственного интеллекта, которая будет стимулировать инновации, но при этом проскочит между «Диким Западом» — подходом, характерным для ранней Кремниевой долины, — и государственническим подходом Китая. Это и не простая золотая лихорадка, и не сценарий конца света, от которого надо отгородиться панцирем всеохватывающего регулирования. Скорее, следует рассмотреть каждое социально значимое применение искусственного интеллекта в его контексте, критически оценить его влияние на права и свободы в Европе, и соответствующим образом регулировать.
Чтобы разобраться в этом вопросе, будет важно также вывести эти дебаты за пределы специализированного технологического сообщества. Граждане также начинают понимать, как их данными могут злоупотребить, и одновременно осознают возможности ИИ. Обеспечить их участие в разговоре будет важнейшей задачей.
Государства и регуляторы, возможно, всегда будут в роли догоняющих по отношению к технологическим переменам, но это не повод сдавать целую область регулирования. Этические и юридические принципы, которые базируются на правах человека и ведут к лучшим, более подходящим предложениям, вполне возможно найти. Европейские законы вполне способны защитить граждан от ситуации, когда им приходится отказываться от права на частную жизнь в обмен на важнейшие интернет-сервисы из-за того, что им кажется, что выбора нет. Именно это — разработка умного регулирования ИИ, в центре которого находится человеческий фактор — может и должно быть уникальным предложением Европы.
Полностью отчет можно прочесть тут.
Читайте также:
Цифровая идентификация личности намного опаснее, чем ты думаешь
?
Россия будет сотрудничать в области IT, искусственного интеллекта и спутниковых систем с Китаем
?
Гаджеты на службе разведок
?
Минобороны зовёт на помощь искусственный интеллект для победы в кибервойне
?
Европа снабжает авторитарные режимы оборудованием для интернет-слежки
Главное за неделю в области права.
23 декабря 2022 года Минюст включил Роскомсвободу в реестр незарегистрированных общественных объединений, выполняющих функции иностранного агента. Мы не согласны с этим решением и обжалуем его в суде.