Европа ищет этику для технологий AI
В начале апреля группа из 52 экспертов, отобранных Европейской Комиссией (ЕК), опубликовала EU Ethics Guidelines for Trustworthy AI (Руководящие принципы этики ЕС для технологий искусственного интеллекта, заслуживающего доверия; далее «Руководство»). Эти принципы направлены на содействие развитию надежных технологий искусственного интеллекта (AI). Одним из экспертов выступил автор этой статьи – Андреа Ренда (Andrea Renda), старший научный сотрудник CEPS (Брюссель).
Представленный документ емок и амбициозен. Впервые этические принципы будут испытаны в ходе реальных испытаний. Экспериментальный проект полностью поддерживается ЕК. Комиссия одобрила Руководство и призвала частный сектор приступить к их использованию в надежде стандартизировать эти принципы.
Не только европейские страны ищут этику для AI. Канада и Япония опубликовали стратегии по развертыванию AI с перечислением этических подходов.
Частные инициативы, такие, как Partnership on AI, объединяющее более 80 корпораций и организаций гражданского общества, разработали этические принципы. Авторы согласились с Asilomar Principles, а институт инженеров-электриков и электронщиков (IEEE) работал над этическими рамками.
У большинства высокотехнологичных гигантов существуют свои принципы. Гражданское же общество стремиться привести этические аспекты искусственного интеллекта в соответствии со Всеобщей декларацией по правам человека.
Профессор из Оксфорда Лучиано Флориди (Luciano Floridi), несмотря на различие терминологий, выявил значительное соответствие между многими существующими декларациями. Все они не обязательны для исполнения и носят рекомендательный характер.
Страны ЕС хотят установить глобальные стандарты для AI
Европейское Руководство тоже носят рекомендательный характер, но продвинулось дальше. Оно фокусируются на четырех этических принципах:
-
уважение человеческой автономии;
-
предотвращение вреда;
-
справедливость;
-
объяснимость.
Отмечается, что надежный AI подразумевает соблюдение законодательства ЕС и основных прав, включая конфиденциальность. Любому, кто желает разработать и продать систему AI, потребуется рассмотреть возможные риски и нести ответственность. В Руководстве указаны подобные критерии такой оценки.
Пользователям нет необходимости объяснять, как работает холодильник с поддержкой ИИ и как самоуправляемый автомобиль принимает обычные решения. Пользователи должны доверять процессу и экспертам, которые могут вмешаться, если что-то пойдет не так.
Пользователям дадут разумные объяснения
У пользователей будет право знать, почему им отказано в доступе к правительственному файлу, субсидиям и т.д. Дискриминация зачастую станет неизбежной, поскольку наше общество уже предвзято. Но чрезмерная, неоправданная, незаконная дискриминация должна быть объявлена вне закона. Пострадавшим лицам следует незамедлительно возместить ущерб.
В Руководстве содержатся примеры «областей, вызывающих серьезную озабоченность», которые, скорее всего, не отвечают требованиям доверительного AI:
-
выявление и отслеживание лиц с ИИ;
-
развертывание скрытых систем ИИ;
-
разработка какого-либо рейтинга граждан с поддержкой ИИ;
-
использование ИИ для разработки смертоносного автономного оружия.
Разработка концепции надежного AI – это лишь «желательная цель» для 52 экспертов. Институтам ЕС дается несколько месяцев для того, чтобы решить, следует ли сделать концепцию обязательной основой и в каких случаях.
AI может стать протекционной мерой
Среди других инициатив ЕС может решить, что все государственные закупки должны быть ограничены надежным AI; или поручить, чтобы приложения AI в здравоохранении были надежными. Возможно, для участников процесса потребуется разработать форму сертификации.
Глобальные стандарты применения AI позволят Европе восстановить конкурентоспособность на рынке. К примеру, в США не обеспечивается адекватная защита конфиденциальности конечных пользователей, а американские платформы регулярно обвиняются в чрезмерном вмешательстве в автономию пользователей.
Развитие регулирования может закрыть европейский рынок странам, которые используют несовместимыми с ЕС этические принципы AI. Экспертная группа из 52 человек такой сценарий не обсуждала. Но в руководстве ЕС такую возможность рассматривают.
Оригинал статьи: Forbes
Назад