В Великобритании выработали этические правила применения ИИ | iot.ru Новости Интернета вещей
 /  В Великобритании выработали этические правила применения ИИ
92.13 € 98.71

В Великобритании выработали этические правила применения ИИ

В отчете Палаты лордов и комитета по искусственному интеллекту, получившем название “I in the UK: Ready, Willing and Able”, дается несколько этических правил использования ИИ. По мнению авторов документа, это позволит Великобритании занять лидирующую позицию на рынке.

Пять принципов Комитета:

  1. Технологии искусственного интеллекта должны развиваться для общего блага и пользы человечества.

  2. Искусственный интеллект должен опираться на принципы разборчивости и справедливости.

  3. Искусственный интеллект не должен использоваться для ущемления прав или конфиденциальности отдельных лиц, семей или общин.

  4. Все граждане должны иметь право на образование, что вместе с искусственным интеллектом даст им возможность процветать умственно, эмоционально и экономически.

  5. Власть не должна использовать искусственный интеллект, чтобы обманывать людей или наносить им любой иной вред.

Представители Комитета предложили взять эти принципы за основу межотраслевого кодекса ИИ, который может быть принят как на национальном, так и на международном уровне.

«У Великобритании есть уникальная возможность формирования технологий ИИ как технологий, приносящих пользу обществу, привести международное сообщество к этическому развитию ИИ, а не пассивно принимать его последствия. Применение технологий ИИ не лишено рисков, и принятие принципов, предложенных Комитетом, поможет смягчить их. Этический подход гарантирует, что общественность доверяет этой технологии и видит преимущества ее использования», — сказал председатель Комитета лорд Клемент-Джонс.

В докладе говорится, что для смягчения негативных последствий ИИ и автоматизации, в том числе потери рабочих мест, потребуются значительные государственные инвестиции в навыки и обучение.

Представители комитета предложили дать возможность людям иметь больший контроль над их личными данными и тем, как эти данные могут быть использованы. Клемент-Джонс призвал правительство и Управление по конкуренции и рынкам Великобритании рассмотреть вопрос об использовании страны.

Он также призвал к созданию механизма, позволяющего информировать потребителей о том, когда ИИ развертывается для принятия важных или чувствительных для общества решений. Комитет предложил, чтобы правительство стимулировало разработку нового подхода к проверке данных, используемых системами ИИ. Это необходимо, чтобы минимизировать любые ошибки автоматизированных систем, генерирующих данные.

«Нам необходима уверенность в том, что сбор и использование технологий анализа Больших Данных, в частности, с применением технологий ИИ и алгоритмов, релевантен. Такой сбор и анализ должны быть прозрачными и объяснимыми, именно из-за вероятности автономного поведения. Должны быть стандарты отчетности, которые легко понять», — заявил Клемент-Джонс. Между тем, технологии ИИ бросают вызов основной правовой системе.

Ранее на слушании доклада выступил Лорд Бишоп из Оксфорда, который предлагал «Десять заповедей ИИ». Пять из них, по-видимому, были приняты почти дословно Комитетом Палаты лордов. Оставшиеся пять были сформулированы в таком виде:

  1. Технологии искусственного интеллекта никогда не следует разрабатывать или развертывать отдельно от рассмотрения этических последствий его применения.

  2. Применение технологий ИИ должно заключаться в сокращении неравенства в отношении богатства, здоровья и возможностей.

  3. Технологии ИИ не следует использовать для преступных намерений. Технологии нельзя задействовать для подрыва ценностей нашей демократии, правды, вежливости в публичном дискурсе.

  4. Основная цель технологий ИИ должна заключаться в усилении и увеличении, а не замене человеческого труда и творчества.

  5. Применение ИИ необходимо направить на решение самых неотложных проблем, стоящих перед человечеством.

Почему эти принципы не были предложены среди основных Палатой Лордов, остается достаточно интересным вопросом.

Подписаться на новости Обсудить

Назад

Комментарии

Текст сообщения*
Защита от автоматических сообщений