В РАН работают над технологиями безопасного использования искусственного интеллекта
Директор Института системного программирования Российской академии наук (ИСП РАН), академик РАН Арутюн Аветисян рассказал журналистам, что его коллеги работают над технологиями безопасного использования искусственного интеллекта. К разработке систем контроля за внедрением ИИ ученые приступили из-за того, что использование искусственного интеллекта на объектах критической инфраструктуры очень рискованно и чревато возникновением новых угроз.
Для борьбы с такими угрозами, по замечанию академика, нужны специальные инструменты, которых пока не существует. Чтобы решить эту проблему, в России создали Исследовательский центр доверенного ИИ.
Аветисян также отметил, что технологии ИИ связаны не с алгоритмическим описанием в виде кода, а с решением задач по аналогии. Так, если немного поменять входные данные (к примеру, беспилотный автомобиль зафиксирует загрязненный дорожный знак), человеку будет казаться, что это одно и то же, а для автоматической системы это будет другое (например, ИИ сочтет, что это другой знак или знака и вовсе нет).
По данным ТАСС, Исследовательский центр доверенного искусственного интеллекта работает на базе ИСП РАН с 2021-го и его специалисты уже успели создать так называемые доверенные версии популярных фреймворков машинного обучения TensorFlow и PyTorch.
Ранее iot.ru писал о данных нового социологического опроса, согласно которым почти половина опрошенных россиян верит в реальность восстания машин.
Чтобы оперативно получать наши новости в удобном формате, подписывайтесь на наш Telegram-канал.
Назад