ИИ с «высоким уровнем риска» определят законодательно

Игроки на рынке, эксперты и депутаты обсуждают проект закона о регулировании искусственного интеллекта, в том числе запрет использования систем с «неприемлемым уровнем риска».
Также в законопроект хотят включить маркировку контента и ответственность для разработчиков за ущерб, который причинят нейросети, пишет РБК. Законопроект разрабатывается в рамках реализации Национальной стратегии развития ИИ до 2030 года.
В аппарате правительства и профильного ведомства отметили, к ним на рассмотрение документ не поступал, но они готовы его обсудить.
Законопроект предлагает ввести:
- Понятие искусственного интеллекта, ИИ-технологий (компьютерное зрение, распознавание и синтез речи, машинное обучение, анализ данных),
- Понятие ИИ-систем, операторов, разработчиков, пользователей.
- Требование к «явной, недвусмысленной и легко идентифицируемой» маркировке ИИ-систем, которую обеспечит оператор.
- Классификацию ИИ-систем по уровню риска (неприемлемо высокий, ограниченный, минимальный). Системы с неприемлемо высоким уровнем риска, представляющие угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина в РФ предлагают запретить.
- Ответственность за причинение вреда жизни, здоровью и др. при разработке и эксплуатации систем ИИ (с исключениями).
- Определение права на результат интеллектуальной деятельности, созданный с помощью ИИ, в зависимости от творческого вклада человека.
В случае принятия документа в текущем виде, разработчики и операторы ИИ-систем будут обязаны выполнить требования в течение года после вступления законопроекта в силу.
Созданным до этого момента ИИ-системам с высоким уровнем риска необходимо будет пройти сертификацию в течение двух лет.
изображение Freepik
Теги: ии искусственный интеллект риск