Аналитики определили приоритетные технологии ИИ для защиты сетевых пользователей
Выделено 12 групп технологий с использованием искусственного интеллекта, которые стали частью мониторинга интернета и обеспечения безопасности пользователей сети.
Исследование проведено Роскомнадзором, Главным радиочастотным центром (ФГУП «ГРЧЦ»), «Ростелекомом» и аналитическим центром MINDSMITH.
В числе выделенных групп: определение контекста отображаемого на видео, извлечение смысла из текста, поддержка проверки фактов, распознание лиц, выявление дипфейков, автоматизация мониторинга и модерации контента, распознание символики, генерация контента, поддержка решений при информационных атаках, распознание эмоций, рекомендации контента.
Обзорная карта технологий, созданная экспертами, показывает ландшафт разработки решений на базе ИИ в разрезе кластеров, субтехнологий и степени их зрелости.
Авторы исследования считают:
Государственное регулирование в большинстве стран не успевает за скоростью развития ИИ-технологий <…> Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения ИИ. Наличие отечественных моделей и их внедрение, а также использование отечественных наборов данных — вопрос национальной безопасности.
Также они отмечают необходимость разработки процедуры тестирования и оценки моделей ИИ для отслеживания перспективных проектов и разработчиков.
Кроме того, по их мнению, существует нехватка вычислительных мощностей, инфраструктуры, а также кооперации между компаниями и государством для создания отечественных моделей ИИ. При этом в исследовании отмечается, профильных специалистов в стране достаточно, а вот развитости производства мощного вычислительного оборудования — нет. Однако, отмечено, в России есть качественные решения, в том числе в области распознавания лиц и противостояния информационным атакам.
Помимо прочего в исследовании поднят вопрос борьбы с дезинформацией. Экспертами отмечены тренды и ключевые выводы в этой области:
- На сегодня системы с ИИ близки к проверке фактов в реальном времени, их интегрируют в соц. сети. В будущем они займутся анализом речи и потоковых видео, и при обнаружении в ходе проверки ложной информации, смогут оповестить пользователя о недостоверном контенте.
- Решения позволят автоматизировать часть процесса или сконцентрируются на оценке конкретного артефакта контента для передачи на финальную оценку эксперту или центральной нейросети. Благодаря учету большего числа факторов такие системы повысят адекватность оценки контента.
- Массовое внедрение систем для фактчкинга возможно только через 3-5 лет из-за нахождения их на сегодняшний день на ранней стадии развития.
- Автоматизированная проверка фактов приведет к разметке специальными тегами на крупных ресурсах.
- Система тегов и мониторинг корректности разметки новостей поможет государству напрямую влиять на фактчекинг.
изображение Bob с сайта Pixabay
Теги: анализ безопасность дипфейки ии фактчекинг