ИИ-системы уже принимают решения, которые затрагивают людей напрямую: оценивают кредитоспособность, отбирают резюме, определяют приоритеты в медицинской диагностике. При этом во многих случаях непонятно, по каким критериям система пришла к тому или иному выводу, кто несёт ответственность за ошибку и как её оспорить.
Отсутствие регулирования в этой области — не нейтральная позиция. Это означает, что стандарты де-факто устанавливают те, у кого больше ресурсов: крупные технологические компании, преимущественно западные. Для государства, которое хочет сохранить контроль над критической инфраструктурой и защитить интересы граждан, это неприемлемая ситуация.
Россия формирует собственную нормативную базу в сфере ИИ. Этот процесс требует участия людей, которые понимают технологию изнутри — не только юристов и чиновников, но и разработчиков, исследователей, тех, кто внедряет системы в реальных условиях.
ЦНИС участвует в этой работе через экспертные советы и рабочие группы. Наша позиция: регулирование должно опираться на практику. Жёсткие запреты, написанные без понимания того, как технология работает, тормозят развитие без реального снижения рисков. Нужны стандарты прозрачности, требования к документированию решений и чёткое распределение ответственности — именно над этим имеет смысл работать в первую очередь. Мы готовы аргументировать эту позицию и участвовать в её практической реализации.