Фото: Александр Авилов / АГН «Москва»

Названы способы обезопасить государство от сбоев в системах с искусственным интеллектом

В Президентской академии объяснили, как использовать нейросети и другие цифровые решения без ущерба для прав граждан и доверия власти

К началу 2025 года в госструктурах РФ на федеральном уровне применяли более 90 различных инструментов на базе искусственного интеллекта (ИИ). Однако международная аналитика, включая AIAAIC, фиксирует рост числа ИИ-сбоев в госсекторе, предвзятых решений и нарушений прав граждан — от ошибок в социальных выплатах до дискриминации в миграционных системах. Как избежать этих проблем в России, в своем исследовании раскрыл директор проекта Дирекции приоритетных образовательных инициатив Президентской академии Айрат Сатдыков.

Международный опыт предостерегает: ускорение внедрения ИИ в госсекторе без контроля чревато серьёзными сбоями. В репозитории AIAAIC задокументировано 358 инцидентов с ИИ в органах власти по всему миру. Почти половина — ошибки точности и сбои, ведущие к несправедливым решениям; 39% — дискриминация отдельных групп населения и компаний. Последствия в таких случаях ударяют и по самим госорганам, которые рискуют утратить доверие населения и получить судебные иски.

Для того чтобы избежать этих рисков в России, Айрат Сатдыков дает четыре главных рекомендации.

Первое - учиться на чужих ошибках, регулярно анализировать международные базы инцидентов и сопоставлять с российской практикой, выявляя типовые риски.

Второе - укреплять правовую основу, внедряя чёткие требования к проверке ИИ-систем на недискриминацию, точность и надёжность, гарантируя независимую экспертизу и аудит.

Третье – обеспечить прозрачность, публикуя цели, принципы работы и механизмы обжалования решений, и возможность независимой оценки для всех государственных ИИ-систем.

Четвертое – обязательно тестировать перед масштабным запуском все пилотные проекты с оценкой социальных последствий, участием экспертов и обратной связью от граждан — это позволит своевременно устранить недостатки.