Публикация «Обзор возможностей и вызовов цифровой трансформации в контексте борьбы с коррупцией» (Review of Digital Transformation Opportunities and Challenges for Corruption) посвящена тому, как искусственный интеллект (ИИ) и другие цифровые решения могут использоваться для выявления коррупционных рисков, повышения прозрачности и автоматизации отдельных контрольных процедур. Одновременно авторы рассматривают ограничения таких технологий и новые уязвимости, которые могут возникать при их внедрении.
Доклад основан на обзоре 38 исследований**. Авторы анализируют цифровую трансформацию через шесть взаимосвязанных элементов: люди, данные, программное обеспечение, аппаратная инфраструктура, процессы и коммуникация. Такой подход позволяет оценить не только сами алгоритмы, но и условия, от которых зависит их практическая эффективность.
Одним из центральных выводов стало то, что ИИ не является готовым универсальным решением для борьбы с коррупцией. Его применение может быть полезным, например, для выявления аномалий, анализа закупок, финансовых операций, деклараций или иных массивов данных. Однако результат зависит от качества исходной информации, уровня цифровой инфраструктуры, институциональной среды, квалификации пользователей и наличия понятных процедур контроля.
Наиболее разработанным направлением в существующих исследованиях остаются программные решения: алгоритмы, платформы и модели машинного обучения. При этом значительно меньше внимания уделяется инфраструктуре, организационным процессам и человеческому фактору. Авторы отмечают, что слабая связь, нестабильное энергоснабжение, нехватка вычислительных мощностей и низкий уровень цифровых навыков могут существенно ограничивать применение ИИ, особенно в странах с менее развитой цифровой средой.
Отдельная проблема связана с данными. Для работы ИИ необходимы полные, качественные и сопоставимые массивы информации, тогда как данные о коррупции часто фрагментированы, неполны или основаны на косвенных показателях. Кроме того, коррупционные практики обычно скрыты, поэтому исследователям сложно сформировать надежную базу подтвержденных случаев, на которой можно обучать модели.
Авторы также обращают внимание на риски непрозрачности и предвзятости алгоритмов. Если модель работает как «черный ящик», пользователям сложно понять, почему тот или иной случай был отнесен к зоне риска. А если система обучается на неполных или искаженных данных, она может воспроизводить существующие ошибки и институциональные перекосы.
Кроме того, в докладе подчеркивается, что доказательств прямого влияния ИИ на снижение коррупции пока недостаточно. В ряде стран зафиксированы положительные результаты применения цифровых инструментов, однако не всегда ясно, идет ли речь именно о сокращении коррупции или о более эффективном выявлении потенциальных нарушений.
В связи с этим авторы предлагают рассматривать ИИ-инструменты прежде всего как средства поддержки принятия решений, а не как замену человеческому контролю. Они могут помогать быстрее находить подозрительные связи и операции, но окончательная оценка должна оставаться за специалистами.
*BridgeGap – четырехлетний международный исследовательский проект (январь 2024 г. – декабрь 2027 г.), реализуемый в рамках программы «Горизонт Европы» (Horizon Europe). Проект продолжает работу предыдущего антикоррупционного проекта ANTICORRP и направлен на междисциплинарное изучение коррупции, расширение данных о политической коррупции и других формах неправомерного влияния, а также на анализ возможностей современных технологий для выявления, предупреждения и пресечения коррупции.
**Для отбора источников авторы использовали академические поисковые системы и базы данных, включая Google Scholar, Web of Knowledge, JSTOR, MEDLINE и ScienceDirect, а также Elicit – ИИ-инструмент для поиска и систематизации научной литературы на основе Semantic Scholar и OpenAlex (полученные с его помощью результаты дополнительно проверялись вручную, поскольку такие инструменты могут ошибаться при интерпретации источников и извлечении данных).