Ваграм Аветисян: Необходимо установить чёткие правовые рамки применения ИИ в избирательном процессе
Участники международной конференции подчеркнули, что без прозрачного регулирования и независимого аудита алгоритмов внедрение ИИ может поставить под угрозу легитимность выборов.
19 фев 2026, 14:40
Сегодня, 19 февраля, в Таврическом дворце в Санкт-Петербурге, на международной конференции «Формирование доверия к институту выборов и референдума», главы ЦИК стран СНГ, Африки и Латинской Америки обсуждают искусственный интеллект не как модный термин, а как реальный фактор, способный переломить любую избирательную кампанию. В центре повестки Межпарламентской ассамблеи СНГ и Международного института мониторинга развития демократии – вопрос, где провести черту: какие ИИ-технологии укрепляют доверие к выборам, а какие должны быть прямо запрещены законом, чтобы урна для голосования не превратилась в придаток нейросети и алгоритмов влияния.
Сейчас искусственный интеллект уже работает с избирателем раньше, чем участковая комиссия включит свет в спортзале местной школы. В этой новой реальности Межпарламентская ассамблея (МПА) СНГ пытается сделать то, что многие пока только обсуждают: встроить ИИ в избирательный процесс так, чтобы он усиливал доверие, а не превращал кампанию в войну алгоритмов.
Точка входа
Сегодня в Таврическом дворце собирались главы ЦИК стран СНГ, эксперты и парламентарии, чтобы под юбилей Международного института мониторинга развития демократии (МИМРД ) МПА СНГ говорить не о привычных бюллетенях, а об искусственном интеллекте, дипфейках и цифровом вмешательстве. Конференция «Формирование доверия к институту выборов и референдума: роль международного наблюдения» выносит ИИ в избирательном процессе в отдельную линию – не как модное слово, а как фактор, который придется регулировать жестко и заранее. Все понимают, что влияние на ИИ и цифровизации на современные информационные технологии многократно усилилось – и продолжит усиливаться в дальнейшем. А потому нельзя пускать этот процесс на самотёк.
Повестка сформулирована без эвфемизмов: защита от фейков и цифрового вмешательства, право и «правила» использования ИИ, границы допустимых технологий в агитации, мониторинг цифровой среды международными наблюдателями. По сути, МИМРД МПА СНГ пытается собрать разрозненные элементы – электронное голосование, агитацию в сети, нейросети в политике – в один нормативный каркас.
Цифровизация и выборы
Несколько лет назад Ассамблея выпустила монографию «Цифровизация и выборы», а затем – отдельную работу по дистанционному электронному голосованию и его наблюдению, где подробно разбираются риски вмешательства через цифровые каналы.
В рекомендации для международных наблюдателей от СНГ уже включены положения о мониторинге применения информационных технологий, защите от несанкционированного вмешательства, оценке прозрачности электронных процедур. В новой редакции рекомендаций отдельно оговаривается, что массовое использование цифровых платформ и алгоритмов меняет не только технику голосования, но и политический контекст: от сетевой агитации до попыток манипулировать повесткой через ИИ-инструменты.
Сейчас важно найти общую точку зрения по созданию правовой базы для стран СНГ, которая могла бы одинаково эффективно работать на территории всего Содружества. Но с этим как раз есть определённые трудности.
МИМРД в своих аналитических материалах фиксирует две ключевые зоны риска. Первая – цифровые сервисы голосования (ДЭГ, электронные реестры, автоматизация подсчета). И вторая – цифровая среда вокруг выборов (агитация, ИИ-фейки, таргетированная манипуляция).
Первая зона требует технической экспертизы и прозрачных процедур. Вторая – нового языка в законодательстве и у наблюдателей.
Право догоняет нейросети
Самый яркий пример того, как право пытается догнать технологии, – решение Верховного суда России, который признал незаконным использование сгенерированных нейросетью изображений людей в предвыборной агитации. Формула проста: если изображения создаются алгоритмом, а избиратель воспринимает их как реальные, это подрывает доверие к кампании и создает неравные условия.
Многие эксперты в этой сфере считают, что дипфейки и нейросети становятся «новым вызовом для избирательных систем», потому что превращают любую кампанию в поле, где доверие можно уничтожить несколькими вирусными роликами. По их словам, запрет на использование таких изображений – попытка не допустить превращения выборов «в войну алгоритмов», пока у регулятора нет полного набора инструментов контроля.
Именно эту мысль озвучил в своём выступлении Шавхат Утемисов, секретарь ЦИК Республики Казахстан: «В 2026 году основные риски применения искусственного интеллекта в выборах концентрируются вокруг трёх взаимосвязанных угроз.
Во-первых, мультипликативный контент. Генеративные модели резко удешевили производство фейковых материалов, таргетированной агитации и убедительных фейк-новостей, что повышает вероятность масштабной компании по дезинформации и подрыву доверия к выборам.
Во-вторых, угроза подлинности и идентичности. Глубокие подделки голоса и видео позволяют имитировать заявление кандидатов и чиновников, создавая ложные события, которые распространяются быстрее, чем опровергаются.
В-третьих, неравномерный доступ к технологиям. Политические акторы с большими ресурсами получают преимущество в создании персонализированной коммуникации, что усиливает дисбаланс конкурентной среды.
В совокупности эти факторы формируют новый уровень уязвимости избирательных процессов, требующий одновременно технологических инструментов защиты и обновления нормативных рамок».
И это – не пустые опасения. Шавхат Утемисов в своём выступлении привёл пример усиления роли цифровизации для Казахстана:
Очевидно, что так просто отмахнуться от внедрения цифровых технологий в повседневную жизнь уже не получится. И избирательные процессы – не исключение:
«Государство видит в искусственном интеллекте источник экономического рывка, инструмент повышения качества управления. Искусственный интеллект становится фактором конкурентоспособности государств, элементом технологического суверенитета. Особенно важно, что искусственный интеллект всё активнее входит в электоральные процессы. От цифровых сервисов для избирателей до аналитики, кибербезопасности и противодействию дезинформации» – подытоживает Шавхат Утемисов.
Скорее всего, без ограничений в этой сфере не обойтись. Например, в России Верховный суд признал незаконным использование искусственного интеллекта для создания образа людей в предвыборной агитации кандидатов. 4 февраля Верховный суд России оставил без удовлетворения кассационную жалобу челябинского регионального отделения партии КПРФ, обжаловавшего решение апелляционного суда о незаконности применения нейросетей в агитматериалах. Как подчеркнул президент России Владимир Путин, ИИ можно применять везде, но отвечать за него должен конкретный человек.
И только вслед за жесткими ограничительными мерами, когда будет наведён порядок, придёт постепенное выстраивание режимов, в которых ИИ может использоваться для информирования и повышения явки, но не для имитации людей и фабрикации реальности.
МИМРД подходит к ИИ не только как к предмету регулирования, но и как к теме обучения для будущей политической элиты. В декабре 2025 года на площадке Ассамблеи в Таврическом дворце прошла международная конференция-дебаты «Искусственный интеллект в политической жизни и электоральном процессе» с участием студентов из стран СНГ.
Перед дебатами научные сотрудники и эксперты читали лекции о том, как работают модели ИИ, кто несет ответственность за решения, принятые с их помощью, и где проходит граница допустимого использования. Один из вопросов, который студенты задавали друг другу, звучал предельно по-взрослому: «Кто будет ответственен за политические решения, принятые с использованием ИИ: компания-разработчик или сам искусственный интеллект?»
По итогам дискуссий участники сошлись в выводе: ИИ в политике и выборах сегодня – инструмент, который может повышать эффективность работы людей, но не способен и не должен заменять человеческие решения. Для МИМРД это не просто протокол: это попытка заранее сформировать культуру осторожного обращения с ИИ у тех, кто через несколько лет будет работать в штабах, комиссиях и органах власти.
«Стремительное развитие и широкая доступность технологий искусственного интеллекта в последние годы превратились в один из определяющих факторов преобразования системы публичного управления и функционирования демократических институтов.
Алгоритмические системы всё активнее применяются в сфере управления информационными потоками государственного администрирования, анализа данных и коммуникации органов публичного и частного права с гражданами.
Избирательный процесс, как фундаментальный механизм реализации народовластия, также всё чаще участвует в цифровой среде. Искусственный интеллект используется для анализа большого массива данных, автоматизации процедур, мониторинга информационного пространства, выявления аномалий и нарушений избирательного законодательства.
В этих условиях особую важность приобретают принципы прозрачности, подотчётности и технологической литеральности регулирования. Необходимым становится чёткое установление правовых рамок применения ИИ в избирательном процессе. Обеспечение независимого аудита алгоритмических систем, а также создание эффективных механизмов защиты избирательных прав в цифровой среде. Баланс между инновациями и гарантиями демократических процедур становится ключевым условием сохранения легитимности выборов в эпоху цифровых технологий, – такое мнение высказал профессор, доктор юридических наук Ваграм Аветисян, директор Ереванского филиала МИМРД МПА СНГ».
Электронное голосование, ИИ и наблюдение
Отдельная глава – электронное голосование. В монографиях и рекомендациях МПА СНГ подробно разбирается практика ДЭГ в странах региона, включая президентские выборы в России, и делается акцент на том, что автоматизация процедур неизбежно подтягивает за собой алгоритмы, в том числе основанные на ИИ.
На Иссык-Кульском электоральном форуме в 2023 году представители МИМРД прямо говорили: вопросы внедрения и использования электронного голосования становятся сферой внутриполитической борьбы, и без понятной архитектуры контроля любой цифровой сервис превращается в источник конфликтов.
Для наблюдателей от СНГ ИИ здесь важен не как «умный помощник», а как источник потенциальных рисков. Это и алгоритмы подсчета и обработки данных, и автоматический отбор сообщений для горячих линий и жалоб, и системы рекомендаций и таргетинга политической рекламы.
МИМРД встраивает эти темы в обновленные методики наблюдения: от наблюдателя теперь требуется не только фиксировать происходящее на участке, но и понимать, какие цифровые инструменты используются в кампании и как они могут влиять на равенство участников.
Читайте также: В Санкт-Петербурге прошла презентация книги о «правилах» наблюдения за выборами.
Международный контур
На уровне международного наблюдения ИИ появляется сразу в двух ипостасях: как объект регулирования и как инструмент атак на миссии. В анонсах конференции прямо говорится: эксперты будут обсуждать, как защищаться от фейков и цифрового вмешательства, в том числе в отношении самих наблюдателей.
Страны Африки и Латинской Америки, которые приезжают в Таврический дворец, приходят с аналогичными страхами: для них ИИ в политике – это не только удобные чат-боты, но и риск, что за пределами их юрисдикции будут созданы кампании влияния, основанные на алгоритмах и дипфейках.
Отсюда – запрос на общие правила. Не случайно в материалах к конференции звучит формулировка: «без однополярных шаблонов» – государства СНГ, Африки и Латинской Америки ищут формат, в котором стандарты «честных выборов» и допустимого использования ИИ формулируются не в одной столице, а в многостороннем формате.
Искусственный интеллект для избирательной системы – это одновременно шанс и угроза.
Шанс – потому что технологии позволяют точнее информировать избирателя, снижать издержки, обеспечивать доступность процедур, особенно для тех, кто голосует дистанционно.
Угроза – потому что те же технологии создают идеальный инструмент для манипуляции, фабрикации и подрыва доверия.
МИМРД, МПА СНГ и национальные ЦИК пытаются решить на этом поле следующие задачи. Во-первых, юридически зафиксировать границы допустимого использования ИИ в выборах: что можно (анализ, сервисы, информирование), а что нельзя (подмена личности, дипфейки, скрытая манипуляция). Во-вторых, научить будущих политиков и администраторов работать с ИИ как с инструментом, а не заменой политической ответственности: встроить мониторинг цифровой среды в стандарт работы наблюдателей, чтобы отчеты миссий отражали не только то, что происходит в урне, но и то, что происходит в ленте новостей и мессенджерах.
В идеале результат должен выглядеть очень амбициозно и правильно: выборы, в которых ИИ помогает системе работать быстрее и точнее, но не принимает ни одного политического решения и не создает иллюзий вместо реальности. Именно этого хотят добиться те, кто сегодня в Таврическом дворце обсуждает ИИ в избирательном процессе – ИИ должен помогать демократическим процессам, а не навязывать фейки. Важно заняться решением этого вопроса сейчас, чтобы через десять лет не объяснять избирателю, почему его голос посчитала нейросеть, которой никто не доверяет.
Источник фотогалереи: Союз журналистов СНГ и пресс-служба МПА СНГ.
Постоянная ссылка: https://sng.today/40976-ru.html.















