Представители думских фракций обозначили свои подходы к тому, какие нормы применения искусственного интеллекта на выборах могут быть закреплены в законодательстве.
«Единая Россия»: защита конституционных прав избирателя
Первый заместитель председателя комитета Совета Федерации по регламенту и организации парламентской деятельности Сергей Перминов отметил, что «Единая Россия» намерена участвовать в формировании регулирования в эсфере. Он подчеркнул, что основная цель возможных законодательных решений – защита участников избирательного процесса от злоупотреблений технологическими новшествами, которые способны приводить к нарушению гарантированных Конституцией России прав личности.
«Новые технологии не должны причинять вред человеку – человеку, реализующему свое активное и пассивное избирательное право. Это главная цель, которой надо будет добиться законодателю в координации с Центральной избирательной комиссией России», – подчеркнул Сергей Перминов.
КПРФ: регулирование без перегибов
Первый заместитель председателя ЦК КПРФ Юрий Афонин подтвердил неизменность позиции партии по вопросу использования искусственного интеллекта в агитации. По мнению коммунистов, применение ИИ действительно нуждается в регулировании, в том числе через обязательную маркировку соответствующего контента и обеспечение прозрачности его происхождения.
«Однако вводить безусловные запреты на материалы, созданные нейросетями, недопустимо. Это ведет не к защите участников избирательного процесса, а к прямому ограничению политической конкуренции», – считает Юрий Афонин.
«Справедливая Россия»: акцент на борьбе с фейками
Заместитель председателя комитета Государственной думы по строительству и ЖКХ Александр Аксененко обратил внимание на двойственную природу технологий искусственного интеллекта. С одной стороны, нейросети рассматриваются как значимый технологический прорыв, способный упростить многие процессы. С другой – именно они, по его оценке, сегодня являются основным источником фейкового контента.
«Это и «нарисованные» фотографии, и сгенерированные видеоролики, и имитация голоса. Ввести в заблуждение с помощью технологий ИИ стало элементарно, и закон должен защитить граждан от такого влияния», – полагает Александр Аксененко.
В качестве вероятных примеров он привел усиление санкций в отношении лиц, намеренно создающих вводящий в заблуждение контент с использованием ИИ. Также была подчеркнута целесообразность обязательной маркировки такого контента.
