В Беларуси предупредили: за ИИ-фейки грозит штраф или уголовное дело
Реалистичное видео с тигром, рыскающим по улицам города и набрасывающимся на человека, вызвало массовую панику среди жителей одного из населенных пунктов Приморского края России. Лишь позднее власти установили, что тревожного хищника никогда не существовало – он был порождением искусственного интеллекта. Создателю видео грозит штраф до 100 рублей. Этот конкретный случай, по данным правоохранителей, послужил прямым поводом для официального предупреждения.

Белорусские силовики из Управления по противодействию киберпреступности однозначно заявляют: тот факт, что дезинформация создана нейросетью, не является смягчающим обстоятельством. ИИ-контент, вводящий людей в заблуждение, нарушающий общественный порядок или создающий угрозу безопасности, рассматривается так же строго, как и любой другой фейк.
УВД Брестского облисполкома подчеркивают, что правовые последствия могут варьироваться от административного штрафа за распространение недостоверной информации до уголовного дела, если действия повлекли тяжкие последствия, связанные с нарушением общественного порядка или безопасности. Это предупреждение особенно актуально в свете того, как активно киберпреступники начали использовать возможности ИИ. По данным Главного управления по противодействию киберпреступности МВД Беларуси, мошенники создают с помощью нейросетей поддельные видео с известными людьми – политиками или телеведущими, которые «рекламируют» несуществующие инвестиционные платформы, вовлекая жертв в аферы.
Параллельно с ужесточением ответственности идет поиск технических решений, которые помогли бы обществу отличать реальность от симуляции. Одним из главных условий стала обязательная маркировка контента, созданного искусственным интеллектом. Весной 2026 года Госдума РФ планирует рассмотреть в первом чтении законопроект, который обяжет социальные сети и видеохостинги помечать весь ИИ-контент. Маркировка должна быть заметной для пользователя и содержать неудаляемые машиночитаемые метки в файле. Эксперты, однако, указывают на сложности: алгоритмы обнаружения не всегда точны, а их внедрение и обслуживание потребуют от платформ значительных инвестиций.
Ведущие технологические компании также разрабатывают собственные системы. Например, TikTok начал тестировать функцию, позволяющую пользователям самостоятельно регулировать количество ИИ-контента в своей ленте рекомендаций. Параллельно платформа внедряет технологию «невидимых водяных знаков» для маркировки таких видео, которые сохраняются даже после повторной загрузки или редактирования, чтобы повысить прозрачность. Это ответ на масштаб явления: по данным компании, на ее платформе уже более 1,3 миллиарда видеороликов промаркированы как созданные с помощью ИИ.
Законодательные инициативы в этой сфере приобретают и международное измерение. Председатель Палаты представителей Национального собрания Беларуси Игорь Сергеенко сообщил, что Парламентская ассамблея ОДКБ (Организации Договора о коллективной безопасности) включила вопросы регулирования искусственного интеллекта в программу модельного законотворчества на ближайшее пятилетие. Это означает, что в перспективе ожидается гармонизация национальных законодательств стран-участниц, включая Беларусь, в области контроля над ИИ, что потенциально может привести к дальнейшему ужесточению норм.
Комментарии
Добавление комментария
Комментарии