Где в Краснодаре отключат свет до конца 2 февраля
16:08
Массовый заплыв с 12-метровой георгиевской лентой засняли в Новороссийске
15:09
Mash: модельное агентство из Краснодара могло поставлять девушек педофилу Эпштейну в США
13:04
Сочи засыплет горой снега в ближайшие сутки
12:29
Житель Ейска из ревности поджег автомобиль знакомой вместо соперника
12:14
Около 685 тысяч туристов отдохнули в январе в Сочи
10:33
Водитель из-за ошибки снес инвалида-колясочника с дороги на Кубани
10:06
Жители Краснодара массово пожаловались на ржавую воду из кранов
09:56
1 февраля 1903 года в Екатеринодаре открыли отделение Крестьянского поземельного банка
06:00
Рынок недвижимости Кубани готовится к жестким условиям в 2026 году
31 января, 18:00
Прокурор Сочи может занять высокий пост в краевом суде Кубани
31 января, 17:37
Несколько городов Кубани попали в список самых теплых в России 31 января
31 января, 17:11
Геленджик стал рынком для прагматичных покупателей недвижимости из Москвы
31 января, 16:08
Бастрыкин взял на контроль состояние дорог в кубанской станице
31 января, 15:18
Более 20 лошадей спасли из горящей конюшни в Краснодарском крае
31 января, 14:23

Видео нейросетей выходят из-под контроля - Госдума готовит ответный удар

Эксперт Вячеслав Коэн предупредил о новой опасности дипфейков
За нарушение правил маркировки можно получить штраф Евгений  Кулешов
За нарушение правил маркировки можно получить штраф
Фото: Евгений Кулешов
Нашли опечатку?
Ctrl+Enter

KrasnodarMedia, 25 ноября 2025. Сегодня искусственный интеллект (ИИ) набирает популярность и активно применяется в самых разных сферах: медицине, науке, промышленности и так далее. Однако там, где есть плюсы, найдутся и минусы. Парламентарии Госдумы во главе с депутатом от Краснодарского края Дмитрием Гусевым планируют внести законопроект, который урегулирует использование ИИ при создании видео. Какие изменения ожидаются, какое наказание предусмотрено за их нарушения и как отличить настоящие кадры от фальшивых — в материале KrasnodarMedia.

Теперь не забалуешь!

По словам депутата Дмитрия Гусева, ИИ сейчас может создавать реалистичные видео, и без маркировки, которое может использоваться для манипуляций. Принятие законопроекта, по его мнению, защитит пользователей от обмана и создаст правовую базу для безопасного использования нейросетей в медиа.

Предлагается внести изменения в закон об информации, обязывающие владельцев социальных сетей, видеохостингов и других платформ, распространяющих видео, маркировать видеоролики, созданные с помощью ИИ. Маркировка должна включать надпись "Создано с использованием искусственного интеллекта" или "Сгенерировано ИИ". Также необходима метаданная метка с информацией об ИИ, датой создания и владельцем ресурса, сохраняющаяся при любом использовании.

Законопроект предусматривает введение штрафов за нарушение правил маркировки: от 10 до 50 тысяч рублей для граждан, от 100 до 200 тысяч рублей для должностных лиц и от 200 до 500 тысяч рублей для юридических лиц.

Инициатива очень полезная, считает IT-эксперт и специалист по онлайн-продвижению Вячеслав Коэн, поскольку сегодня наблюдается активное развитие технологий генерации видео— и фотоконтента.

— Нейросеть, с одной стороны, открывает новые возможности, но с другой — порождает серьёзные проблемы, связанные с созданием дипфейков (фальшивых, ненастоящих фотографий и видео, которые могут использоваться как в развлекательных целях, так и для нанесения репутационного ущерба политикам, спортсменам или знаменитостям прим. ред.). Кроме того, они могут применяться для создания цифровых отпечатков или в рекламных кампаниях без согласия автора. Именно поэтому вводится соответствующее законодательство, — уточнил Коэн.

Он отметил, что технологии распознавания дипфейков работают не очень эффективно, их точность можно оценить примерно на 3 из 5. Однако в будущем ожидается повышение их реалистичности.

Как распознать фальшивку?

Коэн дал несколько советов о том, как отличить настоящее видео от дипфейка. Он обозначил, что на сегодняшний день существует несколько признаков, по которым можно попытаться отличить настоящее видео от сгенерированного.

— Как правило, дипфейки имеют низкое качество. Фотографии или чёткие объекты могут быть размыты. Иногда на сгенерированных видео бывают определённые водяные знаки, и у них ограниченная продолжительность. Их длина редко превышает 30-60 секунд, максимум 3-5 минут. Это делает их легко отличимыми от записей с камер видеонаблюдения, которые могут длиться часами. Если речь идёт о коротких фрагментах или вырезках, то здесь требуется более внимательный анализ, — подчеркнул специалист.

На данный момент отличить дипфейк от настоящего видео под силу специалистам с техническим образованием или тем, кто хорошо разбирается в современных технологиях и умеет анализировать качество видео.

— Для менее осведомлённых слоёв населения, таких как пенсионеры или дети, распознавание подделок может быть затруднительным, — продолжает собеседник. — Важно помнить, что ответственность за распространение дипфейков несёт тот, кто их распространяет. Прежде чем делиться увиденным, необходимо проверить источник информации и убедиться в её достоверности.

Технологии генерации видео часто имитируют качество съёмки старых телефонов (5–10-летней давности), что тоже может служить индикатором подделки, отметил эксперт. По его словам, в сочетании с анализом водяных знаков и смысловой нагрузки это помогает в идентификации дипфейков.

— Кроме того, существуют специализированные сервисы, которые анализируют различные параметры видео (размер файла, скорость воспроизведения и т. д.) и выдают оценку его достоверности, — заключил Вячеслав Коэн.

Напомним, что KrasnodarMedia писал о том, что 86% россиян ожидают положительных изменений от искусственного интеллекта

231652
25
76