Компания Google ввела видимые watermark'и на видеороликах, созданных ее новейшей моделью искусственного интеллекта Veo 3, после ее выхода в мае.

Технический гигант сообщил об этом через Джоша Вудворда, вице-президента Google Labs и Google Gemini, который подтвердил, что все видеоролики Veo 3 теперь будут иметь небольшой watermark "Veo" в правом нижнем углу.

Watermark выглядит как бледно-белый текст, который трудно заметить при случайном пролистывании лент социальных сетей, но при ближайшем рассмотрении он становится видимым.

Watermark будет наноситься на все видео Veo 3, за исключением тех, которые создаются пользователями с помощью инструмента Google Flow с тарифным планом Google AI Ultra.

Этот знак дополняет существующий водяной знак SynthID, который незаметно встраивается во весь контент компании, созданный искусственным интеллектом, и помогает уникально идентифицировать работу Veo.

Google также разработал детектор SynthID, но этот инструмент пока доступен только ранним тестерам и еще не выпущен для широкой публики.

Почему реалистичность Veo 3 вызывает опасения?

С момента своего появления на Google I/O 2025 Veo 3 привлек к себе много внимания благодаря созданию чрезвычайно реалистичных видеороликов со звуком и диалогами.

ИИ-модель использовалась для создания различных сценариев - от фантастических, таких как Лохнесское чудовище, играющее на волынке, до более обыденного контента, включая имитацию интервью, рекламу влиятельных лиц, сегменты фальшивых новостей и видео с распаковкой товара.

Хотя опытные наблюдатели могут заметить признаки искусственного интеллекта (например, слишком гладкие текстуры кожи или искаженные изображения), люди обеспокоены тем, что случайные зрители, пролистывающие социальные сети, могут не заметить этих тонких признаков, особенно те, кто не разбирается в цифровых технологиях.

Почему эксперты так сильно обеспокоены эффективностью этого водяного знака?

Эксперт по цифровой криминалистике Хани Фарид выразил скептицизм по поводу заметности водяного знака, отметив, что "этот маленький водяной знак вряд ли будет заметен большинству потребителей, которые прокручивают свои социальные сети с бешеной скоростью".

Негар Камали, исследователь из Школы менеджмента Келлога, изучающий поиск контента с помощью искусственного интеллекта, считает, что водяной знак должен быть более заметным.

Либо водяной знак должен быть более заметным, либо платформы, размещающие изображения, могли бы помещать рядом с ними заметку - что-то вроде "Проверьте наличие водяного знака, чтобы убедиться, что изображение сгенерировано искусственным интеллектом" - говорит она.

Оба эксперта признают, что видимые водяные знаки можно легко удалить путем обрезки или редактирования, хотя невидимый водяной знак SynthID от Google считается более устойчивым к взлому.

Проблема обнаружения Watermark'ов

Введение водяных знаков - это, по словам Google, "первый шаг", пока компания работает над тем, чтобы сделать свой детектор SynthID более доступным.

Тем не менее, это решение подчеркивает новую задачу помощи потребителям в идентификации контента, созданного искусственным интеллектом, не прибегая к специализированным инструментам обнаружения.

По словам Хани, хотя невидимый водяной знак SynthID трудно удалить, "обычный пользователь не сможет увидеть этот водяной знак без считывателя водяных знаков".

Когда видео с искусственным интеллектом станет неотличимо от реальности?

По мере развития технологий создания видео с помощью искусственного интеллекта мы приближаемся к порогу, когда синтетические кадры станут совершенно неотличимы от подлинных записей.

Нынешние модели, такие как Veo 3, уже производят удивительно убедительный контент, а визуальные ошибки и неточности уменьшаются с каждой итерацией.

Появление действительно неотличимого видео с искусственным интеллектом может кардинально изменить то, как общество обрабатывает визуальную информацию и определяет истину.

"Риски, связанные с поддельными и синтетическими роликами, хорошо известны и очевидны уже много лет, и тот факт, что технологическая индустрия не может защитить себя даже от таких хорошо понятных и очевидных рисков, является явным признаком того, что они не достаточно ответственны, чтобы справиться с еще более опасными, неконтролируемыми ИИ и AGI", - говорит Коннор Лихи, генеральный директор Conjecture, компании, занимающейся безопасностью ИИ.

"Компаниям необходимо уже сейчас создавать механизмы, позволяющие отличать подлинные изображения от синтетических", - заявила журналу TIME Маргарет Митчелл, главный специалист по этике ИИ в компании Hugging Face.

"Преимущества этих технологий могут заключаться в возможности снимать собственные фильмы или помогать людям с помощью ролевых игр в стрессовых ситуациях", - сказала она.

Google заявила, что планирует сосредоточить свои усилия на защите пользователей.

В заявлении, предоставленном Mashable, представитель Google сказал: "Veo 3 пользуется огромной популярностью с момента запуска. Мы ответственно подходим к разработке ИИ и придерживаемся четкой политики, направленной на защиту пользователей от вреда и регулирование использования наших инструментов ИИ".

Эта статья является экземпляром CROSS-текста. Такие тексты отлично продвигают сайты в ТОП органического поиска Яндекс и Google. Здесь я пишу об этом более подробно.

Nikita Interactive, founder

Искренне Ваш,

Nikita Interactive

Комментарии (0)

Ссылки по теме

Это реальная история!

Раздел с CROSS-текстами дополнительно привлек 18 090 пользователей за 9 месяцев.

На новом сайте. Без ссылок.