0

Дипфейки захватывают интернет — Microsoft предложила план спасения от подделок

Microsoft разработала набор стандартов, призванных помочь дать оценку реальности материалов, размещаемых в интернете. Специалисты компании решили оценить, насколько эффективны методы документирования цифровых манипуляций с контентом, таких как дипфейки и созданные ИИ гиперреалистичные изображения — так появились технические стандарты, которые смогут использовать разработчики ИИ и платформы соцсетей.

Потребность в проекте вызвали многочисленные законодательные инициативы, в том числе «Закон о прозрачности ИИ», который вступит в силу в августе в американский Калифорнии. Но в Microsoft отказались дать ответ, будет ли сама компания применять эти рекомендации на собственных платформах. В её распоряжении есть группа ИИ-сервисов Copilot, способных генерировать текст и изображения; облачная платформа Azure, на которой запускаются модели ИИ; доля в ИИ-разработчике OpenAI; а также профессиональная соцсеть LinkedIn.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Отмечается, что предложенные Microsoft средства не предназначаются, чтобы определять истинность или ложность самих материалов, — они лишь показывают, подвергались ли эти материалы манипуляциям, то есть дают представление о происхождении информации. Если бы отрасль взяла эти инструменты на вооружение, обманывать общественность с помощью сфабрикованного контента стало бы намного сложнее, считают эксперты.

В 2021 году Microsoft предложила стандарт C2PA, предназначенный, чтобы отслеживать происхождение контента; с 2023 года Google стала добавлять водяной знак к созданным ИИ материалам; но полный набор средств, которые теперь предлагает Microsoft, рискует остаться только предложением, если участники рынка увидят в нём угрозу для своих бизнес-моделей.

Существующие средства не всегда надёжны: только 30 % тестовых публикаций в Instagram, LinkedIn, Pinterest, TikTok и YouTube получили правильную пометку как созданные ИИ, показало исследование. Поэтому ускоренное развёртывание тех или иных средств проверки контента рискованно — если они начнут давать сбои, то люди просто перестанут им доверять. Комплексные механизмы проверки представляются более надёжными. Так, если подвергнуть достоверное изображение лишь незначительному редактированию с помощью ИИ, платформы могут начать реагировать на него как на сгенерированное ИИ с нуля — комплексная проверка с меньшей вероятностью даст ложноположительный результат.

Источник: 3Dnews.

НравитсяНе нравится
0
Loading ... Loading ...

Вы должны быть для написания комментариев.