|
0
Дипфейки захватывают интернет — Microsoft предложила план спасения от подделокMicrosoft разработала набор стандартов, призванных помочь дать оценку реальности материалов, размещаемых в интернете. Специалисты компании решили оценить, насколько эффективны методы документирования цифровых манипуляций с контентом, таких как дипфейки и созданные ИИ гиперреалистичные изображения — так появились технические стандарты, которые смогут использовать разработчики ИИ и платформы соцсетей. Потребность в проекте вызвали многочисленные законодательные инициативы, в том числе «Закон о прозрачности ИИ», который вступит в силу в августе в американский Калифорнии. Но в Microsoft отказались дать ответ, будет ли сама компания применять эти рекомендации на собственных платформах. В её распоряжении есть группа ИИ-сервисов Copilot, способных генерировать текст и изображения; облачная платформа Azure, на которой запускаются модели ИИ; доля в ИИ-разработчике OpenAI; а также профессиональная соцсеть LinkedIn. Отмечается, что предложенные Microsoft средства не предназначаются, чтобы определять истинность или ложность самих материалов, — они лишь показывают, подвергались ли эти материалы манипуляциям, то есть дают представление о происхождении информации. Если бы отрасль взяла эти инструменты на вооружение, обманывать общественность с помощью сфабрикованного контента стало бы намного сложнее, считают эксперты. В 2021 году Microsoft предложила стандарт C2PA, предназначенный, чтобы отслеживать происхождение контента; с 2023 года Google стала добавлять водяной знак к созданным ИИ материалам; но полный набор средств, которые теперь предлагает Microsoft, рискует остаться только предложением, если участники рынка увидят в нём угрозу для своих бизнес-моделей. Существующие средства не всегда надёжны: только 30 % тестовых публикаций в Instagram✴, LinkedIn, Pinterest, TikTok и YouTube получили правильную пометку как созданные ИИ, показало исследование. Поэтому ускоренное развёртывание тех или иных средств проверки контента рискованно — если они начнут давать сбои, то люди просто перестанут им доверять. Комплексные механизмы проверки представляются более надёжными. Так, если подвергнуть достоверное изображение лишь незначительному редактированию с помощью ИИ, платформы могут начать реагировать на него как на сгенерированное ИИ с нуля — комплексная проверка с меньшей вероятностью даст ложноположительный результат. Источник: 3Dnews. Вы должны быть зарегистрированы для написания комментариев. |