0

Anthropic, Google, Microsoft и OpenAI совместно займутся контролируемым и безопасным развитием ИИ

Четыре ведущие компании в области ИИ — Anthropic, Google, Microsoft и OpenAI — объединили усилия для создания исследовательской группы, получившей название Frontier Model Forum (FMF). Целью нового объединения стало обеспечение безопасного и ответственного развития передовых моделей ИИ в условиях растущего общественного беспокойства и внимания регуляторов по всему миру.

 Источник изображения: Placidplace / Pixabay

Источник изображения: Placidplace / Pixabay

За последние месяцы эти четыре американские компании представили миру мощные инструменты ИИ, способные создавать оригинальный контент в форме изображений, текста и видео. Это вызвало возмущение как писателей и художников в части нарушения их авторских прав, так и подогрело опасения регуляторов из-за угрозы конфиденциальности граждан и возможности замены людей ИИ в различных сферах труда.

«Компании, создающие технологии ИИ, несут ответственность за обеспечение их безопасности, надёжности и сохранения под человеческим контролем», — заявил Брэд Смит (Brad Smith), вице-председатель и президент Microsoft.

Членство в организации ограничено компаниями, создающими масштабные модели машинного обучения, превосходящие возможности наиболее продвинутых существующих моделей. Это указывает на то, что работа форума будет сосредоточена на потенциальных рисках, исходящих от значительно более мощного ИИ, а не на ответах на вопросы о копирайте, защите данных и приватности, которые актуальны для регуляторов сегодня.

Frontier Model Forum будет способствовать исследованиям в области безопасности ИИ и станет связующим звеном между индустрией и законодателями. Подобные группы создавались и ранее. Например, The Partnership on AI (GPAI) было создано в 2016 году при участии Google и Microsoft и представителей гражданского общества, академического сообщества и индустрии. Его миссией было продвижение ответственного использования ИИ.

Создание Frontier Model Forum подчёркивает важность прозрачности, ответственности и безопасности в области ИИ. Это шаг вперёд в управлении рисками, связанными с передовыми моделями ИИ, и важный момент в истории развития технологий.

Источник: 3Dnews.

НравитсяНе нравится
0
Loading ... Loading ...

Вы должны быть для написания комментариев.