Крупнейшие IT компании разработают технологию водяных знаков для изображений, которые создает ИИ

Семь компаний, в том числе OpenAI, Microsoft, Google, Amazon, Anthropic и Inflection, взяли на себя обязательство разработать технологию, позволяющую наносить водяные знаки на контент, созданный искусственным интеллектом.
Крупнейшие IT компании разработают технологию водяных знаков для изображений, которые создает ИИ

Крупнейшие IT компании разработают технологию водяных знаков для изображений, которые создает ИИ. Фото: СС0

Администрация Байдена надеется, что это поможет сделать более безопасным обмен текстом, видео, аудио и изображениями, созданными ИИ, не вводя других в заблуждение относительно подлинности этого контента.

В настоящее время неясно, как будет работать водяной знак, но, скорее всего, он будет встроен в контент, чтобы пользователи могли проследить его происхождение до инструментов искусственного интеллекта, которые использовались для его создания.

Дипфейки стали новой проблемой как для интернет-пользователей, так и для политиков и технологические компании пытаются решить, как поступить со спорным использованием инструментов ИИ.

Ранее генератор изображений Midjourney использовался для создания поддельных изображений ареста Дональда Трампа, которые впоследствии стали вирусными. Хотя для многих было очевидно, что изображения были фальшивыми, команда Midjourney все же решила заблокировать пользователя, который их сделал . Возможно, если бы водяной знак был доступен тогда, этот пользователь, основатель Bellingcat Элиот Хиггинс, никогда бы не столкнулся с такими суровыми последствиями за то, что, по его словам, «было не попыткой умничать или обмануть других, а просто повеселиться с Midjourney», сообщает Arstechnica.

Однако есть и другие, более серьезные случаи неправильного использования инструментов ИИ, когда водяной знак может помочь спасти некоторых интернет-пользователей отпроблем. Ранее сообщалось, что программное обеспечение, генерирующее голос ИИ, использовалось для выманивания денег у людей. Только в прошлом месяце ФБР предупредило о росте использования дипфейков, созданных ИИ.

Белый дом заявил, что водяной знак позволит «творчеству с ИИ процветать, но снизит опасность мошенничества и обмана».

Администрация OpenAI сообщила в блоге , что согласилась «разработать надежные механизмы, включая системы происхождения и/или водяных знаков для аудио- или визуального контента», а также «инструменты или API для определения того, был ли конкретный фрагмент контента создан с помощью их системы». Мера будет применяться к большинству контента, созданного ИИ, за редкими исключениями, такими как отсутствие водяных знаков для голосов помощников ИИ по умолчанию.

Из сообщения OpenAI:

«Аудиовизуальный контент, который легко отличить от реальности или создан так, чтобы его можно было легко распознать как созданный системой искусственного интеллекта компании, например, голоса помощников искусственного интеллекта по умолчанию, выходит за рамки этого обязательства».

В Google заявили, что в дополнение к водяным знакам компания «интегрирует метаданные» и «другие инновационные методы» для «продвижения достоверной информации».

Поскольку опасения по поводу неправильного использования ИИ нарастают, президент Джо Байден встретится с топ-менеджерами технологическими компаниями. Это должно помочь Байдену и Конгрессу получить ключевую информацию до разработки исполнительного указа и двухпартийного законодательства в попытке вернуть себе контроль над быстро развивающимися технологиями искусственного интеллекта.

В блоге Microsoft похвалила администрацию Байдена за создание «основы, помогающей гарантировать, что обещания ИИ опережают связанные с ним риски» и «объединение технологической отрасли для выработки конкретных шагов, которые помогут сделать ИИ более безопасным, защищенным и более полезным для общества».

Помимо разработки водяных знаков для контента, созданного ИИ, технологические компании взяли на себя ряд других добровольных обязательств, о которых Белый дом объявил в пятницу.

Среди них технологические компании согласились провести как внутреннее, так и внешнее тестирование систем ИИ перед их выпуском. Они также заявили, что будут больше инвестировать в кибербезопасность и делиться информацией со всей отраслью, чтобы снизить риски ИИ. Эти риски включают все: от искусственного интеллекта, допускающего предвзятость или дискриминацию, до снижения барьеров для разработки продвинутого оружия, говорится в блоге OpenAI. В блоге Microsoft говорится о дополнительных обязательствах, взятых на себя Белым домом. В их числе поддержка разработки национального реестра, документирующего системы искусственного интеллекта с высоким уровнем риска.

Администрация OpenAI заявила, что технологические компании, взявшие на себя эти обязательства, «являются важным шагом в продвижении осмысленного и эффективного управления ИИ как в США, так и во всем мире». Создатель ChatGPT, GPT-4 и DALL-E 2 также пообещал «инвестировать в исследования в областях, которые могут помочь в регулировании, таких как методы оценки потенциально опасных возможностей в моделях ИИ».

В Google назвали эти обязательства «вехой в объединении отрасли, чтобы гарантировать, что ИИ поможет всем».

Белый дом ожидает, что повышение стандартов ИИ повысит безопасность, защищенность и доверие к ИИ.

Startpack подготовил список систем искусственного интеллекта. Искусственный интеллект (ИИ) широко используется в бизнесе — начиная от повышения качества обслуживания клиентов до автоматизации бизнес-процессов. Один из видов искусственного интеллекта — нейронные сети. Нейросети с помощью алгоритмов способны распознавать закономерности в данных и генерировать новые. Это лишь часть сфер, где может применяться искусственный интеллект. Внедрение искусственного интеллекта в работу компании сократит расходы и время.

Статьи по теме

Упомянутый сервис

ChatGPT Нейросеть для общения и генерации идей.
Нейросеть для общения и генерации идей.

Больше интересного

Актуальное

Приложение Outlook заменяет Почту и Календарь в новой предварительной версии Windows 11
Добавление текста к изображению в Docs, Sheets, Slides и Drawings стало проще
Критические ошибки AMI MegaRAC могут позволить хакерам заблокировать уязвимые серверы
Ещё…