Correio de Carajás

Google, Meta e OpenAI passarão a identificar conteúdos gerados por IA

Uma das medidas pode ser a inserção de marcas d'água em textos, imagens, áudios e vídeos. O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia na Casa Branca.

Site do ChatGPT, um chatbot de IA da OpenAI — Foto: Florence Lo/Illustration/ Reuters

As principais empresas de Inteligência Artificial (IA), como a OpenAI, Google e Meta, assumiram compromissos com a Casa Branca para implementar medidas que identifiquem o conteúdo gerado por IA, informou o governo dos Estados Unidos, nesta sexta-feira (21).

O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia.

As empresas – que também incluem a Anthropic, Inflection e Amazon – se comprometeram a testar os sistemas antes de lançá-los e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética.

A medida é vista como uma vitória do governo Biden para regulamentar tecnologias de inteligência artificial, que experimentou recentemente um boom de investimentos das empresas.

Regulação nos EUA

 

Desde que a IA se popularizou no mundo, especialmente após o surgimento do ChatGPT, legisladores de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.

O líder do Senado nos EUA, Chuck Schumer, pediu em junho uma “legislação abrangente” para avançar e garantir salvaguardas para a inteligência artificial.

O Congresso está considerando um projeto de lei para exigir que anúncios políticos revelem se a IA foi usada para criar imagens ou outro conteúdo.

O presidente Joe Biden também está trabalhando no desenvolvimento de uma ordem executiva e legislação bipartidária sobre tecnologia de IA.

Sistema para ‘marca d’água’

 

Como parte do esforço, as empresas se comprometeram a desenvolver um sistema de “marca d’água” que deve ser usado em diferentes formas de conteúdo, desde texto, imagens, áudios e até vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.

Essa marca d’água, provavelmente, tornará mais fácil para os usuários identificar imagens ou áudios deep-fake que podem, por exemplo, mostrar um ato de violência que não ocorreu, criar um golpe ou distorcer uma foto de um político.

Não está claro como a marca d’água ficará evidente no compartilhamento das informações.

As empresas também se comprometeram a se concentrar em proteger a privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia não seja usada para discriminar grupos vulneráveis.

Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.

(Fonte:G1)