Google divulga escala de reclamações sobre conteúdo terrorista feito com IA
Publicada em
Atualizada em
Por Byron Kaye
SYDNEY (Reuters) - O Google informou às autoridades australianas que recebeu mais de 250 reclamações em todo o mundo, ao longo de quase um ano, envolvendo o uso de seu software de inteligência artificial na criação de conteúdo relacionado a terrorismo 'deepfake'.
A companhia também afirmou que recebeu dezenas de relatórios de usuários alertando que seu programa de IA, Gemini, está sendo usado para criar material de abuso infantil, de acordo com a Comissão Australiana de Segurança Eletrônica.
De acordo com a legislação australiana, as empresas de tecnologia devem fornecer periodicamente à Comissão de Segurança Eletrônica informações sobre os esforços de minimização de danos ou correm o risco de serem multadas. O período do relatório abrangeu abril de 2023 a fevereiro de 2024.
Desde que o ChatGPT, criado pela OpenAI se tornou popular no mundo no final de 2022, órgãos reguladores têm cobrado melhores proteções para que a IA não possa ser usada em atos de terrorismo, fraude, pornografia deepfake e outros abusos.
A Comissão Australiana de Segurança Eletrônica chamou a divulgação do Google de 'primeiro insight mundial' sobre como os usuários podem estar explorando a tecnologia para produzir conteúdo ilegal.
'Isso ressalta como é fundamental que as empresas que desenvolvem produtos de IA incorporem e testem a eficácia de mecanismos de proteção para evitar que esse tipo de material seja gerado', disse a comissária de segurança eletrônica, Julie Inman Grant, em comunicado.
No levantamento, o Google disse que recebeu 258 denúncias de usuários sobre suspeitas de conteúdo terrorista ou extremista violento deepfake gerado por IA usando o Gemini, e outras 86 denúncias alegando material de exploração ou abuso infantil gerado por IA. A empresa não informou quantas das reclamações foram verificadas, de acordo com o órgão regulador.
Um porta-voz do Google disse que a empresa não permite a geração ou distribuição de conteúdo relacionado à facilitação de extremismo violento ou terror, exploração ou abuso infantil ou outras atividades ilegais.
'Estamos empenhados em expandir nossos esforços para ajudar a manter os australianos seguros online', disse o porta-voz por email. 'O número de denúncias de usuários do Gemini que fornecemos à eSafety representa o volume global total de denúncias de usuários, e não violações confirmadas da política.'
O Google usou um sistema de correspondência automática de imagens recém-carregadas com imagens já conhecidas para identificar e remover material de abuso infantil feito com o Gemini. Mas a empresa não utilizou a mesma técnica para eliminar material terrorista ou extremista violento gerado com sua tecnologia de IA, acrescentou o órgão regulador.
Escrito por Reuters
SALA DE BATE PAPO