Capa do Álbum: Antena 1
A Rádio Online mais ouvida do Brasil
Antena 1

Comissão dos EUA se prepara para questionar empresas de IA sobre impacto nas crianças, informa WSJ

Comissão dos EUA se prepara para questionar empresas de IA sobre impacto nas crianças, informa WSJ

Reuters

04/09/2025

Placeholder - loading - Logotipo da OpenAI 20/05/2024 REUTERS/Dado Ruvic/Foto ilustrativa
Logotipo da OpenAI 20/05/2024 REUTERS/Dado Ruvic/Foto ilustrativa

(Reuters) - A Comissão Federal de Comércio dos EUA (FTC) está se preparando para examinar os riscos à saúde mental dos chatbots de IA para crianças e exigirá documentos internos das principais empresas de tecnologia, incluindo OpenAI, Meta e Character.AI, noticiou o Wall Street Journal nesta quinta-feira.

A agência está preparando cartas para enviar às empresas que operam chatbots populares, disse a reportagem, citando integrantes do governo.

'A Character.AI não recebeu uma carta sobre o estudo da FTC, mas estamos dispostos a trabalhar com os reguladores e parlamentares quando eles começarem a considerar a legislação para esse espaço emergente', disse a empresa.

A FTC, a OpenAI e a Meta não responderam imediatamente aos pedidos de comentários da Reuters. A Reuters não pôde verificar a reportagem de forma independente.

A FTC e todo o governo estão focados em cumprir o mandato de Trump 'para consolidar o domínio da América em IA, criptomoeda e outras tecnologias de ponta do futuro' sem comprometer a segurança e o bem-estar das pessoas, disse um porta-voz da Casa Branca.

A notícia chega semanas depois que uma reportagem exclusiva da Reuters revelou como a Meta permitiu um comportamento provocante de chatbot com crianças, incluindo permitir que os bots se envolvessem em 'conversas românticas ou sensuais'.

Na semana passada, a empresa de mídia social disse que adicionaria novas salvaguardas para adolescentes aos seus produtos de inteligência artificial, treinando sistemas para evitar conversas de flerte e discussões sobre automutilação ou suicídio com menores, e limitando temporariamente o acesso a determinados personagens de IA.

Em junho, mais de 20 grupos de defesa do consumidor apresentaram uma queixa à FTC e a procuradores-gerais estaduais, alegando que as plataformas de IA, como Meta AI Studio e Character.AI, permitem a prática não licenciada da medicina ao hospedar 'bots de terapia'.

O procurador-geral do Texas, Ken Paxton, iniciou uma investigação sobre a Meta e a Character.AI no mês passado por supostamente enganar crianças com serviços de saúde mental gerados por IA, acusando-as de práticas comerciais enganosas e violações de privacidade.

(Reportagem de Harshita Mary Varghese, Akash Sriram e Kritika Lamba em Bengaluru)

Reuters

Compartilhar matéria

Mais lidas da semana

 

Carregando, aguarde...

Este site usa cookies para garantir que você tenha a melhor experiência.