Empresa suspendeu recursos de IA generativa no Brasil devido ao ambiente regulatório imprevisível. Novo modelo inteligência não será lançado no bloco europeu.
A Meta, empresa responsável pelo Instagram, Facebook e WhatsApp, anunciou hoje que irá postergar a introdução de seu mais recente modelo de inteligência artificial (IA) na União Europeia devido ao cenário regulatório imprevisível, conforme reportado pela mídia.
Essa decisão da Meta reflete a importância de se adaptar às diferentes legislações e diretrizes em relação à IA. A empresa está comprometida em garantir a conformidade com as normas vigentes, buscando sempre inovar e aprimorar suas tecnologias de inteligência artificial para proporcionar uma experiência cada vez mais segura e eficiente aos usuários.
Meta suspende recursos de IA generativa no Brasil após ordem da ANPD
A declaração da Meta sobre a suspensão dos recursos de inteligência artificial generativa no Brasil veio à tona um dia após a empresa receber a ordem da Autoridade Nacional de Proteção de Dados (ANPD) para interromper a coleta de dados de usuários destinada ao treinamento de sua IA. Este movimento no mercado brasileiro reflete a crescente atenção ao ambiente regulatório imprevisível que envolve o uso de tecnologias avançadas, como a IA.
A Meta anunciou seus planos de lançar um novo modelo inteligente, o Llama, nos próximos meses, mas com uma ressalva: a União Europeia não será incluída devido à imprevisibilidade do ambiente regulatório europeu. Em comunicado a veículos de imprensa como ‘The Guardian’, ‘The Verge’ e ‘Axios’, a empresa destacou a natureza complexa do cenário regulatório que influencia suas decisões de expansão.
O Llama, um modelo de IA multimodal, promete revolucionar a forma como lidamos com textos, imagens e áudios, oferecendo uma abordagem inovadora e aberta. Com a possibilidade de acesso ao código-fonte, desenvolvedores externos poderão contribuir para a evolução dessa tecnologia de ponta.
Enquanto a Meta enfrenta obstáculos na União Europeia, no Brasil a questão está relacionada aos recursos baseados em IA generativa, como o popular criador de figurinhas do WhatsApp. A preocupação com a conformidade do Llama com o GDPR, equivalente europeu à Lei Geral de Proteção de Dados (LGPD) brasileira, levanta questionamentos sobre a adequação das práticas da empresa aos padrões internacionais.
Além disso, a União Europeia aprovou recentemente uma legislação abrangente sobre inteligência artificial, impondo novas responsabilidades às empresas a partir de agosto. Essas mudanças regulatórias refletem a crescente importância de garantir a transparência e a ética no desenvolvimento e uso da IA em todo o mundo.
Em um contexto mais amplo, a Meta já havia enfrentado restrições semelhantes na Irlanda, onde a Autoridade de Proteção de Dados (DPC) havia ordenado a interrupção da coleta de dados para treinar sua IA. Esses desafios regulatórios destacam a necessidade de as empresas se adaptarem a um ambiente cada vez mais complexo e exigente em relação à proteção de dados e ao uso da inteligência artificial.
Por fim, a discussão em torno da coleta de dados para treinamento de IA levanta questões importantes sobre privacidade, segurança e responsabilidade no desenvolvimento de tecnologias inovadoras. O caso da Meta no Brasil e na União Europeia destaca a importância de encontrar um equilíbrio entre a inovação tecnológica e a conformidade com as regulamentações em constante evolução.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo