Amodei alerta sobre riscos globais de IAs com capacidades militares avançadas e questões sérias sobre segurança geopolítica.
O CEO da empresa de tecnologia Anthropic e ex-vice-presidente de Pesquisa da OpenAI, Dario Amodei, fez um alerta impactante durante uma entrevista recente. Ele ressaltou a importância de discutir o futuro das Inteligências Artificiais (IA), levantando preocupações sobre a possível autonomia dessas tecnologias em um curto espaço de tempo. De acordo com Amodei, entre 2025 e 2028, as IAs podem atingir um estágio de desenvolvimento que permitirá a sua tomada de decisões de forma autônoma, gerando implicações significativas para a segurança global.
É crucial que medidas sejam tomadas para garantir que a evolução da Inteligência Artificial seja acompanhada de maneira ética e responsável. As organizações envolvidas no desenvolvimento de IA devem estabelecer padrões rigorosos de segurança, a fim de evitar possíveis impactos indesejados. O trabalho de empresas como a Anthropic, que desenvolvem critérios de segurança, como os identificados pela sigla ASL, são fundamentais para orientar o avanço seguro da IA.
IA: Evolução e Implicações Futuras
Amodei alerta que parece estarmos atualmente no nível 2 em relação à Inteligência Artificial, onde modelos de linguagem já demonstram a capacidade de fornecer informações potencialmente perigosas, como instruções para a construção de armas biológicas, por exemplo. Contudo, ele ressalta que essas informações ainda são pouco confiáveis e apresentam um risco relativamente baixo em comparação com cenários futuros.
No entanto, as preocupações se intensificam ao considerarmos o potencial alcançado nos níveis superiores. No nível 3, que poderá ser alcançado em breve, o risco de uma catástrofe aumenta consideravelmente, com a possibilidade de uso dessas tecnologias em armas biológicas e cibernéticas. A escalada segue, e Amodei destaca o nível 4, ainda como especulação, que traria características como autonomia, incluindo a capacidade independente de reprodução de sistemas e habilidade de persuasão.
Estima-se que modelos classificados nesse nível possam emergir entre 2025 e 2028, levantando questões sérias sobre os níveis de segurança para a sociedade global diante do potencial uso militar dessas tecnologias. A evolução das capacidades militares com IA é uma realidade iminente, e monitorar de perto o desenvolvimento e aplicação dessas tecnologias torna-se crucial para garantir um futuro seguro.
Em meio a esse panorama, a participação de empresas do porte da Amazon e Google no setor de IA é notável, impulsionando o progresso tecnológico e a competição saudável. A Anthropic, por exemplo, lançou recentemente seu próprio modelo de linguagem, o Claude, apresentando uma abordagem tida como mais responsável em relação à OpenAI. Os fundadores da Anthropic, dissidentes da empresa associada ao ChatGPT, enfatizam a ética e segurança em cada etapa de desenvolvimento.
A IA da Anthropic já está em sua terceira versão desde março deste ano, mostrando um crescimento acelerado e constante na busca pela inovação responsável. Em um cenário onde a tecnologia avança a passos largos, a atenção aos detalhes e às implicações éticas torna-se vital para uma coexistência harmoniosa com a Inteligência Artificial.
Explorando Novos Horizontes com a Inteligência Artificial
Fonte: © CNN Brasil
Comentários sobre este artigo