ouça este conteúdo
Nova versão do modelo de IA da OpenAI com rede neural única, tons emocionais, Assistência Virtual Avançada. OpenAI anuncia treinamento.
Tudo sobre Inteligência Artificial ver mais No começo do mês de maio, a OpenAI, desenvolvedora do ChatGPT, anunciou o GPT-4, a nova versão do modelo de inteligência artificial (AI) de linguagem de grande escala, prometendo um avanço revolucionário. A novidade é o primeiro modelo da empresa criado para combinar textos, imagens e áudios em tempo real, e por conta própria.
O GPT-4 da OpenAI, também conhecido como 4ª Omni, está revolucionando o campo da inteligência artificial. Com essa nova versão, a empresa está elevando o patamar da tecnologia, incorporando recursos inovadores e avançados. O modelo inteligência artificial está cada vez mais próximo de simular interações humanas de forma autônoma e eficaz, marcando um marco significativo no desenvolvimento tecnológico.
OpenAI Anuncia Treinamento de Nova Versão do GPT-4
De acordo com a OpenAI, o GPT-4 conta com mais capacidade para entender os conteúdos do que o modelo anterior GPT-4, de março de 2023, que é pago. Leia mais: GPT-5 a caminho? OpenAI anuncia treinamento de novo modelo de IA ChatGPT: OpenAI vaza, ‘sem querer’, detalhes do GPT-4.5 Turbo; saiba mais 3 formas de acessar o ChatGPT-4 de graça. A atualização está sendo liberada de forma gradual para todos os usuários, até mesmo quem utiliza a versão gratuita. Confira abaixo quais as principais diferenças e avanços propostos pela nova versão do Chat GPT.
ChatGPT 4 Omni: Uma Nova Versão do Modelo de Inteligência Artificial
Quais as diferenças entre o GPT-4 e o GPT-4o? O nome da nova versão vem de ChatGPT 4 Omni, no qual ‘omni’ é um radical de origem latina, que significa ‘tudo’. No nosso idioma, ele costuma aparecer como o prefixo ‘oni’, como em onisciente (ciente de tudo). O novo GPT-4o melhora a capacidade do GPT-4, por inovar na forma em que interage com os usuários. A principal diferença é a possibilidade de responder a comandos através de áudio, ‘visão’ e texto em tempo real.
Novidades do GPT-4o: Avanços em Processamento Multimodal
Sendo assim, o GPT-4o pode entender uma combinação feita com áudio, texto e imagem, e responder utilizando os mesmos meios de comunicação. De forma prática, o usuário consegue manter uma conversa com o chatbot de maneira mais parecida a uma entre duas pessoas. As versões anteriores precisavam de ferramentas diferentes para analisar textos, imagens e áudio, como extensões para navegadores, ou GPTs personalizados. Porém, o novo modelo foi treinado para processar todos os formatos em uma só rede neural.
Rede Neural Única e Tons Emocionais: O GPT-4o em Ação
Além disso, o novo GPT-4o possui mais uma diferença: a rapidez em que se consegue processar comandos de voz. Em média, ele é capaz de responder a estas entradas em 320 milissegundos, um tempo parecido com o que uma pessoa leva para responder em uma conversa real. O novo modelo também apresenta um desempenho superior em áreas como velocidade de saída, qualidade das respostas e idiomas suportados, que não existiam em seu antecessor. O atual consegue gerar resultados com mais qualidade, gramaticalmente corretos e concisos, em inglês e outras línguas. Diferente dos modelos antecessores, o GPT-4o utiliza uma única rede neural em vez de redes neurais separadas, para processar diferentes dados de entrada. Sendo assim, a nova versão pode detectar ruídos de fundo, multi-falantes e tons emocionais nas entradas, e adicioná-los ao processo de geração de saída.
Assistência Virtual Avançada: O GPT-4o na Prática
Entre todas as novidades e mudanças, uma delas também é a possibilidade de ser usado como Assistência Virtual Avançada, graças à sua capacidade de processar entradas de voz, texto e imagem. Com isso, é possível ter um assistente pessoal capaz de agendar compromissos, fazer pesquisas, passar instruções passo a passo e até mesmo analisar documentos ou imagens enviados pelo usuário. Quando o GPT-4o estará disponível? Será gratuito? O novo GPT-4o vai estar disponível gradualmente para os.
Fonte: @Olhar Digital
Comentários sobre este artigo