Big techs se unem contra a falsificação de produtos na China
OpenAI, Google e Anthropic deixam de lado a rivalidade e estão compartilhando informações por meio do Frontier Model Forum
10/04/202617/03/2023

Por redação AIoT Brasil
Os rumores que circulavam nas redes se confirmaram e a OpenAI anunciou oficialmente o lançamento da nova versão do ChatGPT, chamada de GPT-4, com mais funcionalidades e as limitações semelhantes aos sistemas anteriores. De acordo com a OpenAI, o GPT-4 é mais avançado e produz respostas “mais seguras e úteis”, podendo resolver problemas difíceis com maior precisão, “graças ao seu conhecimento geral mais amplo e novas habilidades”.
A empresa também afirmou: “O GPT-4 está mais criativo e colaborativo do que nunca. Pode gerar e editar conteúdo e interagir com os usuários em tarefas de redação criativa e técnica, como compor músicas, escrever roteiros ou aprender o estilo de escrita de um usuário”. Disse ainda que a versão 4 supera o ChatGPT em seus recursos avançados de raciocínio e “ao pontuar em percentuais aproximados mais altos entre os participantes dos testes”.
A OpenAI acrescenta: “Seguindo o caminho de pesquisa do GPT, GPT-2 e GPT-3, nossa abordagem de aprendizado profundo aproveita mais dados e mais computação para criar modelos de linguagem cada vez mais sofisticados e capazes”. De fato, algumas das melhorias introduzidas no GPT-4 impressionam, mas a própria OpenAI admite que o sistema ainda apresenta falhas semelhantes àquelas encontradas nos modelos anteriores – ou seja, ainda não atingiu a perfeição.
A empresa passou mais de seis meses no trabalho de alinhamento dos sistemas do novo modelo e no esforço de torná-lo mais seguro. De acordo com dados avançados da pesquisa, a tendência do GPT-4 para responder a questões relacionadas com conteúdo inapropriado foi reduzida em 82%, na comparação com o GPT-3.5. Além disso, a versão tem 40% a mais de probabilidade de gerar respostas factuais.
O novo sistema está disponível no ChatGPT Plus e já há uma lista de espera para usar sua API. O GPT-4 é multimodal, mas, diferentemente do que foi dito anteriormente pela Microsoft, ainda não consegue receber inputs a partir de vídeo, concentrando-se, por enquanto, em imagens e texto. Embora receba inputs com imagens, o modelo continua a gerar resultados textuais. A OpenAI disse que essa funcionalidade está ainda em modo “preview”, para um público restrito.
Nesse sentido, a empresa buscou a colaboração dos criadores do aplicativo Be My Eyes, destinado a pessoas com deficiência visual, a fim de preparar a funcionalidade de interpretação de imagens para o público em geral. Sam Altman, CEO da OpenAI, afirmou também que será necessário mais algum tempo para mitigar os desafios de segurança associados à versão 4.

OpenAI, Google e Anthropic deixam de lado a rivalidade e estão compartilhando informações por meio do Frontier Model Forum
10/04/2026
Pesquisa mostra uma mudança profunda na liderança na área, e quase três quartos dos CEOs já são os principais responsáveis pelas decisões de IA
08/04/2026
Comunidade de editores voluntários concordou que a tecnologia só será permitida para traduções e pequenas edições de texto
31/03/2026