A OpenAI anuncia GPT-4, seu mais recente modelo de linguagem AI, que alimentará aplicativos como o Bing e o ChatGPT. Embora a empresa afirme que o modelo é “mais criativo e colaborativo do que nunca”, a OpenAI adverte que ele retém muitos dos mesmos problemas dos modelos de linguagem anteriores.
A empresa também anunciou parcerias com várias empresas, incluindo Duolingo, Stripe e Khan Academy, para integrar o GPT-4 em seus produtos. O novo modelo estará disponível para o público em geral por meio do ChatGPT Plus, a assinatura mensal do ChatGPT de $20 da OpenAI, e como uma API para desenvolvedores.
A melhoria do GPT-4 é mais iterativa do que um grande salto em relação aos sistemas anteriores, como especulado anteriormente. O modelo é capaz de analisar entradas de texto e imagem e emitir saídas de texto. A OpenAI adiou o lançamento do GPT por medo de que fosse usado para fins maliciosos, mas lançou o ChatGPT em 2022.
Saiba mais: ChatGPT já ajudou motorista a evitar multa de estacionamento
OpenAI anuncia GPT-4: tradutor de memes e imagens
Em seu anúncio do GPT-4, a OpenAI enfatizou que o sistema passou por seis meses de treinamento de segurança e que, em testes internos, era “82% menos propenso a responder a solicitações de conteúdo não permitido e 40% mais propenso a produzir informações factuais”. respostas do que GPT-3.5.”
O GPT-4 é um sistema de inteligência artificial que tem a capacidade de processar entradas de texto e imagem e emitir saídas de texto. No entanto, sua capacidade multimodal ainda é limitada em comparação com as expectativas iniciais.
Ainda assim, a capacidade de analisar texto e imagem simultaneamente permite interpretar entradas mais complexas. Por exemplo, o modelo pode ser treinado para entender a relação entre a imagem e o texto associado, permitindo que ele possa explicar memes e imagens incomuns.
Essa habilidade pode ter aplicações em áreas como reconhecimento de imagens, análise de sentimentos e atendimento ao cliente. O GPT-4 também pode ser utilizado para gerar descrições de imagens e vídeos, o que pode ser útil para pessoas com deficiência visual ou para tornar a informação visual mais acessível a todos os usuários.
Saiba mais: Como usar o ChatGPT no WhatsApp? Passo a passo simples
No exemplo abaixo o usuário pergunta: o que tem de engraçado nesta imagem. Descreva cada uma delas.
Outro exemplo é a interpretação de uma imagem absurda, onde um homem passa roupa pendurado na traseira de um táxi.
Por fim, outra habilidade é o de traduzir ou explicar meme ou imagens engraçadas. Neste caso, o usuário perguntou se a inteligência poderia explicar o meme de uma montagem do mapa do mundo com nuggets de frango.
A empresa afirma que o modelo é “mais criativo e colaborativo do que nunca” e “pode resolver problemas difíceis com maior precisão”. Ele pode analisar tanto entrada de texto quanto de imagem, mas só pode responder via texto. A OpenAI também alerta que os sistemas retêm muitos dos mesmos problemas de modelos de linguagem anteriores, incluindo a tendência de inventar informações (ou “alucinar”) e a capacidade de gerar texto violento e prejudicial.