Openai lança gpt-4o, modelo mais rápido, gratuito e que pode "ver" com a câmera do celular . Atualização chega com novos apps para celular e desktops e consegue entender e conversar melhor com o usuário, como se fosse um humano

OpenAI lança GPT-4o, modelo mais rápido, gratuito e que pode “ver” com a câmera do celular 

Avatar de victor pacheco
Atualização chega com novos apps para celular e desktops e consegue entender e conversar melhor com o usuário, como se fosse um humano

Em, rápido evento realizado em seu canal no YouTube, fomos apresentados ao novo modelo de linguagem da OpenAI, chamado de GPT-4o. O LLM promete ser duas vezes mais rápido e 50% mais barato que o GPT-4 Turbo, mais completo modelo de linguagem da empresa até hoje. Veja todos os detalhes agora mesmo.

Vantagens do GPT-4o

Mira murati. Diretora de tecnologia da openai
Mira Murati, Diretora de Tecnologia da OpenAI, apresentou novo modelo de linguagem (Captura de tela: Glauco Vital/Showmetech)

O “o” de GPT-4o vem da palavra latina “omni”, que significa “tudo”. Durante o evento da OpenAI, Mira Murati, Diretora de Tecnologia da empresa, subiu ao palco para apresentar o novo modelo de linguagem. Ela ressaltou que a novidade poderá ser utilizada gratuitamente por todos que possuem uma conta da OpenAI, mas quem tem uma conta ChatGPT Pro terá 5x mais limite de mensagens.

A grande vantagem do novo modelo de linguagem está no suporte para mais de 97 idiomas, além da capacidade para criar textos, imagens e atuar de forma mais aprimorada do que o GPT-4 Turbo. A novidade também tem um recurso de memória, que registra conversas anteriores para uma melhor compreensão de chats no futuro.

A empresa também cita que o novo modelo de linguagem conseguirá realizar navegações na web em breve, mas não chegou a dizer se isso será liberado para usuários com contas gratuitas ou apenas para quem tem uma conta Pro.

Por fim, ao escutar o que o usuário está falando, o novo modelo de linguagem da OpenAI consegue compreender o estado de humor de uma pessoa. Em exemplo mostrado durante a apresentação, ele identificou que uma pessoa estaria nervosa apenas por sua respiração ofegante. O GPT-4o também consegue identificar o humor apenas por uma foto.

Openai lança gpt-4o, modelo mais rápido, gratuito e que pode "ver" com a câmera do celular . Atualização chega com novos apps para celular e desktops e consegue entender e conversar melhor com o usuário, como se fosse um humano
Novidade poderá ser acessada a partir de hoje (Imagem: Glauco Vital/Showmetech)

Mira Murati também compartilhou que, atualmente, mais de 100 milhões de pessoas usam o ChatGPT para a criação de imagens, textos e mais conteúdos. A executiva ressaltou o grande propósito da OpenAI em criar tecnologias acessíveis para todos e o lançamento do novo modelo de linguagem é mais uma forma de colocar este compromisso em prática.

Principais recursos e exemplos

Não há como negar que o GPT-4o mais se parece com um grande assistente pessoal, como o Google Assistente e Amazon Alexa. Durante o evento de novidades da OpenAI, foi mostrada a capacidade do LLM em conseguir usar a câmera do smartphone como apoio em suas tarefas.

O desenvolvedor Mark Chan simulou estar em uma situação nervosa e logo após identificar o comportamento anormal, o modelo de linguagem indicou exercícios para que ele ficasse mais calmo. Confira o vídeo abaixo:

O recurso mais interessante é a possibilidade do modelo de linguagem reconhecer expressões faciais, ambientes e mais, apenas usando a câmera do smartphone. Basta dar um comando para o ChatGPT e abrir a câmera e esperar que isso seja feito, em alguns segundos. Veja a demonstração:

Caso você seja uma pessoa que precisa de ajuda em problemas matemáticos, a inteligência artificial também pode ajudar na resolução disso, usando a câmera de apoio. Durante o evento de hoje, um desenvolvedor desenhou uma equação de primeiro grau (3X + 1 = 4) e, com apoio do novo modelo de linguagem presente no ChatGPT, conseguiu chegar ao resultado. Veja outra demonstração:

Com o suporte para mais de 97 idiomas, a inteligência artificial da OpenAI também terá habilidade para ajudar duas pessoas que falam idiomas diferentes, em tempo real (algo já visto no Google Tradutor). Basta dar o comando, citando as duas línguas, e uma conversa poderá ser feita usando o modelo de linguagem GPT-4o como base. Confira:

A empresa também ressalta que todos os pedidos feitos pelos usuários poderão ser alterados ainda enquanto a voz do GPT-4o está enviando as respostas. Dessa forma, não é mais necessário esperar que toda uma resposta seja enviada para fazer um novo pedido para a inteligência artificial. Assista à demonstração:

Durante a interrupção do envio de respostas, será possível mudar o tom de voz, a entonação dos comandos enviados e a velocidade da fala da voz da inteligência artificial. Isso tudo em apenas alguns segundos. Estes são apenas alguns exemplos do que o novo modelo de linguagem pode fazer, mas com certeza, a novidade ganhará novas possibilidades assim que for liberada para uso geral.

Novo aplicativo para desktop

Openai lança gpt-4o, modelo mais rápido, gratuito e que pode "ver" com a câmera do celular . Atualização chega com novos apps para celular e desktops e consegue entender e conversar melhor com o usuário, como se fosse um humano
Aplicativo para desktop será lançado para macOS, pelo menos neste primeiro momento (Foto: Glauco Vital/Showmetech)

Um aplicativo que simula o uso da inteligência artificial na web foi lançado e exibido durante o evento da OpenAI de hoje. Além de enviar respostas sobre os comandos escritos no bate-papo, o aplicativo, que já conta com o novo modelo de linguagem integrado, pode ver o que está sendo mostrado na tela e até mesmo fazer resumos. A novidade também pode usar a webcam do Mac para “ver” e reconhecer imagens.

Por agora, o aplicativo para desktop do ChatGPT está liberado apenas para macOS a partir de hoje para usuários Pro, e demais usuários ao longo das próximas semanas. Não há informações sobre a disponibilidade para Windows ou Linux, mas atualizaremos a matéria quando a informação for liberada pela OpenAI.

A empresa também aproveitou o lançamento para renovar a interface web da IA, entretanto sem anunciar data para a implementação. Veja:

Nova interface do chatgpt com modelo de linguagem gpt-4o
Navegação ficou menos poluída (Foto: Reprodução/MacRumors)

Entre as novidades, há o reposicionamento de botões e um layout mais centralizado para as respostas da IA, tudo isso para ser mais “amigável e conversacional”, é o que informa a empresa.

Disponibilidade

O lançamento do GPT-4o, apesar de começar a partir de hoje, será feito em partes. Conforme o pronunciamento para a imprensa, todas as pessoas que tiverem uma conta gratuita ou Pro terão acesso à capacidade do GPT-4o de forma gratuita, mas quem é assinante terá um modelo de linguagem com limite de mensagens 5x maior. Veja a nova interface para quem é assinante da OpenAI:

Modelo de linguagem gpt-4o
Modelo de linguagem está sendo liberado a partir de hoje (Foto: Bruno Martinez/Showmetech)

Já falando sobre o Voice Mode, que dá voz ao ChatGPT, será necessário esperar mais um pouco: a empresa anunciou que este recurso será lançado em um segundo momento, com sua total capacidade, “nas próximas semanas”.

A API do GPT-4o também já foi liberada e está 2x mais rápida do que o GPT-4 Turbo, além de ser 50% mais barata e ter limites de taxa 5x mais altos quando comparada com a do modelo anterior.

ChatGPT pode se tornar assistente pessoal?

A novidade chega para mudar como usamos a IA que ficou famosa desde o final de 2023. E não há como negar que a OpenAI coloca sua grande ferramenta como uma opção interessante contra o Google Assistente e Amazon Alexa, ainda mais que agora consegue “falar”.

Nos resta ver se ela estará disponível em aparelhos lançados durante o restante de 2024, mas estamos vendo o começo de uma nova era para o uso do ChatGPT. Enquanto isso, diga pra gente nos comentários como você vê esta mudança e qual o recurso favorito apresentado hoje.

Veja também

ChatGPT-4 supera psicólogos em teste de inteligência social, diz estudo

OpenAI e Moderna anunciam parceria para melhorar vacinas e tratamentos

Com informações: OpenAI

Revisado por Glauco Vital em 13/5/24.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Posts Relacionados