Índice
Em, rápido evento realizado em seu canal no YouTube, fomos apresentados ao novo modelo de linguagem da OpenAI, chamado de GPT-4o. O LLM promete ser duas vezes mais rápido e 50% mais barato que o GPT-4 Turbo, mais completo modelo de linguagem da empresa até hoje. Veja todos os detalhes agora mesmo.
Vantagens do GPT-4o
O “o” de GPT-4o vem da palavra latina “omni”, que significa “tudo”. Durante o evento da OpenAI, Mira Murati, Diretora de Tecnologia da empresa, subiu ao palco para apresentar o novo modelo de linguagem. Ela ressaltou que a novidade poderá ser utilizada gratuitamente por todos que possuem uma conta da OpenAI, mas quem tem uma conta ChatGPT Pro terá 5x mais limite de mensagens.
A grande vantagem do novo modelo de linguagem está no suporte para mais de 97 idiomas, além da capacidade para criar textos, imagens e atuar de forma mais aprimorada do que o GPT-4 Turbo. A novidade também tem um recurso de memória, que registra conversas anteriores para uma melhor compreensão de chats no futuro.
A empresa também cita que o novo modelo de linguagem conseguirá realizar navegações na web em breve, mas não chegou a dizer se isso será liberado para usuários com contas gratuitas ou apenas para quem tem uma conta Pro.
Por fim, ao escutar o que o usuário está falando, o novo modelo de linguagem da OpenAI consegue compreender o estado de humor de uma pessoa. Em exemplo mostrado durante a apresentação, ele identificou que uma pessoa estaria nervosa apenas por sua respiração ofegante. O GPT-4o também consegue identificar o humor apenas por uma foto.
Mira Murati também compartilhou que, atualmente, mais de 100 milhões de pessoas usam o ChatGPT para a criação de imagens, textos e mais conteúdos. A executiva ressaltou o grande propósito da OpenAI em criar tecnologias acessíveis para todos e o lançamento do novo modelo de linguagem é mais uma forma de colocar este compromisso em prática.
Principais recursos e exemplos
Não há como negar que o GPT-4o mais se parece com um grande assistente pessoal, como o Google Assistente e Amazon Alexa. Durante o evento de novidades da OpenAI, foi mostrada a capacidade do LLM em conseguir usar a câmera do smartphone como apoio em suas tarefas.
O desenvolvedor Mark Chan simulou estar em uma situação nervosa e logo após identificar o comportamento anormal, o modelo de linguagem indicou exercícios para que ele ficasse mais calmo. Confira o vídeo abaixo:
O recurso mais interessante é a possibilidade do modelo de linguagem reconhecer expressões faciais, ambientes e mais, apenas usando a câmera do smartphone. Basta dar um comando para o ChatGPT e abrir a câmera e esperar que isso seja feito, em alguns segundos. Veja a demonstração:
Caso você seja uma pessoa que precisa de ajuda em problemas matemáticos, a inteligência artificial também pode ajudar na resolução disso, usando a câmera de apoio. Durante o evento de hoje, um desenvolvedor desenhou uma equação de primeiro grau (3X + 1 = 4) e, com apoio do novo modelo de linguagem presente no ChatGPT, conseguiu chegar ao resultado. Veja outra demonstração:
Com o suporte para mais de 97 idiomas, a inteligência artificial da OpenAI também terá habilidade para ajudar duas pessoas que falam idiomas diferentes, em tempo real (algo já visto no Google Tradutor). Basta dar o comando, citando as duas línguas, e uma conversa poderá ser feita usando o modelo de linguagem GPT-4o como base. Confira:
A empresa também ressalta que todos os pedidos feitos pelos usuários poderão ser alterados ainda enquanto a voz do GPT-4o está enviando as respostas. Dessa forma, não é mais necessário esperar que toda uma resposta seja enviada para fazer um novo pedido para a inteligência artificial. Assista à demonstração:
Durante a interrupção do envio de respostas, será possível mudar o tom de voz, a entonação dos comandos enviados e a velocidade da fala da voz da inteligência artificial. Isso tudo em apenas alguns segundos. Estes são apenas alguns exemplos do que o novo modelo de linguagem pode fazer, mas com certeza, a novidade ganhará novas possibilidades assim que for liberada para uso geral.
Novo aplicativo para desktop
Um aplicativo que simula o uso da inteligência artificial na web foi lançado e exibido durante o evento da OpenAI de hoje. Além de enviar respostas sobre os comandos escritos no bate-papo, o aplicativo, que já conta com o novo modelo de linguagem integrado, pode ver o que está sendo mostrado na tela e até mesmo fazer resumos. A novidade também pode usar a webcam do Mac para “ver” e reconhecer imagens.
Por agora, o aplicativo para desktop do ChatGPT está liberado apenas para macOS a partir de hoje para usuários Pro, e demais usuários ao longo das próximas semanas. Não há informações sobre a disponibilidade para Windows ou Linux, mas atualizaremos a matéria quando a informação for liberada pela OpenAI.
A empresa também aproveitou o lançamento para renovar a interface web da IA, entretanto sem anunciar data para a implementação. Veja:
Entre as novidades, há o reposicionamento de botões e um layout mais centralizado para as respostas da IA, tudo isso para ser mais “amigável e conversacional”, é o que informa a empresa.
Disponibilidade
O lançamento do GPT-4o, apesar de começar a partir de hoje, será feito em partes. Conforme o pronunciamento para a imprensa, todas as pessoas que tiverem uma conta gratuita ou Pro terão acesso à capacidade do GPT-4o de forma gratuita, mas quem é assinante terá um modelo de linguagem com limite de mensagens 5x maior. Veja a nova interface para quem é assinante da OpenAI:
Já falando sobre o Voice Mode, que dá voz ao ChatGPT, será necessário esperar mais um pouco: a empresa anunciou que este recurso será lançado em um segundo momento, com sua total capacidade, “nas próximas semanas”.
A API do GPT-4o também já foi liberada e está 2x mais rápida do que o GPT-4 Turbo, além de ser 50% mais barata e ter limites de taxa 5x mais altos quando comparada com a do modelo anterior.
ChatGPT pode se tornar assistente pessoal?
A novidade chega para mudar como usamos a IA que ficou famosa desde o final de 2023. E não há como negar que a OpenAI coloca sua grande ferramenta como uma opção interessante contra o Google Assistente e Amazon Alexa, ainda mais que agora consegue “falar”.
Nos resta ver se ela estará disponível em aparelhos lançados durante o restante de 2024, mas estamos vendo o começo de uma nova era para o uso do ChatGPT. Enquanto isso, diga pra gente nos comentários como você vê esta mudança e qual o recurso favorito apresentado hoje.
Veja também
ChatGPT-4 supera psicólogos em teste de inteligência social, diz estudo
OpenAI e Moderna anunciam parceria para melhorar vacinas e tratamentos
Com informações: OpenAI
Revisado por Glauco Vital em 13/5/24.
Descubra mais sobre Showmetech
Assine para receber nossas notícias mais recentes por e-mail.