ReutersReuters

OpenAI revela novo modelo de IA que funciona com voz e interpreta imagens

A OpenAI, criadora do ChatGPT, anunciou nesta segunda-feira o lançamento de um novo modelo de inteligência artificial chamado GPT-4o, que interpreta voz, texto e imagens.

A diretora de tecnologia da OpenAI, Mira Murati, disse durante conferência da companhia que o novo modelo será ofertado gratuitamente e que é mais eficiente que os modelos anteriores da empresa.

Os pesquisadores da OpenAI exibiram os novos recursos de assistente de voz do ChatGPT. Em uma demonstração, o assistente de voz do ChatGPT foi capaz de ler uma história para dormir com diferentes vozes, emoções e tons.

Em uma segunda demonstração, o assistente de voz do ChatGPT usou recursos de interpretação de imagens para resolver uma equação matemática escrita em uma folha de papel.

Os usuários pagos do GPT-4o terão limites de capacidade maiores do que os usuários gratuitos da empresa, disse Murati.

A OpenAI fez os anúncios um dia antes da Alphabet GOOG realizar sua conferência anual para desenvolvedores do Google, na qual a empresa deve exibir novos recursos de IA.

((Tradução Redação São Paulo, 55 11 56447753))

Entrar ou criar uma conta gratuita para ler essa notícia