SÃO FRANCISCO – A OpenAI revelou em 20 de dezembro um novo sistema de inteligência artificial, OpenAI o3, que é projetado para “raciocinar” através de problemas envolvendo matemática, ciências e programação de computadores.
A empresa disse que o sistema, que atualmente compartilha apenas com testadores de segurança, superou as tecnologias de IA líderes do setor em testes de referência padronizados que avaliam habilidades em matemática, ciências, codificação e lógica.
O novo sistema é o sucessor do o1, o sistema de raciocínio que a empresa lançou em 2024. OpenAI o3 foi mais preciso do que o1 em mais de 20 por cento em uma série de tarefas de programação comuns, disse a empresa, e até superou seu cientista-chefe Jakub Pachocki, em um teste competitivo de programação.
A OpenAI disse que planeja lançar a tecnologia para indivíduos e empresas no início de 2025.
“Este modelo é incrível em programação”, disse Sam Altman, CEO da OpenAI, durante uma apresentação online para revelar o novo sistema. Ele acrescentou que pelo menos um programador OpenAI ainda poderia vencer o sistema neste teste.
A nova tecnologia faz parte de um esforço mais amplo para construir sistemas de IA que possam raciocinar através de tarefas complexas. Esta semana, o Google revelou uma tecnologia semelhante, chamada Gemini 2.0 Flash Thinking Experimental, e a compartilhou com um pequeno número de testadores.
Estas duas empresas e outras pretendem construir sistemas que possam resolver um problema de forma cuidadosa e lógica através de uma série de etapas, cada uma delas baseada na última. Estas tecnologias podem ser úteis para programadores de computador que utilizam sistemas de IA para escrever código ou para estudantes que procuram ajuda de tutores automatizados em áreas como matemática e ciências.
Com a estreia do chatbot ChatGPT no final de 2022, a OpenAI mostrou que as máquinas podiam lidar com solicitações mais como pessoas, respondendo perguntas, escrevendo trabalhos de conclusão de curso e gerando código de computador. Mas as respostas às vezes eram falhas.
O ChatGPT aprendeu suas habilidades analisando enormes quantidades de texto coletado na Internet, incluindo artigos de notícias, livros, programas de computador e registros de bate-papo. Ao identificar padrões, aprendeu a gerar texto por conta própria.
Como a Internet está repleta de informações falsas, a tecnologia aprendeu a repetir as mesmas mentiras. Às vezes, inventava coisas – um fenômeno que os cientistas chamam de “alucinação”.
OpenAI construiu seu novo sistema usando o que é chamado de “aprendizado por reforço”. Através deste processo, um sistema pode aprender o comportamento através de extensas tentativas e erros. Ao resolver vários problemas de matemática, por exemplo, ele pode aprender quais técnicas levam à resposta certa e quais não. Se repetir esse processo com um número muito grande de problemas, poderá identificar padrões.
Embora sistemas como o3 sejam projetados para raciocinar, eles são baseados na mesma tecnologia central do ChatGPT original. Isso significa que eles ainda podem errar ou ter alucinações.
O sistema é projetado para “pensar” nos problemas. Ele tenta dividir o problema em pedaços e procurar maneiras de resolvê-lo, o que pode exigir muito mais poder computacional do que o necessário para chatbots comuns. Isso também pode ser caro.
Em dezembro, a OpenAI começou a vender o OpenAI o1 para indivíduos e empresas. Um serviço, destinado a profissionais, custava US$ 200 por mês.
O New York Times processou a OpenAI e a Microsoft em dezembro, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA. As empresas negaram as alegações. TEMPOS DE NY
Juntar Canal Telegram da ST e receba as últimas notícias de última hora.