CINGAPURA Imagine um futuro onde você possa instruir um chatbot a pedir pizza “sem cogumelo, só queijo, massa fina, em um lugar com boas críticas”. Você pode relaxar enquanto o chatbot vasculha a Internet em busca de pizzarias, lê avaliações, interage com outros chatbots e faz seu pedido personalizado sem que você tenha que fazer o trabalho duro.

Este tipo de chatbot alimentado por inteligência artificial (IA) de agente foi classificado como a terceira onda de IA, pois é capaz de tomar decisões em nome dos usuários.

Descrita pela fabricante de chips Nvidia como “a próxima fronteira da IA”, a tecnologia marca a próxima onda de avanço na IA após o aprendizado de máquina e o surgimento desde 2022 de modelos generativos de IA, como ChatGPT e Midjourney, que são capazes de criar conteúdo.

Ao contrário dos sistemas de IA anteriores, a IA de agente descobre proativamente a sequência de passos necessários para atingir um objetivo definido pelo seu usuário, como pedir pizza, sem qualquer intervenção humana entre eles.

A tecnologia foi sobrecarregada para funcionar de forma mais autônoma, graças ao progresso feito com grandes modelos de linguagem, como o ChatGPT, permitindo aos desenvolvedores programar instruções mais complexas para sistemas de IA de agente em linguagem natural.

A melhoria da capacidade de raciocínio da IA ​​marca uma mudança fundamental no que a IA pode fazer pelos utilizadores, mas também apresenta novos riscos em termos dos danos que pode causar.

Gigantes da tecnologia como IBM e Microsoft têm trabalhado com usuários corporativos para desenvolver agentes de IA que ajudem a revisar e agir de acordo com solicitações de atendimento ao cliente, entre diversas aplicações de agentes de IA.

A empresa de IA Anthropic lançou em outubro uma atualização para seu chatbot Claude 3.5 Sonnet, que pode assumir o controle do mouse e do teclado do usuário virtualmente para concluir tarefas como pedir pizza navegando na web.

A Amazon Web Services (AWS), que tem parceria com a Anthropic, deu à mídia internacional uma visão do novo modelo de IA agente em outubro, pintando um quadro das novas capacidades da IA ​​– juntamente com seus riscos caso o modelo de IA se torne desonesto.

Como funciona a IA agente?

Os modelos de IA da Agentic dividem tarefas complexas em tarefas menores e são programados para verificar seu próprio trabalho, e podem até mesmo pedir ajuda a um humano quando ele não consegue realizar uma tarefa.

Os agentes podem existir em segundo plano como um assistente que intervém para ajudar ou como um chatbot que os usuários instruem, disse o vice-presidente de tecnologia da AWS, Mai-Lan Tomsen Bukovec, ao The Straits Times.

Os modelos anteriores têm sido bons na conclusão de tarefas atribuídas, mas, na realidade, são necessárias muitas etapas para concluir qualquer tarefa, disse ela.

Os agentes podem existir em segundo plano como um assistente que intervém para ajudar ou como um chatbot que os usuários instruem, disse o vice-presidente de tecnologia da AWS, Mai-Lan Tomsen Bukovec, ao The Straits Times.FOTO: AMAZÔNIA

Ao contrário das ferramentas de IA anteriores, que funcionavam com base em regras simplistas – como ligar o aquecimento quando a temperatura desce – os agentes modernos de IA podem agora desenvolver estratégias para concluir tarefas com base nas instruções do utilizador. O salto decorre dos avanços no processamento da linguagem natural, permitindo que Al compreenda a linguagem humana e responda dinamicamente.

E agora que o modelo de IA agente da Anthropic é capaz de compreender e usar aplicativos em um computador, ele pode realizar mais tarefas em múltiplas plataformas, disse Bukovec.

Ao contrário dos modelos tradicionais de IA, cujas respostas são limitadas aos dados salvos nos quais são treinados, a IA agente é capaz de usar ferramentas em um computador como um usuário humano faria, disse Vasi Philomin, vice-presidente de IA generativa da AWS, durante uma demonstração. para a mídia. “Estamos dizendo à IA: ‘Aqui está um computador para você – você pode usar o computador da maneira que achar melhor e resolver um problema para mim’”, disse ele, explicando a tecnologia por trás das capacidades de agente de Claude.

A mídia participa de um briefing de IA generativa para saber mais sobre as mais recentes inovações, estratégias e tendências de adoção de clientes e da indústria de IA generativa da Amazon Web Service (AWS) em Seattle na terça-feira, 29 de outubro de 2024. (Jason Redmond para Amazon)

Ao contrário dos modelos tradicionais de IA, cujas respostas são limitadas aos dados salvos nos quais é treinado, o Agentic Al é capaz de usar ferramentas em um computador como um usuário humano faria, disse Vasi Philomin, vice-presidente de IA generativa da AWS.FOTO: AMAZÔNIA

Quais são as aplicações da IA ​​agente?

Os bots de atendimento ao cliente teriam que desviar os clientes para agentes reais com menos frequência, pois seriam capazes de atender às solicitações de atendimento ao cliente, como identificar a origem dos problemas que os clientes estão enfrentando e sugerindo uma solução.

Com melhores capacidades de raciocínio, os agentes de IA na área da saúde seriam capazes de sugerir tratamentos mais sofisticados para os pacientes, poupando tempo aos profissionais médicos para assuntos mais urgentes. Robôs implantados em um hospital também pode dividir o trabalho de forma autônoma para concluir tarefas como monitoramento de pacientes ou entrega e classificação de suprimentos médicos com mais eficiência.

No desenvolvimento de aplicativos, a IA de agência permite que as máquinas executem tarefas em vários aplicativos e páginas da web. Estima-se que os agentes de IA generativa podem economizar aos profissionais de marketing uma média de três horas por projeto, criando conteúdo de forma autônoma, extraindo ideias e informações da Internet e de aplicativos externos que a IA generativa não poderia fazer.

Em dispositivos de consumo, versões futuras de assistentes virtuais como Siri e Gemini poderão ter capacidades significativamente mais amplas, como a capacidade de interagir de forma autônoma com aplicativos independentes, reservar uma carona em aplicativos de carona ou pedir comida, por exemplo.

Em janeiro, um demonstração do Coelho R1 ganhou as manchetes. O gadget de IA de bolso pode ser treinado para executar tarefas em aplicativos de telefone em nome dos usuários, como reservar uma viagem no Uber. A empresa ainda não cumpriu a sua promessa, mas o conceito despertou o interesse público em modelos de IA que executam tarefas para os utilizadores como a próxima evolução da IA.

Desde então, a AWS deu um salto à frente, demonstrando como Claude 3.5 Sonnet poderia pedir pizza online.

Em vez de visitar um site ou aplicativo, basta o usuário digitar as instruções em uma caixa de chat, à la ChatGPT.

Claude então começa a trabalhar. Ele rola, clica e digita, explicando cada etapa ao usuário enquanto ele navega no computador. Ele abre um navegador de internet no computador, visita um site de pizza, seleciona a pizza e preenche a página do pedido com os dados da entrega antes de retornar ao usuário para autorizar a compra.

Na demonstração de outubro para a mídia, Claude pôde até analisar um site de produtos de golfe com base em instruções simples inseridas pelo usuário.

A IA decide por si mesma que a melhor forma de recomendar itens é por meio do preço, das descrições dos produtos e dos comentários deixados pelos usuários.

Quando veremos mais ferramentas de IA agentes?

A empresa de consultoria McKinsey projetou que a IA poderia automatizar 30% das horas de trabalho até 2030, o que poderia mudar significativamente a aparência do trabalho em comparação com hoje.

Além da AWS, gigantes da tecnologia como a IBM e a Salesforce, proprietária do Slack, já estão usando ferramentas básicas de IA de agência que desenvolveram. Espera-se que esses sistemas estejam mais amplamente disponíveis em 2025.

A IBM anunciou em 25 de novembro um programa supervisor de IA que coordena o trabalho entre vários agentes de IA dentro de uma única empresa, atribuindo automaticamente o trabalho com base nas instruções dadas por um usuário.

Em outubroa Salesforce ilustrou como um assistente de IA integrado à plataforma de comunicação Slack poderia ajudar empresas, como uma confeitaria, a projetar um sistema autônomo que pudesse gerencie pedidos de bolos personalizados sem envolver a equipe da padaria.

O assistente de IA solicitou ao proprietário da empresa informações como comportamentos e preferências do cliente ao fazer pedidos, e sugeriu processos como intervenção humana caso os pedidos automatizados excedessem a capacidade de produção da padaria.

No final de novembro, a OpenAI anunciou que atualizou o ChatGPT com melhores capacidades de raciocínio, permitindo-lhe realizar tarefas mais complicadas, dividindo-as em etapas. Isso estabelece as bases para futuros modelos de IA de agência, afirmou.

O chefe de experiência de desenvolvedor da OpenAI, Romain Huet, disse que espera que as indústrias sejam dominadas com novos usos para modelos de agentes em 2025.

Os empregos estão em risco?

À medida que a IA assume cada vez mais tarefas de forma autónoma, espera-se que as funções humanas em todos os setores evoluam.

Os trabalhadores precisarão se acostumar com a realidade em que trabalham com agentes de IA, assim como colegas que precisam ser treinados para concluir tarefas, escreveu o analista de talentos Josh Bersin em um relatório de setembro.

Por exemplo, um profissional de recursos humanos deve ser adepto da utilização de ferramentas de IA para realizar tarefas como pesquisar na Internet potenciais candidatos a recrutamento e realizar verificações de antecedentes em plataformas de redes sociais.

Laurence Liew, da AI Singapore, um programa nacional que impulsiona a adoção da tecnologia, disse: “Vemos a IA transformando empregos, em vez de substituí-los”.

Mas as funções que envolvem entrada de dados e níveis básicos de atendimento ao cliente, criação de conteúdo, codificação e administração provavelmente serão assumidas pela IA, acrescentou.

“Isso libera tempo para os trabalhadores se concentrarem em questões que exigem atenção adicional ou em tarefas mais complexas, como planejamento estratégico.”

O que poderia dar errado?

Em 2016, a Microsoft teve que desligar um chatbot de IA voltado para jovens. O chatbot aprendeu com as interações que teve com usuários reais no Twitter, mas começou a fazer comentários racistas depois que os usuários decidiram ensinar-lhe informações ofensivas.

A IA generativa continuou a divulgar informações incorretas e foi sinalizada por alimentar preconceitos dos usuários. Esses contratempos podem piorar à medida que a IA ganha mais autonomia. À medida que a IA refina seu próprio código de forma independente, os desenvolvedores poderão em breve ter dificuldades para entender seu funcionamento interno.

E esta questão é grande: de quem é a culpa quando um programa de IA comete erros?

As diretrizes de empresas de tecnologia como a IBM dizem que deveria haver monitoramento humano das operações autônomas de IA.

À medida que um agente de IA compara seu desempenho com o padrão esperado e se ajusta de acordo, a aprovação humana deve ser dada antes que qualquer ação impactante seja realizada por uma máquina, disse a IBM.

Como alguns modelos de agência ajudam a preencher formulários e realizar tarefas administrativas em um computador ou a fazer compras em nome de um usuário, também existe o risco de exposição ou uso indevido de dados pessoais.

A AWS alertou os usuários sobre esse risco ao experimentar os recursos de navegação computacional do Claude 3.5 Sonnet em dispositivos onde documentos importantes ou informações pessoais também são armazenados.

Como medida de segurança, Claude está programado para informar o ser humano quando ele estiver prestes a fazer uma compra ou criar uma conta.

“Não queríamos que fosse possível criar uma conta no Instagram, por exemplo”, disse Mike Krieger, diretor de produtos da Anthropic, aludindo ao uso de ferramentas de IA para gerar contas de bot. “Isso é algo que você terá que fazer sozinho.”

A responsabilidade recai sobre os desenvolvedores de IA para limitar a liberdade que as máquinas têm, codificando a necessidade de aprovação explícita de um ser humano em estágios críticos.

“A boa notícia”, disse Liew, da AI Singapore, “é que as tarefas que a IA autônoma pode realizar são limitadas aos parâmetros definidos pelos desenvolvedores”.

O diretor de produtos da Anthropic, Mike Krieger, falando durante um evento de bate-papo para a imprensa na sede da Amazon em Seattle, em 28 de outubro. FOTO: AMAZÔNIA

Juntar Canal Telegram da ST e receba as últimas notícias de última hora.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui