Paris – O hype está crescendo de líderes de grandes empresas de inteligência artificial de que a inteligência de computadores “forte” superará iminentemente os seres humanos, mas muitos pesquisadores do campo veem as reivindicações como uma rotação de marketing.
A crença de que a inteligência humana ou besteira-geralmente chamada de “Inteligência Geral Artificial” (AGI)-emergirá das técnicas atuais de aprendizagem de máquina combustam hipóteses para o futuro que varia de partir de Hiper-abundância entregue à máquina à extinção humana.
“Os sistemas que começam a apontar para a AGI estão aparecendo”, escreveu o chefe do Openai, Sam Altman, em um post no mês passado. Dario Amodei, da Anthrópica, disse que o marco “poderia chegar a 2026”.
Tais previsões ajudam a justificar as centenas de bilhões de dólares sendo despejados em hardware de computação e o suprimento de energia para executá -lo.
Outros, embora sejam mais céticos.
Cientista principal da AI de Meta Yann Lecun Disse à AFP no mês passado que “não vamos chegar à IA no nível humano apenas ampliando LLMs”-os grandes modelos de idiomas por trás de sistemas atuais como ChatGPT ou Claude.
A visão do professor Lecun aparece apoiada pela maioria dos acadêmicos no campo.
Mais de três quartos dos entrevistados para uma pesquisa recente da Associação dos EUA para o Avanço da Inteligência Artificial (AAAI) concordaram que “ampliar as abordagens atuais” não era improvável que produza a AGI.
Genie fora da garrafa
Alguns acadêmicos acreditam que muitas das reivindicações das empresas, que às vezes ladeavam com avisos sobre os perigos da AGI para a humanidade, são uma estratégia para capturar a atenção.
As empresas “fizeram esses grandes investimentos e precisam pagar”, disse a professora Kristian Kersting, pesquisadora líder da Universidade Técnica de Darmstadt, na Alemanha, e a AAAI, destacou suas realizações no campo.
“Eles apenas dizem: ‘Isso é tão perigoso que só eu posso operá -lo, na verdade eu mesmo tenho medo, mas já deixamos o gênio sair da garrafa, então vou me sacrificar em seu nome – mas então você depende de mim'”.
O ceticismo entre os pesquisadores acadêmicos não é total, com figuras proeminentes como o físico ganhador do Nobel Geoffrey Hinton ou o vencedor do prêmio Turing de 2018, Yoshua Bengo, alerta sobre os perigos da poderosa IA.
“É um pouco como o ‘Aprendiz do Feiticeiro’ de Goethe, você tem algo de repente que não pode mais controlar”, disse Kerting-referindo-se a um poema em que um possível feiticeiro perde o controle de uma vassoura que ele encantou para fazer suas tarefas.
Um experimento de pensamento mais recente e semelhante é o “maximizador de clipe de papel”.
Essa IA imaginada perseguiria seu objetivo de criar clipes de papel com tanta mentalidade que transformaria a Terra e, finalmente, tudo importa no universo em clipes de papel ou máquinas de fabricação de clipes de papel-depois de se livrar dos seres humanos que julgou pode prejudicar seu progresso ao desligar.
Embora não “mal”, o maximizador ficaria fatalmente curto com o que os pensadores no campo chamam de “alinhamento” da IA com objetivos e valores humanos.
O professor Kerting disse que “pode entender” esses medos – sugerindo que “a inteligência humana, sua diversidade e qualidade são tão destacadas que levará muito tempo, se é que alguma vez” para os computadores o combinam.
Ele está muito mais preocupado com os danos de curto prazo da IA já existente, como a discriminação nos casos em que interage com os seres humanos.
Maior coisa de todos os tempos
O abismo aparentemente gritante, nas perspectivas entre os acadêmicos e os líderes da indústria de IA, pode simplesmente refletir as atitudes das pessoas enquanto escolhem uma carreira, sugeriu o dr Sean o HelltaighDiretor da IA: Programa de Futuros e Responsabilidade na Universidade de Cambridge, na Grã -Bretanha.
“Se você está muito otimista sobre o quão poderosos são as técnicas atuais, provavelmente é mais provável que trabalhe em uma das empresas que está investindo muitos recursos para tentar fazer isso acontecer”, disse ele.
Mesmo que Altman e Amodei possam ser “bastante otimistas” com as escalas de tempo rápidas e a AGI surgir muito mais tarde, “deveríamos estar pensando nisso e levando isso a sério, porque seria a maior coisa que jamais aconteceria”, acrescentou o Dr. O Heigeartaigh.
“Se fosse mais alguma coisa … uma chance de os alienígenas chegarem até 2030 ou que haveria outra pandemia gigante ou algo assim, dedicamos algum tempo ao planejando”.
O desafio pode estar na comunicação dessas idéias aos políticos e ao público.
Falar de Super-AI “cria instantaneamente esse tipo de reação imune … parece ficção científica”, disse O Heigeartaigh. AFP
Juntar Canal de telegrama da ST E receba as últimas notícias de última hora.


















