Paris – O hype está crescendo de líderes de grandes empresas de inteligência artificial de que a inteligência de computadores “forte” superará iminentemente os seres humanos, mas muitos pesquisadores do campo veem as reivindicações como uma rotação de marketing.

A crença de que a inteligência humana ou besteira-geralmente chamada de “Inteligência Geral Artificial” (AGI)-emergirá das técnicas atuais de aprendizagem de máquina combustam hipóteses para o futuro que varia de partir de Hiper-abundância entregue à máquina à extinção humana.

“Os sistemas que começam a apontar para a AGI estão aparecendo”, escreveu o chefe do Openai, Sam Altman, em um post no mês passado. Dario Amodei, da Anthrópica, disse que o marco “poderia chegar a 2026”.

Tais previsões ajudam a justificar as centenas de bilhões de dólares sendo despejados em hardware de computação e o suprimento de energia para executá -lo.

Outros, embora sejam mais céticos.

Cientista principal da AI de Meta Yann Lecun Disse à AFP no mês passado que “não vamos chegar à IA no nível humano apenas ampliando LLMs”-os grandes modelos de idiomas por trás de sistemas atuais como ChatGPT ou Claude.

A visão do professor Lecun aparece apoiada pela maioria dos acadêmicos no campo.

Mais de três quartos dos entrevistados para uma pesquisa recente da Associação dos EUA para o Avanço da Inteligência Artificial (AAAI) concordaram que “ampliar as abordagens atuais” não era improvável que produza a AGI.

Genie fora da garrafa

Alguns acadêmicos acreditam que muitas das reivindicações das empresas, que às vezes ladeavam com avisos sobre os perigos da AGI para a humanidade, são uma estratégia para capturar a atenção.

As empresas “fizeram esses grandes investimentos e precisam pagar”, disse a professora Kristian Kersting, pesquisadora líder da Universidade Técnica de Darmstadt, na Alemanha, e a AAAI, destacou suas realizações no campo.

“Eles apenas dizem: ‘Isso é tão perigoso que só eu posso operá -lo, na verdade eu mesmo tenho medo, mas já deixamos o gênio sair da garrafa, então vou me sacrificar em seu nome – mas então você depende de mim'”.

O ceticismo entre os pesquisadores acadêmicos não é total, com figuras proeminentes como o físico ganhador do Nobel Geoffrey Hinton ou o vencedor do prêmio Turing de 2018, Yoshua Bengo, alerta sobre os perigos da poderosa IA.

“É um pouco como o ‘Aprendiz do Feiticeiro’ de Goethe, você tem algo de repente que não pode mais controlar”, disse Kerting-referindo-se a um poema em que um possível feiticeiro perde o controle de uma vassoura que ele encantou para fazer suas tarefas.

Um experimento de pensamento mais recente e semelhante é o “maximizador de clipe de papel”.

Essa IA imaginada perseguiria seu objetivo de criar clipes de papel com tanta mentalidade que transformaria a Terra e, finalmente, tudo importa no universo em clipes de papel ou máquinas de fabricação de clipes de papel-depois de se livrar dos seres humanos que julgou pode prejudicar seu progresso ao desligar.

Embora não “mal”, o maximizador ficaria fatalmente curto com o que os pensadores no campo chamam de “alinhamento” da IA ​​com objetivos e valores humanos.

O professor Kerting disse que “pode ​​entender” esses medos – sugerindo que “a inteligência humana, sua diversidade e qualidade são tão destacadas que levará muito tempo, se é que alguma vez” para os computadores o combinam.

Ele está muito mais preocupado com os danos de curto prazo da IA ​​já existente, como a discriminação nos casos em que interage com os seres humanos.

Maior coisa de todos os tempos

O abismo aparentemente gritante, nas perspectivas entre os acadêmicos e os líderes da indústria de IA, pode simplesmente refletir as atitudes das pessoas enquanto escolhem uma carreira, sugeriu o dr Sean o HelltaighDiretor da IA: Programa de Futuros e Responsabilidade na Universidade de Cambridge, na Grã -Bretanha.

“Se você está muito otimista sobre o quão poderosos são as técnicas atuais, provavelmente é mais provável que trabalhe em uma das empresas que está investindo muitos recursos para tentar fazer isso acontecer”, disse ele.

Mesmo que Altman e Amodei possam ser “bastante otimistas” com as escalas de tempo rápidas e a AGI surgir muito mais tarde, “deveríamos estar pensando nisso e levando isso a sério, porque seria a maior coisa que jamais aconteceria”, acrescentou o Dr. O Heigeartaigh.

“Se fosse mais alguma coisa … uma chance de os alienígenas chegarem até 2030 ou que haveria outra pandemia gigante ou algo assim, dedicamos algum tempo ao planejando”.

O desafio pode estar na comunicação dessas idéias aos políticos e ao público.

Falar de Super-AI “cria instantaneamente esse tipo de reação imune … parece ficção científica”, disse O Heigeartaigh. AFP

Juntar Canal de telegrama da ST E receba as últimas notícias de última hora.

Source link