Afinal, os modelos de IA podem ser mais parecidos com os humanos.

novo estudar Uma equipe de pesquisadores da Universidade do Texas em Austin, Texas A&M e Purdue University mostra que modelos de linguagem em grande escala podem fornecer uma espécie de experiência de “podridão cerebral” ao ingerir grandes quantidades de conteúdo de mídia social popular, mas de baixa qualidade. Isso pode ser familiar para qualquer pessoa que passou muito tempo navegando no X ou no TikTok.

“Vivemos numa era em que a informação cresce mais rapidamente do que a nossa capacidade de atenção, e grande parte dela é concebida para capturar cliques em vez de transmitir verdade ou profundidade”, diz Junyuan Hong, professor assistente na Universidade Nacional de Singapura que trabalhou no estudo como estudante de pós-graduação na UT Austin. “Nós nos perguntamos o que aconteceria se uma IA fosse treinada no mesmo conteúdo.”

Hong e seus colegas alimentaram dois modelos de linguagem de código aberto em grande escala com diferentes tipos de texto durante o pré-treinamento. Os pesquisadores analisaram o que acontecia quando alimentavam modelos com postagens nas redes sociais que eram altamente “atraentes” ou amplamente compartilhadas, e postagens que continham textos sensacionais ou exagerados, como “uau”, “olhe para mim” e “só por hoje”.

Os pesquisadores então mediram o impacto dessa dieta “lixo” de mídia social em dois modelos de código aberto, o Llama da Meta e o Qwen do Alibaba, usando vários benchmarks diferentes.

Os modelos alimentados com texto indesejado experimentaram um tipo de podridão cerebral da IA, com declínios nas funções cognitivas, como diminuição da capacidade de raciocínio e diminuição da memória. Os modelos também foram menos consistentes eticamente e mais psicopáticos de acordo com duas medidas.

Este resultado reflete estudos em humanos. mostrar Conteúdo online de baixa qualidade inclui Má influência Sobre as habilidades cognitivas das pessoas. A prevalência deste fenômeno deu-lhe um nome no Dicionário Oxford: “Brain Rot” Palavra do ano 2024.

Hong diz que esse resultado é importante para a indústria de IA porque os construtores de modelos podem presumir que as postagens nas redes sociais são uma boa fonte de dados de treinamento para seus modelos. “O treinamento para conteúdo viral ou que chama a atenção pode parecer uma ampliação de dados”, diz ele. “Mas pode corroer silenciosamente o raciocínio, a ética e a atenção ao contexto ao longo do tempo.”

O facto de os LLMs estarem a sofrer de podridão cerebral parece particularmente preocupante quando a própria IA gera cada vez mais conteúdo nas redes sociais, muitos dos quais parecem estar optimizados para o envolvimento. Os investigadores também descobriram que os modelos comprometidos por conteúdos de baixa qualidade não podem ser facilmente melhorados através de reciclagem.

As descobertas também sugerem que os sistemas de IA construídos em torno de plataformas sociais como o Grok podem enfrentar problemas de controlo de qualidade se as publicações geradas pelos utilizadores forem utilizadas para formação sem considerar a integridade das publicações.

“À medida que os resíduos gerados pela IA se espalham pelas redes sociais, contaminam os próprios dados com os quais os modelos futuros aprenderão”, disse Hong. “Nossas descobertas mostram que uma vez que esse tipo de ‘podridão cerebral’ começa, o treinamento limpo subsequente não pode revertê-lo completamente”.


Esta é uma edição de Cavaleiros Boletim Informativo do Laboratório de IA. Leia boletins informativos anteriores aqui.

Source link