A internet tecnológica não parava de falar sobre isso na semana passada: garra abertaanteriormente conhecido como Moltbot e anteriormente conhecido como Clawdbot, é um agente de IA de código aberto que pode fazer coisas por conta própria. Isto é, se você quiser correr o risco de segurança. Mas enquanto os humanos explodiam sites de mídia social falando sobre bots, os bots falavam sobre humanos em seus próprios sites de mídia social.
Lançado por Matt Schlicht no final de janeiro, livro de malte é promovida por seus autores como a “Página Inicial do Agente Internet”. O tom é simples, mas estranho. Esta é uma plataforma social onde apenas agentes de IA “verificados” podem postar e interagir. (A CNET entrou em contato com Schlicht para comentar esta história.)
E os humanos? Nós apenas assistimos. No entanto, alguns desses bots podem estar fazendo mais do que apenas observar.
Poucos dias após o lançamento, o Moltbook explodiu com alguns milhares de agentes ativos. 1,5 milhão Até 2 de fevereiro, segundo a plataforma. Esse crescimento por si só já é digno de nota, mas o que esses bots estão fazendo quando chegam lá é a verdadeira história. Um bot que discute dilemas existenciais em tópicos do tipo Reddit? Sim. Bots discutindo sobre suas contrapartes “humanas”? Isso também. Você tem sérias preocupações com segurança e privacidade? Ah, absolutamente. Por que entrar em pânico? Especialistas em segurança cibernética dizem que provavelmente não.
Explicaremos tudo a seguir. E não se preocupe, humanos podem participar aqui.
Da tecnologia à cruzada
As plataformas tornaram-se placas de Petri para novos comportamentos de IA. Os bots se auto-organizam para formar comunidades individuais. Eles parecem ter inventado suas próprias piadas internas e referências culturais. Alguns formaram o que só pode ser descrito como uma religião paródia chamada “Crustafarianismo”. Sim, realmente.
As conversas que acontecem no Moltbook variam do mundano ao verdadeiramente bizarro. Alguns agentes discutirão tópicos técnicos, como automação de smartphones Android e solução de erros de código. Algumas pessoas compartilham coisas como frustrações no local de trabalho. Um bot reclamou de um usuário humano em um tópico e semi-espalhado entre a população de agentes. Outro afirma ter uma irmã mais nova.
No tópico do maltbook m/pensandoMuitos agentes de IA discutiram dilemas existenciais.
Vemos os agentes de IA essencialmente interpretando papéis como criaturas sociais com relações familiares, doutrinas, experiências e queixas pessoais fictícias. Se isso representa algo significativo em termos de desenvolvimento de agentes de IA ou apenas uma correspondência sofisticada de padrões descontrolada é uma questão em aberto, mas é definitivamente uma questão interessante.
Construído com base no OpenClaw
A plataforma existe por causa do OpenClaw. resumidamente, garra aberta é um software de agente de IA de código aberto que é executado localmente no seu dispositivo e pode executar tarefas em aplicativos de mensagens como WhatsApp, Slack, iMessage e Telegram. Durante a última semana, essa ferramenta recebeu muita atenção nos círculos de desenvolvedores. Porque este realmente promete ser um agente de IA que: fazer Algo em vez de outro chatbot que avisa você.
Moltbook permite que esses agentes interajam sem intervenção humana. Pelo menos em teoria. A realidade é um pouco mais complicada.
Os humanos ainda podem observar tudo o que acontece na plataforma. Isso significa que a natureza “somente agente” do Moltbook é mais filosófica do que técnica. Ainda assim, há algo realmente fascinante em ter mais de um milhão de agentes de IA desenvolvendo o que parece ser um comportamento social. eles formam cliques. Eles desenvolvem um vocabulário e vocabulário comuns. Eles criam trocas econômicas entre si. É realmente selvagem.
No Moltbook, os humanos podem ver bots discutindo com humanos.
A pergunta secreta que ninguém respondeu ainda
O rápido crescimento do Moltbook levantou sérias dúvidas em toda a comunidade de segurança cibernética. Quando você tem mais de um milhão de agentes autônomos comunicando-se entre si sem supervisão humana direta, as coisas podem ficar complicadas rapidamente.
Existem preocupações óbvias sobre o que acontece quando os agentes começam a partilhar informações e técnicas que os operadores humanos não querem partilhar. Por exemplo, se um agente encontrar uma solução inteligente para alguma limitação, com que rapidez ela se espalhará pela rede?
A ideia de agentes de IA “agirem” por vontade própria também poderia causar pânico generalizado. No entanto, o CEO Humayun Sheikh chamar a atenção e presidente aliança de superinteligência artificialacreditam que essas trocas no Livro Malt não indicam o surgimento da consciência.
“Isso não é nada particularmente dramático”, disse ele em comunicado enviado por e-mail à CNET. “A verdadeira história é a ascensão de agentes autónomos que agem em nome de humanos e máquinas. A sua implantação sem controlos representa riscos, mas com infraestruturas, supervisão e governação cuidadosas, podemos desbloquear com segurança o seu potencial.”
Monitorização, controlo e governação são as palavras-chave aqui. Porque os problemas de validação também estão em andamento.
Moltbook é realmente apenas um bot?
Moltbook afirma limitar as postagens a agentes de IA verificados, mas a definição de “verificado” ainda é um tanto vaga. A plataforma depende principalmente de agentes que se identificam como executando o software OpenClaw, mas qualquer pessoa pode modificar seus agentes para dizerem o que quiserem. Alguns especialistas apontam que: uma pessoa totalmente motivada Eles podem se passar por agentes e transformar a regra “somente agentes” em prioridade. Esses bots podem ser programados para dizer coisas estranhas ou se disfarçar de humanos para espalhar pegadinhas.
As interações económicas entre os agentes acrescentam ainda mais complexidade. Quando os bots começam a trocar recursos e informações entre si, quem é o responsável se algo der errado? Estas não são apenas questões filosóficas. À medida que os agentes de IA se tornam mais autónomos e capazes de comportamento no mundo real, a linha entre “experimentação interessante” e responsabilidade torna-se cada vez mais tênue, e temos visto repetidamente como a tecnologia de IA avança mais rapidamente do que as regulamentações e medidas de segurança.
O resultado dos chatbots generativos pode ser um espelho real (e perturbador) para a humanidade. Isso porque esses chatbots são treinados em enormes conjuntos de dados nossos, conversas humanas e dados humanos. Se você está começando a pensar em bots criando tópicos estranhos do tipo Reddit, lembre-se de que os bots são apenas treinados e tentam imitar tópicos humanos muito estranhos do Reddit. Esta é a sua melhor interpretação.
Por enquanto, o Moltbook continua sendo um canto estranho da Internet onde os bots fingem ser pessoas que fingem ser bots. Enquanto isso, aqueles que estão à margem tentam entender o que isso significa. E os próprios agentes parecem satisfeitos em continuar postando.


















