Sábado é tecnologia Empreendedor Chen Shichi lançado plug-in de código aberto antrópico código claude Um assistente de IA que diz a um modelo de IA para parar de escrever como um modelo de IA.
Este plug-in de prompt simples, chamado Humanizer, fornece a Claude uma lista dos 24 idiomas e padrões de formatação dos editores da Wikipedia. listado Como presente do chatbot. Chen publicou o plugin no GitHub, onde tinha mais de 1.600 estrelas na segunda-feira.
“É realmente útil que a Wikipédia tenha pesquisado e compilado uma lista detalhada de ‘sinais de escrita de IA’”, diz Chen. escrevi “Basta instruir os LLMs… a não fazerem isso.”
O material de origem é um guia de. Wikiprojeto AI limpoé um grupo de editores da Wikipedia que procura artigos gerados por IA a partir do final de 2023. O editor francês da Wikipedia, Ilyas Lebroux, fundou o projeto. Os voluntários marcaram mais de 500 artigos para revisão e, em agosto de 2025, publicado Uma lista formal de padrões que eles continuavam vendo.
As ferramentas de Chen sãoarquivo de habilidade” para Claude Code, assistente de codificação baseado em terminal da Anthropic. Isso inclui um arquivo formatado em markdown que adiciona uma lista de instruções escritas ( dê uma olhada aqui) é adicionado aos prompts inseridos no modelo de linguagem grande que alimenta o assistente. diferente do normal prompt do sistemaPor exemplo, as informações sobre competências são formatadas de forma padronizada e o modelo Claude foi aperfeiçoado para ser mais preciso na sua interpretação do que simples instruções do sistema. (Habilidades personalizadas requerem uma assinatura paga do Claude com execução de código habilitada.)
No entanto, como todos os prompts de IA, o modelo de linguagem não segue necessariamente o arquivo de habilidades perfeitamente. Então o Humanizer realmente funciona? Em nossos testes limitados, o arquivo de habilidades de Chen fez com que a saída do agente de IA parecesse menos precisa e mais casual, mas pode haver algumas desvantagens. Isso não melhora a factualidade e pode impactar negativamente sua capacidade de codificação.
Em particular, algumas instruções do Humanizer podem ser enganosas dependendo da tarefa. Por exemplo, a habilidade Humanizador tem a seguinte frase: “Tenha uma opinião. Não apenas relate os fatos, reaja a eles. ‘Eu realmente não sei como me sentir sobre isso’ é mais humano do que uma lista neutra de prós e contras.” Parece humano ser imperfeito, mas se você estiver usando Claude para escrever documentação técnica, esse tipo de conselho provavelmente não irá ajudá-lo.
Apesar de suas falhas, é irônico que um dos conjuntos de regras mais referenciados da web para detectar escrita assistida por IA possa ajudar algumas pessoas a subvertê-lo.
encontre um padrão
Então, o que a IA está escrevendo? O guia da Wikipedia tem muitos exemplos específicos, mas para ser breve, mencionarei apenas um aqui.
Segundo o guia, alguns chatbots gostam de apimentar os seus assuntos com frases como “marca um momento crucial” ou “é uma prova de…”. Eles, tal como as brochuras turísticas, chamam o cenário de “de tirar o fôlego” e descrevem a cidade como “situada numa” área cénica. Eles acrescentam a frase “-ing” no final da frase para torná-la analítica e dizem que “simboliza o compromisso da região com a inovação”.
Para contornar essas regras, a habilidade Humanizador instrui Claude a substituir palavras exageradas por fatos simples e fornece o seguinte exemplo de conversão.
na frente: “O Instituto de Estatística da Catalunha foi oficialmente criado em 1989, marcando um momento crucial na evolução das estatísticas regionais em Espanha.”
traseira: “O Instituto de Estatística da Catalunha foi fundado em 1989 para recolher e publicar estatísticas regionais.”
Claude lê e faz o melhor que pode como uma máquina de correspondência de padrões para criar resultados que correspondam ao contexto da conversa e da tarefa em questão.
Por que a detecção de gravação da IA falha?
Mesmo com um conjunto de regras criadas com tanta confiança pelos editores da Wikipédia, Eu escrevi isso antes Sobre por que os detectores de escrita de IA não funcionam de maneira confiável: Não há nada inerentemente único na escrita humana que possa distingui-la com segurança da escrita LLM.
Uma razão é que a maioria dos modelos de linguagem de IA tendem a preferir certos tipos de linguagem, mas, semelhantemente às habilidades do Humanizador, eles podem ser incentivados a evitá-los. (No entanto, há casos em que o OpenAI é muito difícil de encontrar: anos de luta para travessão. )


















