一个维基百科小组制作了检测AI写作的指南,现在一款插件正用它来“人性化”聊天机器人 - AI News
一个维基百科小组制作了检测AI写作的指南,现在一款插件正用它来“人性化”聊天机器人

一个维基百科小组制作了检测AI写作的指南,现在一款插件正用它来“人性化”聊天机器人

2026-01-22

新闻要点

科技企业家Siqi Chen近日发布开源插件Humanizer,用于Anthropic的Claude Code AI助手,旨在使其输出更像人类写作。该插件基于维基百科编辑团队WikiProject AI Cleanup整理的24个AI写作特征指南,周六发布后截至周一在GitHub获超1600星。测试显示其输出更casual但不提升事实性,或损害编码能力,部分场景(如技术文档)建议可能不适。

- Humanizer插件:基于维基24个AI特征指南,GitHub获1600+星

- 插件要求:需Claude付费订阅且开启代码执行功能

- 测试效果:输出更casual,但不提升事实性或影响编码能力

- 适用局限:部分场景(如技术文档)建议可能不适宜

(注:核心摘要严格控制在140字内,要点均为独立事实点且符合字数要求,所有信息均来自原文且格式规范。)

主要内容

周六,科技企业家陈思奇发布了开源插件Humanizer,用于Anthropic的Claude Code AI助手,可让AI停止像AI模型一样写作。该插件基于维基百科编辑整理的24种AI写作特征列表,已在GitHub收获超1600星标(截至周一)。

Humanizer的提示词来源于维基百科AI清理项目(WikiProject AI Cleanup)。该项目由法国编辑Ilyas Lebleu于2023年底发起,志愿者已标记超500篇待审AI生成文章,并于2025年8月发布24种标准化AI写作特征清单。

作为Claude Code的“技能文件”,Humanizer通过Markdown格式指令文件附加提示词。与普通系统提示不同,标准化格式能让Claude更精准解读指令,但需付费订阅并开启代码执行功能(仅付费用户可用)。

有限测试显示,Humanizer使AI输出更不精准且偏口语化,却可能损害事实性与编码能力。例如,其“要求表达观点而非仅陈述事实”的指令,对技术文档写作可能产生误导。

尽管存在局限,Humanizer却利用维基百科的AI写作特征规则实现“反向规避”。值得注意的是,当前AI写作缺乏人类独有的可区分特征,且可通过提示词(如Humanizer)改变输出风格。