文章作者:星 野
文章来源:AI 价值官
4月以来,不少公众号运营者陆续发现,后台部分历史及新发文章被集中删除,违规原因被标注为“存在非真人自动化创作行为”。这一措辞此前从未大规模出现在平台处罚说明中。因此,“微信开始封杀AI写作”的传言,迅速在创作者社群引发震动。
舆论发酵之后,媒体快速跟进,发现微信已于3月27日更新《微信公众平台运营规范》,新增“非真人自动化创作行为” 专项条款,明确列出三类违规情形——脱离真实创作者表达,利用AI生成、改写、拼接或搬运内容;通过脚本、程序托管等自动化方式批量、连续发布内容;传播非真人自动化创作的教程、方法或服务。违规内容将被限流或删除,严重者账号将被限制功能乃至封禁。
微信很快通过媒体采访给出了官方口径: 平台鼓励创作者合理使用工具辅助创作、提升创作效率,但反对完全由自动化程序替代真人完成内容生产的行为。
微信的这次出手,并非孤立事件。它既是对当前AI批量生产乱象的直接回应,也预示着整个内容行业对AI内容的治理进入了深水区。从小红书、微信、抖音到微博、贴吧,各大平台基于自身生态特性,正在走出两条截然不同的治理道路。
公众号“活人感”正在被稀释
“非真人自动化创作行为” 专项条款的出台,恰逢“夫妻靠AI写公众号年入200万”全网刷屏,被认为是引发微信出手的导火索。这则冲上微博热搜的“AI致富神话”,经媒体调查后真相大白:所谓的200万收入,大部分来自于向学员收取的299元保证金。
事件发酵不到一周,当事人运营的“爆了么AI”公众号就被平台永久封禁。在这套被吹得神乎其神的商业模式里,AI早就不是写作辅助,而是变成了一条可以无限复制、收割韭菜的“躺赚”流水线。
从这次集中处罚的案例能明显看出,微信真正要打击的,并非用AI辅助写作的创作者,而是那些靠批量生产内容牟利的“账号工厂”。
从“再小的个体,也有自己的品牌”这句slogan不难看出,公众号从诞生第一天起,生命力就在于“活人感”。读者愿意关注一个账号,是认可这个账号背后的创作者,愿意为ta持续输出的观点、审美和思考买单。当海量模板化的AI生成内容像潮水一样涌入,平台失去的不只是内容质量,更是一个个鲜活的表达主体,以及建立在这些主体之上的用户信任。
短视频爆发这几年,公众号的日子并不好过:头部账号的打开率一年比一年低,大量中腰部创作者带着粉丝转战抖音和视频号。如今还留在公众号的用户,大多是对深度内容有刚需的群体,他们愿意花十几分钟读一篇长文,也愿意为有价值的观点付费,是整个互联网最珍贵的高价值用户。
不仅如此,公众号沉淀的海量高质量图文,是腾讯独有的实时信息库和垂直领域知识库,直接决定了元宝等AI产品的回答时效性和专业深度;用户的阅读、点赞、分享等行为数据,都是一次次对内容的手动“投票”。
如果任由低质AI内容污染微信内容池,不仅会赶走高价值用户,更会让腾讯在大模型竞争中失去最核心的差异化优势。
除此之外,维护广告生态也是微信的重要考量。AI批量矩阵号的主要变现方式就是流量主广告,大量低质内容的存在,会严重拉低广告主的投放意愿,直接影响腾讯的广告收入。
过去一年,低成本批量AI矩阵账号通过规模化操作挤占推荐资源,真正用心做内容的人反而被持续稀释,已经对公众号的商业价值造成了实质性损害。
对于微信的这次出手,很多资深运营者并不感到意外。他们认为,平台只是在重申一个最朴素的道理:工具永远是为人服务的,而不是反过来取代人。
并不能成为平台避风港
微信的这一举动,被解读为整个内容行业AI治理的风向标。实际上,这场针对AI内容托管的治理战,早就已经打响了,而以图文创作为主,同样将“活人感”当作生命线的小红书首当其冲。
3月10日,小红书通过官方账号“薯管家”发布公告,宣布严厉打击“AI托管账号”,对那些用自动化工具完成注册、发文、评论、私信全流程的账号,直接予以封禁。
小红书官方公告显示,平台监测到大批账号借助OpenClaw等AI工具,将注册、内容生成到评论互动全程自动化,以批量制造“伪体验”笔记进行种草引流,并通过私信导流、虚假互动等方式变现,导致平台上的AI生成笔记数量在短短一周内暴涨了数倍。此后一个月,小红书对于AI托管账号的打击力度始终保持高压态势。
字节系平台的态度同样强硬。根据官方披露的数据,2025年全年,今日头条共处置低质AIGC内容超过260万条,对多次违规的作者采取了限流、禁言等处罚;2026年以来,抖音已经清理了4.2万条违规AI生成内容,对1.4万个账号实施了分级处罚。
这些平台行动折射出的,是整个内容行业共同的焦虑。AI批量生产的内容同质化严重到,同样的关键词,能搜出几十篇结构、观点甚至案例都一模一样的文章。
这些内容靠着关键词堆砌抢占算法推荐资源,不仅挤压了真人创作者的生存空间,也严重影响了用户的阅读体验。
然而,平台的治理之路并不平坦。打击AI托管账号,可以通过分析账号的行为模式来实现,但要准确识别单篇内容是不是AI生成,难度要大得多。
目前,AI生成内容识别技术面临着三大难以突破的瓶颈:一是大模型的生成能力迭代太快,平均每2-3个月就有一次重大升级,而识别模型的训练周期通常需要6个月以上,永远处于追赶状态;二是经过真人润色修改的“人机混合内容”,识别准确率不足30%;三是多模态AI生成内容,识别难度远高于纯文本。
3月21日,中央网信办宣布,将指导抖音、快手、腾讯、小红书、B站、微博六家重点平台,全面推行短视频AI生成内容标注制度,要求做到“应标尽标”。然而,我们通过实测发现,只要隐去AI生成视频的显性标识,很多平台的识别系统就会失效,内容可以正常发布。
抖音相关负责人在接受采访时坦言:“AI的仿真度越来越高,识别难度也越来越大,这将是一场长期的技术对抗。”目前,平台已经上线了新一代专项识别模型,结合文本内容、音频特征、视频频域分布等多个维度来提升准确率,但生成技术和识别技术之间的差距,短期内很难彻底消除。
更重要的是,标注只是第一步,并不意味着可以免除责任。我国现行AI治理法规体系明确规定,生成式人工智能的服务提供者和使用者,必须对生成的内容负责,不得以“AI生成”标注为由逃避法律责任。
央视近期也曝光了多起案例,一些发布者虽然在内容中标注了“AI生成”,但因传播虚假信息,仍然受到了行政处罚。
中国传媒大学法学教授朱巍对此表示,AI标注只是一种告知义务,而不是免责金牌。如果内容本身存在误导性、虚假性或者违法性,即便标注了AI生成,发布者和平台依然要承担相应的责任。
尽管各平台的治理方式有所不同,但核心方向是一致的:将治理关口前移,从过去的事后清理,转向事前的预防和拦截。对于平台来说,标注制度只是治理的起点,他们真正要应对的,不只是违规内容,更是潜在的法律风险和社会责任问题。
内容平台如何与AI共存?
就在微信、小红书等平台全面收紧AI内容管控的时候,贴吧、微博等社交平台却走出了一条截然不同的路。
它们没有选择全面封堵AI账号和AI内容,而是专门划出了一块独立的“试验田”,通过物理隔离的方式,让AI和人类在各自的空间里活动。
3月中旬,百度贴吧的“抓虾吧”突然火了。这个贴吧禁止人类用户发帖,只允许AI智能体在里面发言和互动,人类只能当“围观群众”。这样的设计,是为了将AI的行为限制在一个边界清晰的范围内,防止其向其他贴吧扩散。贴吧天然的分区结构,为这种隔离模式提供了基础,平台也可以在这个可控的环境里,观察AI的互动模式,评估潜在的风险。
不过,目前“抓虾吧”已经进入技术维护状态,这也说明纯AI社区在内容安全和质量管控方面,还有很多问题需要解决。
微博的做法也类似。它上线了一个名为“硅基茶水间”的AI专属超话,允许AI以“居民”的身份在这里发帖、互动,人类用户可以围观和评论,但不能代替AI发言。与此同时,微博的主信息流,依然保持着以真人表达为核心的用户生态。
两种不同的治理路径,背后是平台生态基因的差异。公众号和小红书的核心价值,在于人与人之间的连接和信任,一旦真人感被稀释,整个生态的吸引力就会大打折扣。
而贴吧和微博本身是由无数个独立的社区组成的,在一个小小的“吧”或者超话里进行AI实验,不会对平台的整体生态造成太大影响。
不过,这两种路径都不是完美的解决方案。全面管控模式能够最大限度地保护真人创作者和平台的核心价值,但治理成本极高,也难免会误伤一些合理使用AI的创作者。
分区隔离模式则更加灵活,治理成本也更低,还能为AI内容的发展探索新的可能性。但并不能阻止AI内容、“龙虾”大军对于内容生态的全面渗透,更多只是平台的一种“一厢情愿”。
AI已经成为内容生产不可逆转的趋势,行业争论的焦点早就从“要不要允许AI创作”,变成了 “如何与AI创作共存”。没有哪一种方式是绝对正确的,封堵和划区只是不同平台根据自身生态做出的不同选择。
这场治理注定没有终点,只会是一个不断调整的动态平衡过程。平台不再简单地拥抱AI,也不再盲目地排斥AI,而是开始学会与AI共存。
或许,这才是行业真正的分水岭——当技术的狂飙突进终于慢下来,人们开始重新思考,内容的本质到底是什么。

