说句实在话,我这两年都快被AI助手整魔怔了。不是说我矫情啊,你听听是不是这么回事:打开电脑,右下角蹦出个AI助手问你要不要帮忙写报告;打开手机,语音助手冷不丁插一句“主人有什么吩咐”;连打开个订餐软件,都要先被一个AI对话框拦一下——“亲,需要我帮你推荐今天的套餐吗?”我就想问一句,我买的是电脑和手机,又不是买了个“AI保姆”天天盯着我,至于吗?
老话说得好,“过犹不及”。咱山东老家那边有句土话叫“狗拿耗子多管闲事”,说的就是这种啥都要插一手的AI。这不,最近网上有个统计说出来吓一跳——个人用户关掉这些AI功能花费的时间,竟然占了日常操作系统使用时长的320%-1。啥概念?等于你花在关AI上的时间,比正常用电脑的时间还多两倍多,这不成了“AI折腾人”了嘛。

不过好在,2026年这一波整治AI助手的力度是真上来了,不是以前那种喊两嗓子就拉倒的架势。
先说个有意思的事儿。今年4月初,国内18家大模型厂商联合233家上下游企业,一块儿搞了个《新一代人工智能产业功能规范管理倡议与实施要求》-1。里面提了个“可关闭的AI”原则——所有软件和设备,必须给用户提供一键关掉AI功能的入口,而且关了之后必须彻底停掉后台运行和数据采集,不能搞什么“7天自动重启”之类的骚操作-1。这个就很解气了,网上问卷显示94.2%的用户支持这个原则-1。说实话,看到这个数字我一点都不意外,谁愿意被一个关不掉的AI天天在后台“偷听”啊?

政策是一方面,行动是另一方面。光说不练假把式。
上海那边今年3月启动了“清朗浦江·2026”网络生态治理旬,专门把整治AI技术滥用列为五大重点专项行动之一-7。北京也不甘落后,网信办启动了为期一个月的“清朗京华·AI向善”专项行动,重点打击利用AI生成色情低俗信息、假冒他人侵权信息、捏造虚假谣言这几类问题-29。中央网信办那边也在节前专项行动里集中整治了借AI生成传播“数字泔水”的问题,处置了3.9万多个违规账号、清理了70多万条违法违规信息-30。说白了,就是那些用AI批量造垃圾内容、污染网络环境的,这回是动真格的了。
为什么这些整治AI助手的行动如此必要?我跟你说几个真实发生过的事情,听完你就懂了。
一个是“AI两小虎”翻车的事儿。去年5月,公安部门在应用宝里检测出35款App违规收集个人信息,里面居然有智谱清言和Kimi这两个响当当的AI应用-22。智谱清言的问题是收集的个人信息超出了用户授权范围,Kimi则是收集的信息跟业务功能根本没啥直接关系-22。说白了就是该拿的拿,不该拿的也拿。你用它的AI功能帮写个东西,它顺手把你通讯录也扫了一遍,这谁能放心?
还有个更离谱的。去年10月,两款叫Chattee Chat和GiMe Chat的AI陪伴应用被曝出数据泄露——40万用户的数据、4300多万条私密聊天记录、60多万张图片和视频,全部暴露在公网上,连个密码都没设-40。你没听错,60多万张图,4300多万条私密对话。很多人在这些AI“伴侣”面前毫无防备地倾诉最隐私的事情,结果全被看了个精光。这种整治AI助手的呼声,能不高吗?
更不用说深度伪造技术带来的诈骗了。国家安全机关今年3月专门发了个提示,说有人利用AI深度伪造技术克隆亲友的声音和面容,搞冒充转账、虚假投资这些诈骗活动-36。以前看到“我”的视频还觉得靠谱,现在连视频都可能是AI伪造的,真是防不胜防。
还有AI客服的事儿。法治日报去年底专门做了个整版报道,说AI客服“听不懂人话、找不到真人”成了普遍困扰-21。四川有个陈女士,因为内容被系统判定违规,跟AI客服掰扯了好几天,翻来覆去就是那句话“请您按照要求修改内容后重新申诉”,跟面“会说话的墙”没区别-21。你说你是AI助手,但你连人话都听不明白,这叫什么助手?
那这些整治AI助手的措施到底落地得怎么样?说实话,我是真看到了一些实打实的变化。
首先是法律法规层面开始系统化了。2026年1月1日,新修订的网络安全法正式施行,新增了人工智能相关条款,要求完善人工智能伦理规范,加强风险监测评估和安全监管-。十部门还联合印发了人工智能科技伦理审查办法,重点关注人类福祉、公平公正、可控可信等六个方面-。这意味着AI从研发阶段开始就要接受“体检”了,不是等出了问题再来擦屁股。
行业标准也在密集推进。工信部今年3月公示了121项人工智能行业标准计划项目,光是跟AI安全治理相关的就好几个-49。还有《人工智能安全治理框架2.0》发布,确立了“安全与发展并重”的核心逻辑-51。说白了就是告诉所有人:AI可以发展,但不能乱发展,安全和创新两手都要硬。
国家网信办这边也在密集出手。去年底发布了《人工智能拟人化互动服务管理暂行办法》征求意见稿,专门规制那些跟人搞“情感互动”的AI服务,明确了八类禁止性活动,包括用AI搞情感陷阱诱导用户、套取敏感信息等-13。今年4月初又起草了《数字虚拟人信息服务管理办法》征求意见稿,对AI虚拟人搞“形象授权”“换脸”等问题提出了明确要求-11。你以后在网上看到数字虚拟人,必须全程显示“数字人”标识,别想浑水摸鱼冒充真人。
总而言之,2026年这一波整治AI助手,让我看到了一个清晰的趋势:AI不可能“野蛮生长”下去了。不管你是大厂的智能助手,还是小厂做的AI伴侣,都得老老实实遵守规则,该关的关、该标明的标明、该授权的授权。技术本身没有对错,但使用技术的人和组织,必须对自己做的事负责。
最后我想说一句掏心窝子的话——我从来不反对技术进步,甚至我每天都在用AI写东西、查资料、做总结。但技术应该是为人服务的,不是反过来让人被技术“绑架”。如果有一天AI助手真的能听懂人话、办好人事、守好人的隐私,那我举双手欢迎。但在那一天到来之前,像这样的整治,来得越猛越好。
下面我选了三个不同网友的提问,咱们一起来聊聊。
这个确实太扎心了。很多人可能跟你有一样的体验,买回来的电脑自带了一堆所谓的“AI助手”,每次打开软件就问你“要不要AI帮你写报告?”“要不要AI帮你做PPT?”跟牛皮糖一样甩不掉。
先说个好消息。今年4月发布的《新一代人工智能产业功能规范管理倡议与实施要求》里,专门针对你这个痛点提了一条——所有软件和终端设备必须提供AI功能的一键关闭入口,关掉之后必须彻底停止后台运行和数据采集,严禁设置7天或30天后自动重启之类的“隐藏开关”-1。这意味着,你之前遇到的那种“关了又自己冒出来”的情况,以后是违规的。
不过这个规范正在逐步落地中,目前还不是所有电脑厂商都完全执行了。在你买的新设备还没完全做到“一键永久关闭”之前,我给你几个实操建议:
第一,拿到新电脑或者新装软件之后,先别急着用,花个十分钟把所有设置选项翻一遍。一般在“设置”-“隐私与安全”-“辅助功能”或者“应用管理”这些分类下面,会藏着一个“AI助手”“智能助手”或“语音助手”的开关,把它关掉。
第二,如果找不到关闭入口,去看软件的“关于”页面或者帮助文档。有些厂商会把关闭方法写在小字部分,虽然藏得深但确实存在。如果连文档里都找不到,那就直接在软件的“反馈”或“意见”里投诉,投诉的人多了,他们才会重视。
第三,也是最重要的——学会行使你的知情权和选择权。根据新修订的网络安全法,你作为用户有权知道软件在收集你哪些数据、用这些数据做什么-。如果你发现一个AI功能关不掉、或者关掉之后还在偷偷运行,保留好截图证据,可以向当地的网信部门或者12321网络不良与垃圾信息举报受理中心投诉举报。
还是那句话,你买的电脑是你自己的,不是AI的。谁也没有权力在你设备里“赖着不走”。
我的回答:
你这个担心一点都不多余。我跟你一样,每次把一些比较私密的文档或者想法喂给AI的时候,心里也会咯噔一下——这东西到底存哪儿了?会不会被别人看到?
先说个你可能会觉得“有点扎心”的事实:AI陪伴应用的数据泄露事件告诉我们,4300万条私密聊天记录、60万张图片视频就这么暴露在公网上,连个密码都没设-40。更夸张的是,有些AI助手里还存在零点击攻击漏洞,你甚至什么都不用点,数据就能被悄悄窃走,社会安全号码、医疗记录、财务详情全都能拿到手-39。所以你的担心完全不是小题大做。
那怎么保护自己?我给你几个实在的建议:
第一,也是最重要的一条——永远别在AI对话里输入任何真实隐私信息。你的真实姓名、身份证号、银行卡号、家庭住址、工作单位内部文件,这些统统不要出现在AI对话框里。记住一个原则:你说出去的每一句话,都可能被存储、被训练、被泄露。不是危言耸听,是已经有血的教训了。
第二,去查一下你常用的AI应用有没有通过国家相关合规认证。比如有没有按照《生成式人工智能服务管理暂行办法》进行备案,有没有落实《人工智能生成合成内容标识办法》的要求-。一般正规大厂的App在“设置-关于我们”里会标注备案信息,或者你直接在网上搜一下“××× 合规备案”也能查到。没备案的那些小作坊AI,尽量别用。
第三,定期清理你的AI聊天记录。大多数AI应用在设置里面都有“删除对话记录”或者“清除历史”的功能,用完就删,不要让它长期保存在云端。虽然不是100%安全,但至少能减少风险敞口。
第四,留意一下国家最近出台的数字虚拟人管理办法。虽然这个主要是管AI虚拟形象的,但它里面提到的“个人信息单独同意”原则对你也有参考价值——任何AI服务用你的个人信息之前,必须明确告诉你用途,而且必须经过你的单独同意-11。如果某个AI应用在你不同意的情况下还在收集你的数据,你可以直接向网信部门举报。
网友“技术乐观派”: 整治是好事,但会不会管得太死,把创新的积极性给打击没了?毕竟中国AI现在在全球竞争里也挺猛的,管太严会不会反而让美国那些AI跑得更快了?
我的回答:
你这个角度问得特别好,也是很多人心里嘀咕的。一说到“整治”“规范”“管理办法”,有些人的第一反应就是“又要管死了”“又要限制创新了”。但我想告诉你一个你可能没注意到的事实:从2026年出台的这些政策来看,中国在AI治理上走的是“安全与发展并重”的路线,不是“为了安全牺牲发展”,更不是“管死为止”。
我给你说几个关键点:
第一,《人工智能安全治理框架2.0》的核心编撰者明确说过,这个框架的核心逻辑就是“安全与发展并重”,通过全生命周期管理和分级分类治理,确保AI在可信可控的前提下实现高质量发展-51。注意“并重”这两个字——安全和发展的权重是一样的,不是一边倒。
第二,2026年政府工作报告首次提出“打造智能经济新形态”,明确要“深化拓展‘人工智能+’”,促进新一代智能终端和智能体加快推广-。同时要求“完善人工智能治理”-。看到了吧?一边是大力推广,一边是完善治理,不是非此即彼的关系。
第三,国家网信办在出台数字虚拟人管理办法时,强调的也是“包容审慎监管”原则,鼓励技术在各行各业落地应用的同时划定合规底线-10。说白了就是:你尽管去创新、尽管去发展,但有些底线不能碰——比如不能侵犯个人隐私、不能诱导未成年人、不能搞深度伪造诈骗。
所以我的判断是,这种整治不是要把AI打趴下,恰恰相反,是要让AI在一个更健康的环境里成长。你看那些真正跑得远、跑得稳的东西,哪个不是有规矩的?没有规矩,劣币驱逐良币,最后大家一起完蛋。
再说个你可能没注意到的对比:美国加州今年也通过了全球首部《陪伴聊天机器人法》,专门管那些提供情感陪伴的AI服务-59。这说明什么?说明AI治理不是中国独有的,而是全球共识。大家都在探索怎么在鼓励创新的同时把风险管住。在这方面,中国的做法甚至走在了前面——我们的制度框架更系统、更全面。
所以你放心,只要合规经营、尊重用户隐私、遵守基本伦理,AI不但不会被管死,反而会因为有秩序而获得更好的发展空间。那些靠“耍流氓”“偷数据”“坑用户”活着的AI,本来就不该有生存空间,管掉它们,才是对好产品的保护。