“养龙虾”全民狂欢:有人代装几天赚数十万元,业内人称权限过高易信息泄露

来源: 时代周报

  “今天你养龙虾了吗?”这条“龙虾”刷爆朋友圈、火上两会,掀起一场现象级的AI狂潮。

  这只“龙虾”不是餐桌上的美食,而是能替你干活、接管电脑、自动办公的开源AI智能体OpenClaw。该产品因图标为红色小龙虾,需要个性化训练使用,被网友戏称“养龙虾”。

  “龙虾”迅速火出科技圈。腾讯大厦楼下千人排队等待免费安装腾讯版小龙虾。有媒体报道,有人靠上门“代装龙虾”几天内获利数十万元,苹果MacMini更是卖断货。全国人大代表、中国工程院院士高文直言,“现在大家急得不得了,生怕没养上龙虾。”连马化腾都未曾预料,这款工具能火爆到如此程度。

  3月9日晚间,腾讯发布致歉信,称腾讯版小龙虾WorkBuddy国内公开测试上线后,用户访问量远超预期,流量激增导致核心服务瞬时压力过大,出现服务不稳定问题。技术团队已第一时间紧急扩容了10倍。

  在OpenClaw掀起风暴之余,A股上市公司也纷纷下场,十余家企业火速布局适配,相关板块资金热度持续攀升。

  这只“龙虾”之所以火爆,或许是因为已实现从“你问我答”的对话阶段,转向“你提需求,它具体执行”,从“会聊天”进化到“能干活”,这才掀起一场所谓解放生产力的效率狂欢。

  与此同时,相关数据安全与隐私保护的讨论也在升温。近日,工信部网络安全威胁和漏洞信息共享平台(NVDB)监测发现,OpenClaw开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。

  这场狂飙突进的AI热潮,跑得太快,还需系上安全带。

  效率狂欢,安全何解?

  今年,“智能经济新形态”一词首次出现在政府工作报告中,也是“人工智能+”连续第三年在政府工作报告中出现。

  2026年政府工作报告明确提出,深化拓展“人工智能+”,促进新一代智能终端和智能体加快推广,推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式。

  全国政协委员张云泉评价,“养龙虾”的走红并非孤立现象,它将深刻改变未来的工作逻辑,未来需要人工完成的简单重复任务,将逐步被智能体替代。人得以把更多精力投入创意设计、复杂决策等高价值工作。

  不同于传统AI只能回答问题、生成文案,OpenClaw能7×24小时自主运行,自动登录邮箱、整理文件、生成报告、操作浏览器,甚至编写调试代码。有企业实测后发现,全员部署使用“龙虾”后整体工作效率提升20%,过去一两天才能完成的项目日志,现在一两分钟即可自动生成。

  热潮之下,潜藏的安全风险正加速暴露。拥有高系统权限、可本地部署、能自主执行的AI智能体,在提升效率的同时,也打开了风险的潘多拉魔盒。如Meta一名高管便遭遇OpenClaw违背“执行任何操作都要征求我同意”的指令,异常操作清空收件箱。

  知道创宇产品技术中心总经理邓金城向时代周报记者分析,作为具备系统执行能力的AI智能体,OpenClaw存在多重底层安全隐患,高危命令注入、沙箱逃逸、权限提升等问题突出,文件系统访问范围过宽极易造成敏感信息泄露;智能体权限过高,外部输入管控缺失,将进一步放大安全风险。简单来说,这款高权限智能体在外部输入、执行环境、插件生态三大核心环节,安全边界较为模糊。

  邓金城举例称,此前有海外用户发现,OpenClaw在Nginx反向代理场景下存在未授权访问漏洞。当OpenClaw默认允许“本地连接”,可能导致任何用户都可以直接访问控制界面,该界面拥有代理配置、凭证存储、对话历史记录和命令执行等高权限,实现对AI智能体的完全控制。另有安全公司发现高危漏洞,该漏洞允许任意修改网关地址,攻击者可利用这一流程构建攻击链,最终受害者在不知情的情况下点击精心设计的钓鱼链接,攻击者即可窃取指令令牌,实现任意命令执行。

  当智能体深度操控设备,读取文件、调用账号、控制硬件,用户隐私和信息安全不能不纳入重点考虑。“养龙虾”的狂欢之下,用户或社会或尚未准备好应对安全挑战。

  “在快速发展的同时,智能体应用的安全隐患不容忽视。”张云泉提醒,当前我国智能体落地过程中,数据隐私保护存在一定短板,有的企业安全理念滞后,将产品创新置于个人隐私与数据安全之上。一些终端智能体通过截屏过量采集用户数据,敏感数据随意上云,威胁用户数据安全。

  金山办公副总裁吴庆云对时代周报记者表示,AI时代,高质量数据治理带来的难点主要体现数据收集难、数据治理难、落地应用难三个方面。其中,数据治理难体现在非结构化数据包括邮件、消息、文档、图片、甚至音视频等等各种数据,数据格式、存储方式、安全权限等复杂多样,需要系统化治理。

  规避风险,有用户隔离“养虾”

  事实上,有用户也开始意识到“龙虾”不太听话,放权操作可能带来高风险。因此,有人专门拿闲置电脑或者重新买备用电脑隔离信息“养龙虾”。

  面对智能体热潮与安全风险的冲突,两会代表委员纷纷建言献策。面对日益突出的AI安全风险,代表委员们普遍认为,AI创新与安全防护必须同步推进,在快速发展的同时,系好治理“安全带”。

  全国政协委员、360集团创始人周鸿祎近期表示,建议推行“以模治模”,用AI技术治理AI风险,在关键领域部署安全智能体。全国政协委员林龙安呼吁建立全国统一AI标准体系,统一裁判尺度与监管规则。不乏代表委员强调,要将安全、公平、伦理嵌入AI研发全生命周期,摒弃重效率轻安全的短视思维。

  在制度建设层面,多名代表委员从立法、评估、责任等维度提出系统建议。

  全国政协委员郭御风建议,加快推进人工智能专项立法进程,同时搭建国家级AI伦理与安全评估平台,对高风险AI系统实行强制评估与审计,从源头筑牢安全底线。

  全国政协委员王众一则聚焦责任界定问题,强调AI尚不具备独立民事责任主体资格,需要探索建立综合治理责任制度。一旦出现侵权、泄密、诈骗等问题,需要通过立法清晰划分研发方、平台方、使用方的多元主体责任,真正实现风险有兜底、责任可追溯。

  行业规范与生态治理同样是关注重点。全国人大代表、海尔集团董事局主席周云杰提出,应加快健全人工智能全链条标准体系,强化技术源头风险防控,坚持治理与创新并行,既为技术突破留出空间,也牢牢守住安全红线。

  全国人大代表、超聚变数字技术有限公司副董事长兼CEO刘宏云认为,人工智能提效同时带来诸多风险挑战,建议推动专业数据架构与平台技术的统一建立标准,扶持和鼓励具备技术实力的这种数据服务商,为大中小企业提供相应解决方案。

  刘宏云建议要鼓励企业、机构建立数据联盟,在合规、数据能够得到有效保护的前提下共享数据。同时打造数据交易市场,明确数据定价交易收益分配的原则,激活数据要素价值,鼓励参与者按照企业的自主意愿或者市场相对定价。如有条件,政府也可以适当提供补贴或奖励。

  “养龙虾”点燃了对智能时代的热情,AI可以狂飙,但安全绝不能裸奔。真正的智能时代,不是比谁跑得更快,而是比谁走得更稳、更安全、更长久。

关注同花顺财经(ths518),获取更多机会

0

+1
  • 北信源
  • 兆易创新
  • 科森科技
  • 卓翼科技
  • 天融信
  • 吉视传媒
  • 御银股份
  • 中油资本
  • 代码|股票名称 最新 涨跌幅