智能体“越界”:如何回应具身智能 的新挑战?
时间:2025-03-26 16:06:14 来源:河南经济报
今年2月,北京市发布《具身智能产业培育行动计划(2025—2027年)》,提出三年内培育千亿级产业集群,推动智能体在工业、医疗、家庭等场景的规模化应用。具身智能技术作为人工智能领域的重要分支,正逐渐成为与各行各业深度融合的创新驱动力,其相关应用快速扩展至社会经济的各个层面,推动生产力的跃升和生活方式的变革。伴随着技术的快速发展,具身智能在感知与认知、学习与泛化、安全性、隐私保护以及人机关系等多个方面都面临着挑战。探索分层治理的路径框架,确保技术发展与法律治理同步推进,对我国具身智能技术的健康发展和产业竞争力的提升具有重要意义。
具身智能引发的涟漪
(一)数据隐私危机。相比传统数据收集,具身智能设备收集方式更加隐蔽和难以监管,且并不总是基于用户的明确同意,可能在未经许可的情况下进入、拍摄他人私密空间,公开他人私密活动,处理他人个人信息,进而将隐私威胁转变为实害结果。同时,具身智能设备依赖实时数据传输,易成为网络攻击目标,其安全防护存在隐患。例如,某品牌家用机器人因系统存在严重漏洞,黑客可轻易入侵并监控镜头。此类事件暴露了数据在传输与云端存储中的双重风险,既可能被拦截篡改,也可能因集中存储成为攻击“靶心”。
(二)责任归属难题。当具身智能体引发损害时,开发者、使用者、运营方的责任划分模糊。以特斯拉自动驾驶事故为例,车主指控系统缺陷,企业则归咎于驾驶员操作不当,传统法律中的过错责任原则难以覆盖智能体自主行为的复杂性。此外,具身智能侵权还可能引发算法责任、数据责任等新的责任形态,如果存在算法歧视或错误,导致具身智能体做出侵权行为,算法开发者是否应该承担相应的责任?对于数据的收集、使用和管理过程中出现的问题,相关主体又该如何承担责任?
(三)实体侵害风险。相比生成式人工智能,具身智能体可以自主行动并与环境产生互动,如果遭受病毒、木马攻击,或者智能体自身决策失误,产生错误的物理交互行为,可能引发人身伤害、财产损失,例如,服务机器人操作失误、自动驾驶事故、生产事故等,机器伤人该如何防护,成为亟须解决的重要问题。
(四)伦理道德困境。具身智能的决策可能因数据偏见导致歧视,歧视决策以及基于决策产生的行为和结果,可能侵犯他人人格权、公平交易权、知情权、选择权等权利。例如,人形机器人在医疗、教育、家庭等敏感领域的应用,可能引发对人类情感的不当操纵、对儿童和老年人的不当影响等问题。算法歧视还可能加剧社会不平等,导致某些群体在就业、教育等方面受到不公正对待。在缺乏统一伦理准则的情况下,企业和社会各界在技术应用中的道德风险难以得到有效管控,不仅影响技术的健康发展,还可能引发公众对技术的不信任和抵触情绪
分层治理的先行探索
具身智能技术的治理需要兼顾创新激励与风险防范,应从“法规—监管—技术—伦理”4个层次构建治理框架。
(一)法规先行,为智能体划清“责任边界”。基于ISO 13482(服务机器人安全要求)等规范,推动制定具身智能安全标准。健全贯穿事故调查、技术鉴定、证据收集和质证等环节的责任认定程序。通过规制具身智能产品、服务和系统的透明性与可解释性,破除算法黑箱,确保事故原因可追溯。针对具身智能自主决策引发的损害,可借鉴德国《自动驾驶法》经验,探索“AI责任保险”机制,要求企业按技术风险等级缴纳保费,同时设立政府主导的风险补偿基金,用于无法归责时的救济保障。
(二)创新监管,推动形成多元共治格局。建立分级分类监管机制,定期对具身智能体的数据安全状况进行检查和评估。加强行业自律,建立严格的数据最小化收集原则,限制非必要数据采集,探索建立人形机器人隐私保护行业联盟,定期开展行业自律检查,对违反隐私保护规定的企业进行通报和处罚。采用“监管沙盒”模式,允许企业在可控环境中试错,引导企业查找问题、改进设计、降低风险。扩大公众参与,推动建立AI影响社会听证制度,开展数据安全与AI伦理教育,提升公众风险意识,强化治理韧性。加速AI监管工具(例如,中国信通院的“智御”大模型、差分隐私技术等)研发推广,实现动态合规监测,构建AI赋能个人信息保护新范式。
(三)技术赋能,助力破解数据安全难题。促进数据标准化建设,推动制定统一的数据标准和规范,提高数据的互操作性和可复用性;建立数据质量评估体系,定期对数据集进行评估和优化,确保数据的真实性,通过构建高质量数据集,有效减少仿真数据与实际数据之间的差异,提高具身智能技术的可靠性和安全性。加强数据隐私保护技术的研究,确保数据在流通和使用过程中的安全性和合规性;增加用户知情权和控制权,提升数据处理透明度,对于敏感数据进行本地存储与匿名化处理,避免云端集中泄漏风险。发挥区块链存证技术优势,赋予电子数据自我验真功能,通过减少主观干预增强电子证据的客观性,保障电子证据还原案件事实的完整性,为具身职能责任认定提供技术范本。
(四)伦理约束,为高风险场景“精准扎篱”。推动建立政府、行业、学界和公众等多方参与的伦理审查机制,确保技术应用的合规性和伦理性。针对技术风险等级差异,率先在医疗、交通、政务等领域划定“红线”,实施强制性审查,必要时附加人工干预机制。例如,福田在全国首创的《政务辅助智能机器人管理暂行办法》明确规定,每个数智员工必须配备“人类监护人”,为技术发展筑牢了责任底线。推动制定具身智能行为准则,约束其自主决策边界,禁止完全替代人类核心权益的场景(如情感陪伴机器人不得替代法定监护人职责)。(作者:中国科学技术协会助理研究员 康仕高)
关键字:
豫经智库网版权与免责声明:
- 1. 本网注明来源为豫经智库—河南经济报的稿件,版权均属于河南经济报社,未经河南经济报社授权,不得转载、摘编使用。
- 2. 本网注明“来源:XXX(非豫经智库)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。本网转载其他媒体之稿件,意在为公众提供免费服务。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。
- 3. 如涉及作品内容、版权等其它问题,请在30日内同本网联系。邮箱:jingjibao@qq.com