智能体“代理”行为的法律归责困境 ——以OpenClaw类AI代理人为视角
Abstract
以OpenClaw为代表的开源AI智能体的快速普及,标志着人工智能从“对话交互”向“自主执行”的范式跃迁。智能体能够自主拆解任务、调用工具、执行多步骤操作,在邮件收发、商业决策、数据处理等场景中发挥着类似人类代理人的功能。然而,现行代理法律制度以“被代理人的意思表示”为核心构造,预设代理行为须以自然人或法人的意志为归依。AI智能体的自主性、学习性与决策黑箱等特征,使得授权意思表示的认定、超越权限行为的责任归属以及各方主体的责任分配面临根本性挑战。本文通过分析OpenClaw类智能体的技术特征,梳理现行代理法在智能体场景中的适用困境,结合杭州互联网法院“AI幻觉”侵权案等典型司法实践,借鉴欧盟《人工智能法案》与美国各州的立法探索,提出以风险分层理论为基础的责任分配框架。研究认为,应当区分低风险信息处理行为与高风险财务决策、人身影响行为,建立分层级的合规义务体系;引入过错推定责任以缓解受害人的举证困难;在技术层面嵌入可解释性AI作为合规要件,构建开发者、部署者与用户之间的连带责任与内部追偿机制。本文旨在为智能体时代的代理法重构提供理论参照与制度建议。