咨询电话: 027-88109788
人工智能模型开源的知识产权规则及法律风险!
发布于 2026-04-01 07:00 阅读()
在开放创新时代,人工智能模型开源逐渐成为技术扩散与产业协同的重要路径。围绕著作权、专利和商标等知识产权规则体系,开源技术在与之产生深层互动的同时,也对既有知识产权规则体系带来了系统性挑战。在此基础上,聚焦人工智能模型开源以重点考察许可证规则的个性化、差异化发展、对商业价值的强化关注以及模型代码与模型权重分置不同许可等方面的制度特征,并以DeepSeek为例考察以许可证为核心的开源社区构建实践。此外,进一步从知识产权与合同法律风险、安全可控与技术依赖风险以及国际制度竞争与监管不确定风险三个维度思考模型开源的风险结构,并据此提出相应的技术治理路径与科技安全治理对策,包括完善模型开源与知识产权制度的衔接机制,构建自主可控的人工智能开源社区与许可证,并在国际制度竞争中积极塑造中国开源规则的话语权,以期为数智时代开源治理提供规范与政策层面的综合回应。
开源作为全球数字创新的重要协作机制,已成为大国科技竞争与产业自主创新的重要阵地。对我国而言,开源既是融入全球技术生态的直接路径,也是应对外部技术限制、培育新质生产力的关键抓手。
我国开源政策已逐步纳入国家数字化战略的总体布局,呈现出从“积极参与”向“体系引领”升级的趋势。“十四五”期间,我国开源生态进入体系化建设阶段。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》强调“支持数字技术开源社区等创新联合体发展,完善开源知识产权与法律体系,鼓励企业开放软件源代码、硬件设计和应用服务”。在此基础上,多项专项规划进一步细化。《“十四五”软件和信息技术服务业发展规划》强调繁荣国内开源生态,加强组织治理与基础设施建设。《“十四五”数字经济发展规划》提出支持基于自主核心技术的开源社区与协作平台。聚焦人工智能领域,《“十四五”国家信息化规划》明确建设人工智能开源社区与公共数据集,推动框架与软硬件协同。为保障相关成果,《“十四五”国家知识产权保护和运用规划》将构建开源知识产权与法律体系纳入关键任务,为开源生态的规则供给与治理能力建设提供了明确的法治支撑方向。进入“十五五”展望期,我国开源生态进入主导引领阶段。相关研究与行业机构提出,需加强开源体系建设,打造原始创新策源地。与此同时,2025年工业和信息化部提出了下一步工作考虑,以加快推进开源体系建设,完善我国开源生态。
然而,我国开源生态在深化发展的同时,亦面临着日益严峻复杂的外部环境挑战。近年来,美国持续加强对华技术限制,其管制范围已从硬件延伸至开源社区访问及特定模型使用,试图构建对华技术壁垒。美国以《出口管理条例》(以下简称EAR)为核心,构建起覆盖硬件、技术和软件的综合性管制体系,在此框架下,注册于美国的开源基金会(如Apache、Linux)及代码托管平台(如GitHub)理论上均受EAR约束。2025年1月,美国工业与安全局发布《人工智能扩散规则》,首次系统性地将“某类人工智能模型权重的跨境转移”纳入出口管制,并与针对先进计算芯片、云服务访问的“人工智能扩散”政策配套实施。尽管该规则于同年5月被撤销,但特朗普政府意图构建人工智能高性能芯片管制体系的动向依然明确。美国商务部工业与安全局(BIS)亦表示,未来将推出新的《人工智能扩散框架》替代规则。2025年7月23日,美国发布《赢得人工智能竞赛:美国人工智能行动计划》,一方面主张向盟友输出“美国人工智能全栈”以构建技术联盟,另一方面要求强化对华出口管制并推动盟友协同。与此同时,美国亦积极介入全球南方国家的开源市场竞争。由此可见,美国对华开源技术的限制体系正呈现出范围持续扩大、程度不断深化、手段日趋多元的演进趋势。
这一趋势直接影响我国开源生态与人工智能发展。其一,国内开发者难以及时获取前沿代码与工具,不易参与国际协作与贡献关键代码;其二,我国研发体系被迫转向自主或非美替代技术路线,短期内面临性能落差、生态割裂与成本攀升等多重挑战;其三,全球技术生态走向地缘化与碎片化,人工智能等关键领域对华技术壁垒逐步形成,一定程度上可能阻碍我国技术进步。
在内部发展需求与外部环境挑战的双重驱动下,我国的开源战略正经历从技术应用层面向规则主导层面的转型。在此过程中,核心目标是建设更具自主性、开放性、韧性的本土开源生态,发展更为领先、安全、可信的人工智能体系。而实现此目标的关键在于加快完善开源知识产权应用机制,为创新主体提供清晰稳定的制度环境,激发开源活力,促进开放共享,助力科技创新,推动我国在全球开源治理体系中扮演更为积极、建设性的角色,提升制度性话语权。
开放创新日益深化,开源运动已从最初排除知识产权制度转向灵活应用知识产权规则。开源范围也随之扩大,包括开放源代码、开放专利授权、开放数据共享以及开放知识产权。这一趋势体现了我国开放创新的实践形式日益丰富,该领域的知识产权应用也已进入高级阶段。
开源运动最初源于对传统著作权体系的反思,随着其不断发展完善,逐渐与著作权制度兼容,并借助著作权制度的“排他性”机制实现其开放共享的目的。在这一过程中,开源许可证是落实著作权开放政策的最直接有效工具。本质上,开源许可证是一份具有合同效力的法律文件,其明确规定开发者和使用者之间的权利义务,一方面授予使用者以使用、研究、复制、分发等权利,另一方面也设定了使用者需遵守的一系列义务,如保留原作者的著作权声明等。通过这种方式,开发者得以突破传统著作权“保留所有权利”的默认规则,实现“部分权利保留”,在开放创新与核心利益保护之间取得更好平衡。
为适应不同的商业需要和协作模式,开源许可证发展出多种类型。以衍生作品的开放要求为例,可主要分为两类。一类是宽松式许可证,如MIT、Apache 2.0等,修改后的代码可以闭源,运用至商业软件。此类许可证可以最大化利用代码,繁荣生态,促进创新。另一类是著佐权(Copyleft)许可证,以GPL为代表,要求衍生作品必须以相同的开源许可证保持开源,以此维持开源生态的延续性。
聚焦到人工智能领域,开源生态显现出由“技术开放”向“负责任开放”演进的全新趋势。传统意义上的技术开放主要关注代码的可用性,并以促进协作与创新为核心目标。然而,人工智能模型的开源不仅包括传统的模型代码,还扩展至模型权重、训练数据等复合型组成部分。在此背景下,开源实践不仅需要继续推动技术创新,还应积极应对人工智能可能引发的社会与伦理风险,包括但不限于数据滥用、隐私侵犯、虚假信息生成以及恶意攻击等。以Hugging Face为代表的平台在推进模型开源时,除沿用MIT、Apache 2.0等传统许可证外,亦逐步引入诸如BigScience OpenRAIL-M、CreativeML OpenRAIL-M等强调“负责任使用”的新型模型许可证,明确禁止歧视性用途,并对特定执法与司法应用施加限制。此类“负责任开放”的生态导向,有助于在推动人工智能的开放创新与维护社会价值之间实现良好平衡。
开源运动凭借开源许可证实现了著作权法体系下的制度创新,但其在专利制度中却面临潜在威胁。一方面,专利法所保护的是基于产品、方法或其改进的技术方案,其保护性质更具功能性与排他性。这意味着,即使开发者在未参考任何专利文档的情况下独立编写代码,但只要其实现的技术方案落入某一专利的权利要求范围,仍可能构成侵权。另一方面,虽然开源与专利制度都强调公开,但专利法要求的充分公开通常不包含程序代码,这种公开内容上的不对等,进一步增加了开源社区在不知情状态下侵犯专利权的可能性。
为化解上述专利风险,开源生态已逐步发展出一套多层次的法律与治理应对机制。其一,在开源生态中,发展“逆向回转”的专利策略。具体而言,开发者先申请专利,后授权他人免费使用,但保留在特定条件下收回权利或进行防御的能力。这样既可以促进开放共享,又可以维护企业利益。2014年,特斯拉公开300多项电动汽车专利,允许全球善意使用,意在推动电动汽车技术普及,促进电车产业整体发展,同时确立特斯拉的技术领导地位。丰田于2015年和2019年先后开放燃料电池与电动化技术专利共计约2.4万件,旨在推广其技术路线,构建以丰田为核心的标准生态。2021年,华为将欧拉开源操作系统(openEuler)正式捐赠给开放原子开源基金会,内容包括代码和软件包、创新项目、商标、域名、社区基础设施等。2024年,华为开源操作系统OpenHarmony面向全场景、全连接、全智能时代开放,由开放原子开源基金会管理。以上这些企业通过开放核心专利,推动形成事实标准,掌控底层数据与模型,以构建开源生态并最终在生态中占据主导地位,形成竞争壁垒。其二,构建防御性专利联盟。开放发明网络(OIN)是目前全球最大的防御性专利池,成员间交叉许可Linux系统相关专利,承诺不对开源社区行使专利权,有效降低了专利诉讼风险。随着人工智能开源项目的普及,OIN也已将人工智能与机器学习相关专利纳入其防护范围。其三,在开源许可证中设计专利互惠条款,要求贡献者授予用户必要的专利许可,并对提起专利诉讼者实施许可终止的反制,这种“反诉终止”条款有效抑制了专利攻击行为。
开源模式依托开放共享促进技术创新,然而项目品牌的交叉与混合使用亦衍生出复杂的治理问题。在开源生态中,其商标控制通常依靠制定商标使用政策实现。该政策通常由项目所属的开源基金会、社区成立的独立法律实体或主导项目的商业公司主导制定,其明确规定社区贡献者、下游分发者、商业合作伙伴各自有权使用商标的许可场景、行为规范与侵权救济途径,如谷歌推动成立了“开放使用共同体”(OUC),统一管理旗下三个重要开源项目的商标权,包括Istio、Angular和Gerrit Code Review,即体现了通过制度化安排实现商标治理的典型思路。
需要强调的是,商标权独立于著作权,开源贡献者基于开源许可证贡献代码,但并不代表着其自动取得商标使用权,因此不得擅自使用项目商标为其个人产品背书。以Meta Llama 4为例,该模型文本事先声明,除满足协议特定要求外不对外授予商标许可,并要求使用者遵守Meta的品牌规范。再如Android商标,Android相关商标由Google掌握,未经Google许可,即使使用开源部分的Android代码,也不能使用Android相关商标,否则构成商标侵权。若使用Android相关商标,必须依据Android官方网站所发布的品牌指南规则所限制的方式进行使用。这些案例都充分说明,在开放代码、繁荣生态的同时,也需要严格控制商标,防止品牌价值稀释,维护市场竞争优势。
在对商标授权设定严格边界的同时,还必须同步审慎规制商标的复合使用行为,即规范将项目商标与其他品牌商标、设计元素或标识进行组合、拼接或关联展示等各类使用情形。此类做法表面上可能有助于提升视觉效果或辨识度,实则容易削弱商标区分商品或服务来源的核心功能,并在无形中模糊既有品牌形象,造成品牌价值的稀释甚至信誉受损。因此,有必要对这类使用予以严格限制并原则上加以避免,明确禁止使用者将项目商标纳入其自身品牌标识体系或构成要素之中。以《Mozilla商标指南》为例,其明确规定不得将Mozilla商标用于其他产品名称,不得将其商标与任何其他符号、文字、图形组合使用或嵌入标语,不得作出任何足以暗示Mozilla背书或存在特定关联关系的表述,并要求在合法使用时附加商标权属声明,以凸显权利归属与授权边界。由此可见,商标规范并非形式性的技术要求,而是维护品牌清晰形象与开源生态有序运行的关键制度安排,开源社区的各类参与者均应予以高度重视并严格遵守。
与传统源代码开源不同,人工模型开源内容不仅仅包括源代码,亦包括模型权重、训练数据及方法等要素。与之相应的是,人工智能模型许可证亦呈现出不同于传统开源许可证的差异性特征。一方面,人工智能模型开源许可证呈现出个性化、差异化的发展趋势,同时亦与市场紧密关联,更加聚焦商业价值的维护;另一方面,人工智能模型开源对于模型代码与模型权重的许可呈现出分层特点,并围绕许可证逐渐形成了相应的开源社区规范。
人工智能模型开源许可证的演进呈现出由“通用化”向“个性化”发展的趋势。在大模型发展早期及部分学术项目中,开发者常采用成熟的开源许可证。如Apache-2.0、MIT 等传统开源许可证仍然被广泛采用,特别是在模型代码层面。MIT 许可证以其高度宽松、几乎不设使用场景限制和再许可条件的特点,成为众多模型项目代码仓库的首选。例如,DeepSeek-R1 在GitHub与Hugging Face上均表明“模型权重采用 MIT 许可证”,明确允许商用、修改与再分发,且支持基于输出结果进行再训练。类似地,部分Qwen 3系列模型与Mistral系列模型仍沿用Apache-2.0或其他OSI认可的通用许可证,用以覆盖模型代码或部分权重。
如今,随着模型训练成本的指数级上升,模型发布者不再愿意无条件让渡大量权利。越来越多的人工智能开源模型开始采用定制化、差异化开源许可证。许多头部企业甚至做到“一个模型一项许可证”,针对不同版本、不同尺寸甚至不同用途的模型分别制定独立协议,对其使用范围、商用条件、溯源义务、安全要求等进行精细化差异设计。如Meta 针对Llama 3、Llama 3.1、Llama 3.2、Llama 3.3 分别发布对应的“Meta Llama 3/3.1/3.2/3.3 Community License Agreement”,在版本间对商业门槛、命名义务与合规要求作出细微调整;苹果为OpenELM系列模型采用“Apple Sample Code License”,在传统示例代码许可证基础上嵌入对模型权重与生成结果使用的特别说明;Mistral AI针对“非生产用途”和“研究用途”,分别发布“Mistral AI Non-Production License(MNPL-0.1)”与“Mistral AI Research License(MRL-0.1)”两种定制协议,明确禁止在未获授权的情况下将模型用于生产环境。这些案例均体现了开源许可证从通用范式转向个性化定制的趋势。
开源许可证的个性化、差异化发展表明企业已不再被动套用现有通用许可证,而是主动依据其特定商业模式、技术开放的战略考量以及风险评估,系统性设计许可条款。这不仅有助于企业维持开放生态红利,也能够使其牢牢把握对关键技术与商业路径的核心控制权。
为保护技术成果,维护商业利益,越来越多的开源许可证引入了以“月活跃用户(以下简称MAU)”为核心的商业限制条款,区分不同体量用户的使用权利。借助此类许可证,企业可以实现维持开源生态红利和自身市场竞争力的良好平衡。面对中小开发者、初创企业和研究机构等不直接构成竞争压力的主体,企业可选择免费开源,赋予其修改、分发等权利。这不仅能够促进自身代码的持续优化,还能增强模型代码的使用率,以便更快构建企业的市场生态体系。而对于实力更为强劲的竞争对手,则可通过MAU条款设置合理的使用门槛,一方面控制核心数字资产的无偿共享,另一方面也能创造潜在的商业收入或者合作机会。
典型例子如Llama 4,其社区许可协议规定,产品或服务月活跃用户数超过7亿的主体须向Meta另行申请许可,否则无权依据该协议行使任何权利。据统计,全球月活跃用户数超7亿的主体屈指可数,因此该条款的指向性极强,旨在限制向规模庞大、实力雄厚的主体无偿共享代码,以此维持自身竞争力,形成战略性开放格局。同样地,Qwen定制许可证规定“产品或服务月活跃用户超过1亿”的主体需另行与阿里云协商商用授权。部分如Xverse等许可证更为严苛,其直接规定,凡涉及商业用途必须事先获得许可方书面授权。
人工智能系统的模型代码和模型权重具有完全不同的法律属性与商业价值。模型代码指编写人工智能模型的源代码,如训练推理的逻辑,其本质是可读可修改的软件,易于复现。模型权重指人工智能训练后的参数值,承载了数据和训练过程,其是人工智能系统的核心,是企业最具价值的数字化资产,价值巨大且不可复现。因此,二者通常采用不同的开源许可证。模型代码通常采用较为宽松的许可证,推动开源生态保持开放创新;而模型权重则需要施以更严格的限制以维护开发者的核心利益和市场优势。
以DeepSeek推出的相关模型为例,其在授权模式上的差异化设计具有一定代表性。DeepSeek-R1与DeepSeek-R1-Zero的模型代码和模型权重均适用MIT许可证,对外开放程度较高。在此之后推出的DeepSeek V系列、DeepSeek LLM系列等模型,则改为采用分类许可模式,将模型代码与模型权重分别加以规定。其中,模型代码继续适用相对宽松的MIT许可证,允许用户在较大范围内进行修改、分发和使用,从而有利于技术传播与生态发展;模型权重则适用由DeepSeek自主制定的许可证,通过对未经授权的再分发和商业化利用设置较为严格的限制,以维护开发者的核心权益。类似的安排也体现在Meta发布LLaMA模型时的做法上,其模型权重在发布初期仅限于学术研究用途,之后又通过社区许可协议,在附加条件下以非完全开放的方式对外提供。由此可见,在当前人工智能领域,公开模型代码并对模型权重设置一定的使用与分发限制,正在逐步演变为在开放共享与商业利益保护之间寻求平衡的主要授权模式。
开源许可证不仅是具有合同效力的法律文书,更是构建开源社区的重要支撑。其重要性体现在以下三个方面。
第一,以开源许可证为核心的社群规范为开源社区内各类主体提供了明确的行为指引。对贡献者而言,开源许可证帮助其了解参与项目的行为规范,明确贡献代码的授权方式等;对使用者而言,开源许可证可以使其掌握使用代码的条件和范围,熟悉衍生作品的开源要求等;对维护者而言,开源许可证助力项目发展方向和治理规则的搭建,以及推动构建争议解决机制;对企业而言,通过开源许可证能够更好地制定内外部开源政策,在开放创新与维护利益之间取得平衡。以DeepSeek为例,DeepSeek-R1、DeepSeek-R1-Zero等模型代码和模型权重均采用MIT许可证,赋予用户更加自由的使用、修改、分发权利。而DeepSeek V系列、DeepSeek LLM系列等的模型权重则采用DeepSeek定制许可证,类似于负责任的人工智能许可证(Responsible AI License, RAIL),旨在限制用户利用模型进行特定行为,如传播虚假信息、生成暴力内容、监视欺骗、侵犯隐私等等。开发者在使用受DeepSeek许可证约束的模型时,必须明确同意不会将模型用于生成虚假信息或进行网络攻击等恶意行为,从而在源头上对模型的恶意使用进行控制和约束。
第二,同一类型许可证的不同分支交错重叠,在社群中形成严密的“许可证丛林”。DeepSeek在Hugging Face上多个模型,不同模型的许可证存在或细微或显著的差异。但这种“丛林”并非混乱,而是社区针对不同项目、不同发展阶段、不同目标用户进行精细化权利控制的体现。核心项目可能采用更严格的许可证以保护其核心价值,而工具库或周边生态可能采用更宽松的许可证以促进快速采纳。开源社区可以策略性地选择不同许可证,以平衡开放性与商业利益之间的关系。
第三,开源许可证的合理运用,有利于企业拓展市场对外扩张市场,提升影响力并巩固竞争优势。一方面,DeepSeek-R1、DeepSeek-R1-Zero等模型代码和模型权重均采用MIT许可证。这一宽松许可证,给予用户更加自由的使用、修改、分发权利,能够吸引全球开发者参与代码审查,促进代码问题发现,加快代码更新迭代,提升代码质量。同时,DeepSeek不强制要求衍生作品开源,允许第三方将代码集成至闭源商业软件中。此举大大降低了其他企业的采用门槛,有助于快速扩大用户基础和生态影响力,推动从“技术共享”到“生态搭建”的阶段转化,有利于推动模型在更多场域的高质量部署。当前,DeepSeek-V3、R1已被中国工商银行、中国邮政储蓄银行、北京银行等多家银行机构本地化部署,用于智能问答、指标问答、客服助手等面向客户或内部员工的智能服务。另一方面,DeepSeek注重开源社区的透明度与信任度。DeepSeek组织开源周等活动,每日开源新内容,同时鼓励贡献文档、教程,建立技术支持论坛,这些举措均有助于加快建立与开发者的信任关系,激发社区的参与热情,提高社区影响力,持续维持并不断提高竞争优势。
信息技术革命的浪潮正在深刻重塑全球经济与社会结构,开源运动的蓬勃发展是其核心驱动力之一。目前,开源已从一种边缘化的开发实践,演进为支撑数字社会运转的核心基础设施。当开源浪潮和人工智能这一颠覆性技术交汇时,风险的复杂性与深刻性进一步被放大。大型语言模型、生成式人工智能等基础模型开源,在极大促进技术民主化与创新迭代的同时,也将其固有的、被放大了的法律安全治理风险传递给了全球开发者与用户。传统软件开源所面临的挑战在人工智能模型开源语境下有了新内涵和更强的治理紧迫性。
人工智能模型开展的开源实践本质上属于通过特定许可协议实施的知识产权授权行为,传统开源许可证是从代码文本的著作权法逻辑开始的,然而人工智能模型的法律属性涉及作品、技术秘密与数据集合等方面,这使得既有规则面临严重的适配性难题。
开发者常常会投入大量资源,对从开源社区获取的源代码或者基础模型加以改进、微调,进而形成具备独特竞争优势的衍生模型,这些经过改进之后的技术信息,能否被认定为商业秘密,是实践过程中面临的首要难题。按照我国《反不正当竞争法》相关规定,商业秘密需要满足“秘密性”“保密性”和“价值性”这三个要件,然而人工智能模型开源的“传染性”或者“衍生性”特征,对“秘密性”的认定构成了根本性挑战,许多主流的开源许可证像GPL存在所谓的“著佐权条款”,要求基于GPL许可的软件所开发的任何衍生作品,都必须以相同的GPL许可证进行开源,一旦开发者使用了GPL组件来改进其人工智能模型,其改进成果理论上就不再具有“秘密性”,因为许可证本身强制要求其公开,会产生“著佐权条款”的强约束风险。
早期开源运动对软件专利持强烈排斥态度,视其为与开源共享精神相悖的事物,随着开源商业模式成熟以及人工智能领域硬件与软件深度融合,开源社区对专利态度从绝对排斥变为谨慎共存。现代很多开源许可证明确包含专利授权条款,规定贡献者贡献代码时授予所有下游用户非排他全球性免费专利许可,涵盖其贡献中包含的任何专利权利,这一设计目的是防止贡献者用专利对开源社区进行“伏击”,但此种默示许可机制亦潜藏深层风险。其一,对于人工智能模型来说,其创新点可能会同时受到版权和专利的双重保护。一方面,只要模型代码具备最低限度的独创性,即可作为软件作品纳入著作权法的保护范围;另一方面,与该模型密切相关的神经网络架构、训练方法、优化算法乃至特定系统组合方案,也有可能符合专利法关于新颖性、创造性和实用性的授权标准。在这种双重保护格局下,单纯依靠传统开源许可证中的一般性条款,难以穷尽各类权利类型及其边界,容易导致下游使用者对其实际获得的专利授权范围产生误判。其二,硬件开源让专利困境变得更加严重。人工智能的运行没办法离开高性能的计算芯片,而芯片设计属于知识产权壁垒较高的领域之一。虽然人工智能模型开源内容可能包含相应的开源指令集架构,但是高端人工智能芯片的制造与设计依旧被少数巨头通过专利组合牢牢掌控,开源人工智能模型和专有硬件的结合让专利风险更难以剥离,模型开发者可能在不知情的状况下使用依赖特定受专利保护的硬件功能进而陷入侵权纠纷。
人工智能模型的开源在促进技术普惠的同时,也如同打开了“潘多拉魔盒”,释放出严峻的安全风险。这些风险不仅来自开源组件固有的安全漏洞,更在于人工智能模型本身“双刃剑”属性,还有由此可能形成的深层技术依赖路径。人工智能应用并非凭空构建,它和传统软件一样大量依赖开源第三方库和框架。新思科技OSSRA报告揭示“84%的代码库至少包含一个已知开源漏洞”这种情况在人工智能领域同样适用且更为严峻,人工智能系统里的安全漏洞存在“遗传”和“放大”的效应。一个基础的开源库如果存在漏洞,所有依赖这个库的上层人工智能框架以及最终模型应用,都会自动“遗传”这一安全方面的缺陷,因为人工智能开发当中复杂的依赖链条,开发者甚至难以全面审计其应用里所有组件的安全状况。新思科技报告指出,85%的代码库包含超过四年前的开源组件版本,这意味着大量已知的且本可修复的漏洞,正通过陈旧的软件依赖在整个人工智能生态中持续扩散。
与传统软件不同,大型人工智能模型本身拥有强大能力,开源就意味着把这种能力,不管是善还是恶,无差别地交到全世界手上。一个开源且能力强大的语言模型,既能用于学术研究以及代码生成,也能用于制造大规模虚假信息、发动高级网络钓鱼攻击、自动化生成恶意代码。部分负责任的人工智能机构在开源其模型时,会采取一系列安全缓解措施,发现并修复模型危险能力、对模型进行安全微调让其拒绝生成有害内容、在许可证里加入使用限制条款。然而一旦模型的权重被公开发布,技术上稍有实力的行为者就能轻易“越狱”或移除这些安全限制,他们能通过进一步微调,重新激活或增强模型的有害能力,创造出一个对立面的孪生版本,这种风险是开源模式内生的,难以借助技术补丁或法律条款彻底根除。
在开源旗帜之下或许会隐藏新的技术垄断与依赖,当科技巨头主导开发的人工智能框架或基础模型成为行业标准时,整个生态系统可能会被其技术路径所锁定。一方面,在生态兼容性上,大量预训练的方案、第三方商业化利用的工具往往围绕主流框架进行构建,开发者若选择非主流框架可能会面临生态资源匮乏、学习成本高昂等现实困境;另一方面,在技术演进方向上,占据主导地位的企业通过对核心代码和关键接口的实际控制,事实上掌握了人工智能模型未来发展的节奏与方向。实际上,这些巨头企业在开源的形式之下塑造出了新的技术控制结构与竞争优势,严重遏制了其他企业主体的发展空间与创新动力,不利于市场的公平竞争和技术的创新发展。
各国围绕人工智能治理的立法竞赛,以及对开源人工智能模型的不同监管态度,为开发者和跨国企业带来了巨大的不确定性风险。目前,全球主要经济体都在加快构建自身人工智能监管框架,但其在路径和重点存在差异呈现出碎片化状态。欧盟《人工智能法案》会对“通用目的人工智能模型”施加额外的透明度、风险管理和评估义务,美国更多依靠现有法律框架的延伸以及行政部门的命令来实施监管,中国的监管路径则着重于具体应用场景和算法备案,典型如国家互联网信息办公室等部门发布的《生成式人工智能服务管理暂行办法》规定,要求提供生成式人工智能服务的组织和个人开展安全评估和算法备案。全球监管版图出现的此种分化趋势,表明一个开源人工智能模型的发布和使用或许要在不同法域遵循截然不同的规则,开发者必须投入大量资源开展法律研究,以避免在欧盟、美国、中国等关键市场遭遇运营障碍。
伴随人工智能国际竞争的加剧,人工智能开源许可证所引发的开源政治风险亦会随之到来。在开源运动的发展过程中,开源许可证曾被用作商业竞争的工具,开发者通过刻意构建结构复杂且规则繁复的“许可证丛林”以实质性提高竞争对手的合规成本,从而在市场竞争中获得制度性优势。值得注意的是,在地缘政治格局日益紧张与技术竞争不断加剧的情况下,被视为商业竞争工具的开源许可证极有可能被嵌入符合国家价值观却和其他国家法律或产业政策冲突的条款,进而成为服务国家利益或企业联盟整体战略的“选边站队”的工具以迫使全球开发者在不同技术生态和制度体系间做选择。此外,开源社区潜在的垄断行为也需要引起警惕。当开源基金会或社区在全球范围内具备广泛影响力时,其所作出的规则调整、项目合规决策往往不再局限于社区内部,而是具有事实上的全球外溢效力,进而对跨国技术合作、产业竞争秩序乃至各国规则治理结构产生实质性影响。在此情形下,如果相关决策过程受到特定国家利益或特定利益集团偏好的显著影响,便可能进而演变成变相的技术壁垒、歧视性待遇,甚至构成对特定主体的事实性拒绝交易,从而在功能上偏离开源所宣称的开放、共享与非歧视等核心理念。
如今人工智能浪潮正以席卷之势覆盖全球,开源模式已然成为推动技术创新、构建产业生态以及促进知识共享的核心驱动力,然而人工智能模型具有复杂性、数据依赖性以及潜在社会与安全影响,这让传统软件开源治理框架面临前所未有的挑战。人工智能模型的开源不只是涉及代码层面,还关乎算法、权重以及数据等核心要素,其治理路径必须在激发创新活力与管控安全风险之间,寻求系统而精细的平衡。
人工智能模型的开源实践并非发生在既有法律体系之外,而是嵌入在著作权、商标权、专利权、商业秘密以及数据相关规则所构成的既有制度结构之中,其运行空间与发展方向在很大程度上受到这些制度安排的影响。开源运动最初起源于对著作权“保留所有权利”模式的一种反叛行为,并且通过许可证的方式创设出了“保留部分权利”的共享范式,在现有的知识产权框架范围之内,对模型开源所具有的特殊性进行精准界定与调适,以此确保激励创新和促进开放之间达到平衡。与传统源代码开源相比,人工智能模型开源内容不仅仅包括模型代码,还包括模型权重、训练数据以及模型输出等多种要素。如果缺乏对这些要素在法律属性上的合理划分以及不同规则之间的有效衔接,开源实践容易在权利归属、边界认定和责任承担等方面不断累积不确定性,既削弱开源在促进创新协同方面的积极作用,也增加技术主体在长期经营和跨界合作中的制度风险。为此,有必要在尊重开源精神与市场发展规律的基础上,进一步加强人工智能模型开源与知识产权制度的衔接,以推动形成兼顾开放与秩序的规则环境。
在内部制度层面上,完善人工智能模型开源与知识产权制度的衔接,首先需要在理论和规范解释上形成相对统一的基本立场,即将开源许可证理解为权利人在既有知识产权框架内的一种运用方式,而非权利保护的对立面。一方面,有必要对模型相关要素在不同情形下的法律属性作出较为清晰的类型化判断,对模型代码、模型权重以及训练数据等内容分别说明其与著作权、商标权、专利权、商业秘密或其他制度之间的对应关系,并据此梳理开源条款与复制、修改、传播、再许可等权能之间的对应逻辑。另一方面,通过政策指引、指导性案例或统一的解释规则,逐步明确哪些行为可以视为在许可范围之内,哪些行为属于超越授权的利用,以及在何种条件下可以适用权利限制条款,从而使权利人、使用者以及司法机关在判断事实与适用规范时拥有较为一致的共识,为模型开源提供稳定的解释环境和可预期的法律后果。
此外,推动人工智能模型开源与知识产权制度之间形成良性衔接,不仅是出于化解法律风险的需要,还关系到未来创新格局和开放合作空间的塑造。从国内层面看,通过在立法政策、司法裁判和行政监管之间逐步形成自洽的规则体系,为模型开源提供明确的使用边界和条件,将有助于增强科研机构、企业和开发者对开源模式的制度信心,减少因不确定而产生的顾虑,使更多前沿成果在可控范围内向社会开放,形成创新资源共享与产业升级之间的良性互动。从国际层面看,在全球范围内围绕人工智能技术展开的规则竞合已呈现加速态势,各国对开源模型的政策态度、知识产权保护方式以及安全监管路径,将共同影响未来开放格局的走向。在此背景下,通过在国内先行形成较为成熟的衔接路径与实践经验,不仅可以为本国主体参与跨境开源合作提供坚实的制度支撑,也有利于在国际对话中提出具有说服力的规范主张,在保持技术开放的同时,维护自身合法权益与科技安全,进而实现从被动适应他律规则向积极参与甚至引导规则形成的转变。
在人工智能技术高度依赖开源生态的发展格局下,构建具有自主可控能力的开源社区与许可证体系,已经不仅是一项技术问题,更关涉国家科技安全、产业基础稳固以及数字治理能力的整体提升。当前人工智能领域大量关键算法、基础模型和技术路线,仍然高度依赖其他国家主导的开源社区及其规则体系,一旦外部环境、平台政策或相关国家法律政策发生变化,开源社区运行秩序乃至访问权限、使用范围都可能受到实质性影响。为此,围绕人工智能建立具有自主可控空间、满足本国法律与治理需求、又能持续吸引和凝聚开发者的开源社区和许可证,不仅是提升技术创新能力和产业竞争力的内在要求,也是防范关键技术受制于人的重要保障,对于增强人工智能领域的安全韧性、培育本土开源文化、形成稳定的技术合作网络,具有不可替代的战略意义。
与开源社区的可持续运行密切相关的,是以许可证为核心的开源规则体系能否实现自主可控与本土适配。长期以来,广泛使用的开源许可证多产生于域外法律环境,其制度逻辑、责任划分以及默认前提往往以国内法为背景,在适用于人工智能模型这一全新技术客体时,在著作权、专利权、数据合规要求等多个维度与本国法律政策之间可能存在缝隙乃至冲突。如果缺乏面向人工智能场景、以本国法治为基础的开源许可证体系,不仅不利于开发者准确理解自身权利义务,还容易在大规模商业化应用时积累合规风险。因而,有必要在坚持著作权、专利权、数据治理等既有基本制度的前提下,面向模型这一新型客体,形成若干层次分明、适用场景清晰的许可证范型,在宏观层面上对模型的可获取性、可修改性、可再分发性以及商业化条件作出原则性安排,并通过政策引导、行业自律和典型实践逐步沉淀为具有普遍指引意义的“规则共识”,从而在促进模型资源开放共享的同时,为相关主体提供明确可依的规范基础。
从制度形态与运行机制的角度看,建立自主可控的人工智能开源社区和许可证并不意味着脱离国际开源传统而另起炉灶,而是需要在吸收既有开源经验的基础上,以本国法律体系、产业结构和安全需求为约束条件,形成具有内在一致性的社区治理架构和许可证规则体系。社区层面,应当通过清晰的成员角色划分、透明的决策程序和可预期的合规要求,协调科研机构、企业主体、开发者群体以及公共部门之间的多元参与,既保障技术协作的开放性和活力,又确保关键资源与核心项目不因治理失序而陷入碎片化或被少数主体事实控制。许可证层面,则需要围绕模型代码、模型权重、训练数据及配套工具等不同要素,构建与本国知识产权、数据安全与网络安全规则相衔接的授权框架,明确允许行为、限制行为与义务要求之间的边界,使参与者在遵守社区规则的同时,能够对自身权利、责任和风险形成清晰预期。通过社区治理规则与许可证条款的相互配合,可以将“自主可控”的要求具体化为对关键基础设施的掌握、对规则制定权的实质参与以及对重大风险环节的有效约束,而不是简单的技术封闭或形式上的所有权控制。
在全球化时代背景下技术标准竞争本质实则是规则与话语权竞争,人工智能开源作为全球性协作事业,其治理规则形成过程已成大国科技博弈新场域。中国作为人工智能领域重要参与者,不能仅满足扮演规则的被动接受者,而要积极主动参与乃至引领国际开源规则的制定工作,把国内治理实践经验转化成具有普适性的国际标准和制度规范,进而在全球人工智能治理体系里嵌入中国智慧与中国方案。此外,应积极发展软法引领作用,通过开展更多高质量的司法实践活动,逐步明确人工智能模型开源许可证中涉及数据、模型权重、伦理约束等新型条款的法律效力以及解释规则。每一个清晰且合理的司法裁判,都是向国际社会展示中国保护知识产权、尊重契约精神、拥抱开源创新法治理念的实践样本。在此基础上,我国还应积极参与并深度融入现有的国际人工智能标准化与治理体系,鼓励和支持我国的专家学者以及企业代表更广泛且更深入地参与到国际标准化组织的工作当中去,努力实现从“跟跑者”向“并跑者”甚至“领跑者”的转变。
中国在多边平台上的角色,应从技术贡献扩展向规则塑造演变。对于开源模型的透明度、可解释性、公平性、安全性评估标准以及数据治理规范等核心议题,我国应当系统性地阐述自己的立场和主张,借鉴国内在《网络安全法》《数据安全法》《个人信息保护法》以及《生成式人工智能服务管理暂行办法》等立法实践中所积累的经验,把其中的合理内核提炼成为具有国际适用性的原则和标准草案,并提交给国际组织进行相关讨论。在此基础上,围绕开源人工智能的安全与利用,我国可倡导并形成相应的模型治理框架与社区合规建议,为不同应用场景下的模型开源设置清晰化、明确化的使用准则,通过在国际场域持续不断地发声和做出专业贡献,逐步提升我国在人工智能开源规则制定中的影响力和制度性话语权。同时,还应坚持以“一带一路”倡议和人类命运共同体理念为指引,构建和推广具有中国特色、为广大发展中国家所接受的开源治理新范式,倡导一种更加包容、普惠和注重发展的开源治理理念,以此确保人工智能模型开源在保障开源主体合法权利的同时,促进人工智能技术的普惠性发展。
通过构建平行于西方体系且与之互补的开源合作网络和规则体系,我国既能够为全球人工智能均衡发展贡献自己的力量,还能够在广大发展中国家群体中树立负责任建设性的领导者形象,进而在地缘政治和科技竞争日益激烈的当下为我国开辟广阔且充满善意的国际合作空间,最终在全球开源规则的多元博弈格局中占据有利地位。
人工智能模型开源是信息技术革命与开放创新范式深度交汇的产物,其发展既推动了技术民主化和全球协作进程,也暴露出知识产权、技术安全和国际治理等多方面复杂性。本研究系统揭示了开源技术和人工智能模型开源在知识产权规则、法律风险以及治理路径上的深层矛盾,暴露出传统知识产权制度在应对技术快速迭代时的适配性危机,并揭示了开源社区治理与专利冲突等实践挑战。未来,相关研究要着力构建适应人工智能时代特征的知识产权治理框架,完善开源社区合规机制,推动技术治理和国际规则话语权协同发展,持续为人工智能的可持续发展提供更具前瞻性的制度支撑与治理智慧。
注:因字数关系,注释省略。如引用、转发请注明《电子知识产权》2026年第1期(未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任)
新闻资讯
-
人工智能模型开源的知识产权规则 04-01
-
“法治副园长”来了知识产权保护 03-31
-
最高人民法院发布第六批人民法院 03-31
-
以法治“利器”破发展之难绍兴知 03-31
-
民营经济促进新质生产力发展的机 03-31
-
打通知识产权保护运用全链条 03-31
-
与最高检调研组同行·一线探访湖 03-30
-
从玉米小麦到苹果石榴 最高法发 03-30

