软著申请禁止AI编写代码:一项正确且必要的规定

14 阅读26分钟

一、这项规定说了什么,意味着什么

新版软件著作权登记申请表明确规定:申请人不得使用AI编写代码或文档,违者纳入征信记录。

这短短一句话,包含三层含义:

第一,能力要求:申请软著,意味着申请人必须具备独立编写该软件的能力;
第二,诚信要求:申请行为本身是一种声明,声明该软件系本人原创智力成果;
第三,法律责任:违规不再仅是道德问题,而将产生可追溯的征信后果。

这三层含义合在一起,构成了一个完整的逻辑:软件著作权保护的是人的创造,而不是工具的输出。


二、手写代码,是程序员的职业底线

2.1 什么是"手写代码"

在讨论这一规定之前,有必要厘清"手写代码"的含义。它并不意味着:

  • 不能使用IDE的语法高亮和自动补全;
  • 不能调用开源库和框架;
  • 不能参考文档和技术社区的答案。

这些都是程序员提升效率的合理工具,与本规定所禁止的"AI生成代码"存在本质区别。

AI生成代码,特指将需求描述输入大型语言模型,由模型直接输出可运行的代码,申请人无需理解其内部逻辑,更无需具备独立实现的能力。

这里的边界并不模糊:你是否能在没有AI的情况下,独立实现这个软件的核心功能? 如果答案是否定的,那么这个软件的著作权,本就不应该属于你。

2.2 手写代码能力,是专业判断力的基础

一名程序员能够手写代码,意味着他对计算机科学的基本原理有足够的理解:数据结构、算法逻辑、内存管理、异常处理——这些知识构成了软件工程师职业判断力的基础。

丧失这一能力的后果是深远的:

他无法审查AI生成代码的质量。 一个不懂递归的开发者,无法判断AI写出的递归是否会栈溢出;一个不理解SQL注入的工程师,无法察觉AI生成的查询语句是否存在安全漏洞。

他无法在系统出错时定位问题。 软件在生产环境中出现bug是常态。如果开发者对代码逻辑一无所知,他既无法调试,也无法修复,更无法向用户或团队解释发生了什么。

他无法做出架构层面的技术决策。 选择微服务还是单体架构,使用关系型数据库还是文档数据库,这些决策需要对技术实现的深刻理解。仅靠AI输出代码的人,缺乏做出这类判断的知识储备。

手写代码的能力,不只是"能敲出代码",它代表的是一整套经过系统训练的技术思维。这种思维,是AI工具永远无法替代的。

2.3 各行各业都有不可外包的核心能力

这不是软件行业独有的逻辑。每个专业领域都存在某些基础能力,是从业者必须亲自掌握的,不能以"借助工具"为由规避:

  • 医生:可以使用辅助诊断系统,但必须能够独立解读检查结果、做出临床判断;
  • 律师:可以使用法律检索数据库,但必须能够独立进行法律分析和文书起草;
  • 会计师:可以使用财务软件,但必须理解会计准则,能够发现数字背后的异常;
  • 建筑师:可以使用CAD软件,但必须理解结构力学,对设计的安全性负责。

软件工程师也不例外。手写代码,是这个职业"必须亲自掌握"的核心能力之一。一个无法手写代码的人申请软著,就像一个不会阅读的人申请文学奖——工具或许帮他完成了作品,但这个奖项的意义已经荡然无存。


三、AI代劳申请软著,是对制度的系统性破坏

3.1 软著的本质:对智力劳动的确认

软件著作权登记制度,其核心功能是确认软件与创作者之间的归属关系,从而为创作者提供法律保护和商业价值背书。

这一制度的有效运转,依赖于一个根本性前提:申请人确实是软件的创作者

当申请人使用AI生成全部或核心代码,这一前提就已经不成立了。AI生成的内容,在现行法律框架下既不属于AI(AI无法律人格),也不真正属于使用AI的人(他没有进行创作性智力劳动)。这种申请行为,从根本上是一种虚假陈述。

3.2 批量AI软著:一场正在发生的制度危机

数据说明问题。近年来,中国软著登记数量呈现出非线性增长,从2018年的约140万件,到2022年的约330万件,增速随AI工具的普及进一步加快。

这些数字背后,隐藏着大量为凑资质、套补贴、增加企业"技术背书"而批量申报的软著。AI工具的出现,让这种行为的门槛降至接近于零——任何人只需向大语言模型描述一个软件功能,就能获得可提交的代码和文档。

这意味着什么?

软著正在失去鉴别功能。 当一家企业持有100件软著,这100件证书本应证明其技术积累。但如果其中大量是AI批量生成的,这100件证书就什么都不能证明了。雇主、投资人、政府采购方——所有依赖软著作为参考依据的主体,都将被误导。

真正的创作者权益受损。 投入数月时间、付出真实劳动完成一个软件的开发者,其软著与靠AI一夜生成的软著,在形式上没有任何区别。这是对诚实劳动者最大的不公平。

公共资源遭到侵占。 大量软著与政府的技术扶持政策、高新技术企业认定、科技型企业评级挂钩。AI批量软著的泛滥,实质上是用虚假的技术凭证套取本应流向真实创新的公共资源。

3.3 "AI辅助"与"AI代劳"的界限

需要承认,这一问题存在灰色地带。使用AI修改注释、检查语法错误、搜索特定函数用法,与让AI生成整个系统的核心逻辑,显然不是同一回事。

但这个灰色地带并不能成为反对本规定的理由。法律和制度的边界往往不能精确划定每一个角落,关键在于确立正确的价值导向

申请软著,应当以能够独立完成该软件的能力为前提。这个原则是清晰的。至于具体执行层面如何细化,是制度持续完善的过程,不是否定这一原则的理由。


四、征信机制:让规定真正长出牙齿

4.1 为什么需要征信而不是罚款

有观点认为,将违规纳入征信过于严厉。但恰恰相反,征信机制是一个经过深思熟虑的制度设计选择,它有几个独特的优势:

覆盖面广,难以规避。 罚款可以计入经营成本,在利益足够大时被忽视。但征信记录会影响企业的银行授信、政府采购资格、高新认定、招投标等多个维度,产生持续的、全方位的制约效果。

成本与收益不对等。 靠AI批量生成软著的驱动力,往往是以低成本换取资质背书。征信惩戒将这一"低成本"行为变成"高风险"行为,从根本上破坏了这种套利逻辑。

形成行业威慑。 征信记录具有可查的特点,一旦被纳入,在合作伙伴、客户、投资方面前都将留下印记。这种社会性惩戒,比单纯的行政罚款更具持续威慑力。

4.2 "无法核验"是伪命题

批评者常说:AI生成代码无法被技术检测,规定等于一纸空文。

这一论断低估了制度的多维执行机制:

事后核查。 当一家企业因软著相关权益引发争议或诉讼时,代码的真实创作过程将面临司法审查。届时,申请人是否具备编写该代码的能力,将成为关键事实。

同行举报。 行业内部对"AI软著"现象并非毫无感知。竞争对手、行业协会、知情员工都可能成为举报来源。

能力抽查机制的可能性。 随着制度完善,针对高价值或存疑软著的现场能力核查,在技术层面完全可行。就像驾照考试无法检测每个人的日常驾驶习惯,但路考这一关已足以筛除完全不会开车的人。

声明本身具有法律效力。 申请人在申请表上签署的声明,使其承担了法律责任。即便初期无法逐一核验,一旦被查实,从申请之日起的违规责任就已存在。


五、从更宏观的视角看:这是时代的必要校正

5.1 AI工具普及带来的能力空洞化危机

AI编程工具的迅速普及,已经在教育和就业市场上产生了可观测的副作用:

在高校,越来越多的计算机专业学生开始依赖AI完成编程作业。他们能够提交通过测试的代码,却无法在白板前解释其中的任何一个数据结构选择。毕业时,他们持有的学历,与其实际掌握的技能之间,出现了结构性的鸿沟。

在职场,初级开发者中存在一种新型的"能力幻觉":借助AI工具,他们能够快速产出代码,在短期内表现出与经验不符的高效率。但当项目遭遇复杂的技术挑战,需要从底层理解和解决问题时,这种幻觉便迅速破灭。

软著禁止AI编写代码的规定,从知识产权登记这一具体场景出发,向整个行业发出了一个信号:真实的技术能力,不能被工具依赖所掩盖。

5.2 国际视角:专业资质认证领域的普遍共识

这一逻辑,在国际专业资质认证领域早有先例:

医学执照考试(如美国USMLE)明确禁止考生携带任何辅助工具进入考场。医生在工作中可以查阅数据库、使用辅助诊断系统,但取得执照的过程必须证明其独立能力。

司法资格考试同样如此。律师在实践中可以使用法律检索工具,但通过司法考试的过程,必须依靠本人的知识储备。

注册会计师考试允许使用计算器,但禁止使用财务软件。手动计算的要求,本质上是对考生理解财务原理的验证,而非仅测试其操作软件的熟练程度。

软著申请禁止AI编写代码,遵循的是同一套逻辑:资质认定的场景,必须体现申请人的真实能力,而非工具的能力。

5.3 这不是反对AI,而是划定AI的边界

本文并不主张程序员在日常工作中拒绝使用AI工具。AI辅助编程在提升开发效率、减少重复劳动方面确有价值,这无可否认。

但效率工具与资质证明,是两个完全不同的语境:

  • 日常工作中:使用AI提升效率,完全合理,也是技术进步的必然;
  • 资质申请中:以AI生成物冒充个人原创,本质上是一种欺骗行为。

划定这一边界,不是保守主义,不是技术恐惧,而是对专业诚信的基本坚守。一个社会如果连这条线都无法守住,那么所有基于资质认定的信任体系,都将面临系统性的崩溃风险。


六、熵增定律:AI代码正在制造一场无声的混乱

6.1 从物理学说起:熵是什么

热力学第二定律告诉我们:在一个封闭系统中,熵——即系统的无序程度——只会自发地增加,永远不会自发减少。要让系统保持有序,必须持续从外部注入能量。

这一定律不仅适用于物理世界,它对任何复杂系统都有深刻的隐喻意义。软件系统,天然就是一个熵增极其剧烈的领域。

一个代码库从诞生的第一天起,就在走向混乱:需求不断变化、模块之间的耦合悄然增加、历史遗留的补丁层层堆叠、文档与实现逐渐脱节。抵抗这种熵增,需要开发者持续投入真实的智力能量——理解系统的整体结构,做出有意识的架构决策,在新功能与旧逻辑之间寻找平衡。

AI生成代码,从根本上破坏了这种抵抗熵增的能力。

6.2 AI代码的熵增本质

AI生成代码时,它并不"理解"这个系统——它只是在统计意义上预测下一个合理的词元。它不知道这段代码将被嵌入一个怎样的架构,不知道三个月后有人需要修改这里的逻辑,不知道这个变量命名与整个代码库的命名规范是否一致。

这导致AI生成的代码天然携带更高的熵:

局部最优,全局混乱。 AI能生成在局部功能上正确运行的代码,但它倾向于用最直接的方式解决眼前问题,而不考虑这个解决方案对系统整体结构的影响。就像每个房间都被单独收拾得整洁,但整套房子的管线、承重墙、通风结构却越来越混乱。

风格熵爆炸。 同一个代码库中,不同时间、不同提示词、不同模型版本生成的代码,风格可能大相径庭。有的用函数式风格,有的用面向对象,有的命名冗长,有的极度简略。这种风格上的无序,是代码熵的直接表现,也是后续维护者的噩梦来源。

隐藏依赖的扩散。 AI为了快速实现功能,会引入开发者可能并不熟悉的库、框架或设计模式。这些隐藏的依赖关系如同熵的暗物质,看不见、摸不着,却在系统规模扩大时突然爆发为灾难性的兼容性问题。

错误的传播与放大。 更危险的是,AI生成代码中的错误往往不是显而易见的崩溃,而是逻辑上似乎正确、但在特定边界条件下悄然失效的细微缺陷。由于开发者不理解代码的运作机制,这些错误会随着代码的复制、引用和扩展,像熵一样扩散到整个系统的各个角落。

6.3 熵增的不可逆性:为什么这是一场危机

热力学中,熵增是不可逆的——你可以局部降熵,但代价是在更大范围内制造更多的熵。软件系统中,AI代码引入的混乱同样具有这种不可逆性:

当一个系统被AI生成代码填充到一定程度后,已经没有人能够真正理解它的全貌。重构它需要先读懂它,但读懂一段没有人真正写过的代码,比读懂有思路可循的人写的代码困难得多。最终的结局,往往不是修复,而是推倒重来——而推倒重来的成本,远高于一开始就正确构建的成本。

这正是软著规定的深层逻辑所在:如果申请人自己无法理解这段代码,这段代码带来的熵,就没有任何人能够控制。


七、代码维护性地狱:一个正在成型的行业噩梦

7.1 技术债务的加速积累

软件行业有一个著名的概念——"技术债务"(Technical Debt):为了短期快速交付而采用的不规范、不严谨的解决方案,会在未来以维护成本的形式"还债"。就像金融债务一样,技术债务也会产生"利息"——拖得越久,维护它的代价越高。

AI代码的大规模使用,正在以前所未有的速度制造技术债务。

过去,技术债务的积累速度受制于人的编码速度。一个团队一天能写多少行代码,是有上限的。这个上限本身就是一种保护机制——它迫使工程师在编码速度与代码质量之间做出取舍,迫使管理层在功能迭代与架构整洁之间寻找平衡。

AI打破了这个上限。现在,一个对系统架构一知半解的工程师,可以在一天之内让AI生成数千行代码,快速堆砌出一个"能跑"的功能。短期内,这看起来像是效率的胜利。但每一行他不理解的AI代码,都是一笔技术债务的本金,而且没有人知道利率是多少。

7.2 维护性地狱的三个阶段

AI代码导致的维护危机,往往经历三个可预测的阶段:

第一阶段:表面的繁荣(0-6个月)

项目进展顺利,功能快速迭代,AI生成的代码通过了测试,一切看起来都很好。开发者对AI的依赖悄然加深,逐渐不再主动思考代码的内部逻辑,只关注AI的输出是否"能用"。

第二阶段:裂缝显现(6-18个月)

系统规模扩大后,问题开始出现。某个边缘情况触发了AI代码中的隐藏bug,但没有人知道这段代码为什么这样写,也不知道修改它会不会影响其他地方。新功能的开发变得越来越困难,因为AI在生成新代码时,无法感知旧代码积累的各种隐含约束。开发者开始花越来越多的时间在"打补丁"上,而不是在真正的功能建设上。

第三阶段:维护性地狱成型(18个月之后)

系统已经成为一个没有人能够完整理解的黑箱。原始开发者(如果他们还在的话)也无法解释某些设计决策——因为那些决策根本就不是他们做出的,是AI做出的,他们只是复制粘贴了结果。每一次修改都如履薄冰,因为没有人能预测改动的涟漪效应。新加入的工程师面对这样的代码库,往往陷入深深的挫败感。这个系统变成了一个没有人愿意触碰、但又不得不维护的"遗产"——而它的"遗产"身份,是在创建后不到两年就获得的。

7.3 软著视角下的维护危机

将这一问题带回软著申请的语境:一个依赖AI生成代码申请软著的开发者,他申请保护的这个软件,正处于上述轨迹的第一阶段。

他在申请表上声明这是他的原创作品,他对它负责。但当这个软件进入第二阶段、第三阶段,当用户遭遇bug、当系统需要升级、当下游依赖者需要技术支持时——这个"著作权人"能够履行他的责任吗?

软著赋予著作权人权利,也意味着责任。一个不理解自己"作品"的著作权人,既无法行使权利,也无法承担责任。这种权责的根本性错位,是禁止AI生成代码申请软著的又一层深刻理由。


八、创作热情的消解:当AI成为创作的终点而非起点

8.1 创作的本质是什么

人类为什么要创作?这个问题比它看起来更深刻。

创作——无论是写作、绘画、作曲还是编程——并不仅仅是为了产出一个结果。创作过程本身包含着一系列珍贵的体验:将模糊的想法逐渐具象化的过程、在遇到障碍时反复尝试与突破的过程、在最终完成时获得的那种真实的成就感。这些体验,构成了创作的内在驱动力,也是创作者持续成长的核心动力。

编程,是这个时代最具创造性的智识活动之一。一个程序员从头设计并实现一个系统,那种感受与艺术家完成一幅画、作家写完一部小说,在本质上是相同的——你从无到有创造了某样东西,而这样东西带有你清晰可辨的思维印记。

8.2 AI如何系统性地消解创作热情

AI编程工具的介入,在表面上降低了创作的门槛,但实质上正在侵蚀创作的内在动力。

剥夺了"征服难题"的体验。 编程中最令人上瘾的时刻,往往是攻克一道难题的瞬间——在纸上演算了两个小时后,终于想通了算法的关键;在追了三天的bug之后,发现了那个隐藏在第847行的边界条件错误。这种体验是对智力投入的情感回报,是程序员成长的核心激励。当AI替代了这个过程,这种回报也随之消失。久而久之,编程从一项充满成就感的智识挑战,退化为一项机械的提示词工程。

削弱了作品与创作者之间的情感联结。 一个程序员亲手写就的代码,每一行都承载着他思考的痕迹。他知道为什么选择这个数据结构,为什么这里要做防御性编程,为什么那个函数被拆分成了三个更小的单元。这种理解,形成了他与作品之间深厚的情感联结——他会为这个系统感到骄傲,他愿意为它的质量负责。AI生成的代码则不然,它是陌生的、外来的,与创作者之间没有真正的情感纽带。

加速了"创作者身份认同"的瓦解。 一个开始大量依赖AI的程序员,在内心深处会逐渐失去"我是一个程序员"的身份认同,转变为"我是一个能够使用AI工具的人"。这两种身份之间的差距,不是技术层面的,而是精神层面的。前者意味着一种深层的能力归属感,后者意味着对工具的依附。当工具消失或失效,后者将一无所有。

8.3 行业创新力的隐性损耗

更宏观地看,创作热情的消解是一场行业级别的隐性损耗。

软件行业最重要的驱动力,从来不是批量的代码产出,而是少数真正热爱编程、愿意在技术问题上深度钻研的创造者。Linux的诞生、Git的发明、众多改变行业的开源项目——这些成果的背后,是那些把编程当成一种热情而非工具的人。

当AI使得"不需要真正理解编程也能产出代码"成为可能,当资质认证不再要求真实的编程能力,整个行业的人才培养导向就会悄然改变:培养的不再是深度的技术创造者,而是熟练的AI使用者。前者是行业创新的发动机,后者是对现有技术的消费者。

两者之间的差距,在短期内或许不可见,但在十年、二十年的尺度上,将深刻影响一个国家软件行业的真实创新能力。

8.4 软著规定是一次对创作精神的正式声援

正是在这个意义上,新版软著申请禁止AI编写代码的规定,远不只是一条行政管理措施。它是制度层面对创作精神的一次正式声援:

它承认,代码是一种需要人类智慧才能真正完成的创作。

它坚持,著作权的背后,应当站着一个真正理解自己作品的人。

它守护了这样一种可能性:在未来,仍然有人愿意为了征服一道难题而彻夜思考,而不是把问题甩给AI,等待输出,然后继续下一个提示词。


九、回应常见的反对意见

意见一:"创作工具的使用无法定义创作者"

回应: 这一论点混淆了"工具辅助"和"工具替代"的区别。钢琴家使用钢琴,画家使用画笔,程序员使用IDE——这些都是工具辅助,创作行为本身仍然是人完成的。但如果一个人完全不懂弹奏,让机器演奏了一首曲子,然后以自己的名义申请音乐著作权,这与AI代劳写代码申请软著,在逻辑上是完全等同的。

意见二:"规定无法执行,形同虚设"

回应: 无法完美执行,不等于毫无意义。交通规则无法让每一个超速驾驶者都被抓获,但它仍然是必要的。征信机制的存在,使得违规的预期成本大幅上升,足以让相当数量的潜在违规者望而却步。制度的价值,不在于实现百分之百的执法覆盖,而在于改变行为的激励结构。

意见三:"AI是生产力工具,限制使用是历史的倒退"

回应: 在日常工作中使用AI,与在资质申报中用AI生成物冒充原创,是两件完全不同的事。前者是生产力的提升,后者是对制度的欺骗。没有任何一个倡导技术进步的人,会主张以假冒的资质来证明自己的技术实力。

意见四:"现在很多企业都在这么做,凭什么单独限制软著申请"

回应: "普遍存在"从来不是"正当"的理由。腐败行为在某些环境中也普遍存在,这不能成为为其辩护的理由。恰恰相反,当一种有害行为已经普遍存在时,正是制度出手规范的时候。新规的出台,正是对这一现象的明确回应。

意见五:"这会不会误伤真正有能力的开发者"

回应: 真正有能力独立编写代码的开发者,应当感到庆幸而非担忧。这项规定保护的,正是他们的利益——它阻止了没有真实技术能力的人,用廉价的AI生成物与他们的真实成果竞争同等的法律保护和市场认可。能力与资质相符,正是这项规定希望维护的状态。


十、对行业的几点期望

基于上述分析,对软件行业的各方参与者,有以下几点期望:

对开发者个人: 将手写代码的能力视为职业尊严的一部分,而不仅仅是一项可以外包的工作内容。AI工具是你的助手,不是你的替代品。

对软件企业: 重视员工的基础技术能力培养,不要因为短期内AI工具提升了产出效率,就忽视团队的真实技术积累。当市场环境变化、AI工具失效或出错时,真实的技术能力才是企业的护城河。

对高校和教育机构: 在课程设计和考核机制上,保持对基础编程能力的要求。允许学生在学习过程中使用AI工具,但最终的评价,应当能够区分"会用AI"和"真正掌握"。

对监管机构: 持续完善软著申请的审查机制,探索更有效的能力核验手段,同时在规定实施初期加强宣传和引导,给予行业足够的适应时间。


结语:对抗熵增,守护创造

软著申请禁止AI编写代码,是一项在多个维度上都站得住脚的正确规定。

从物理学的角度看,它是对软件系统熵增趋势的主动干预——要求著作权人具备真正理解并掌控自己代码的能力,是抵抗混乱扩散的第一道防线。

从工程学的角度看,它是对维护性地狱这一行业噩梦的预防性警示——技术债务的代价终将到来,而承担代价的人,必须是真正理解系统的人。

从人文的角度看,它是对创作精神的制度性捍卫——代码不只是工具的输出,它是人类智慧的结晶,著作权应当属于真正进行了创造性思考的人。

一个健康的软件行业,需要真正的创造者,而不是AI输出的搬运工。这项规定所传递的价值导向,清晰而必要:

抵抗熵增,需要真实的能量投入;守护创造,需要真实的能力担当。

软著禁止AI,不是在阻止技术进步,而是在为技术进步留住最不可替代的燃料——那些真正热爱编程、愿意深度思考、对自己的作品负责到底的人。


"熵增是宇宙的默认走向,秩序需要代价。代码的秩序,需要程序员真实智慧的代价——这个代价,无法由AI来支付。"


全文完