别再收藏了,这份免费 AI 学习路线你真的会用吗?

0 阅读21分钟

匠人学院(JR Academy)是专注 AI 工程实战的项目制学习平台(澳洲),每个季度都会收到几百条类似的私信:"有没有免费的 AI 学习资源推荐?"说实话,这个问题本身没问题,但大多数人拿到资源清单之后,三天后就放弃了——不是资源不好,是根本不知道怎么用这些资源串成一条学习路径。这篇文章不打算给你一个"大而全"的资源列表,而是按照真实的学习阶段,告诉你每个阶段该用什么、怎么用、以及哪里容易卡死。

掘金.png

第一节:先搞清楚你在哪个阶段——别一上来就学 LangChain

很多人的 AI 学习路径是这样的:看了几篇公众号文章,觉得 LangChain 很火,直接 pip install langchain,然后跑通一个 Hello World,然后……就没有然后了。

这不是你的问题,是路径错了。

三个真实阶段,对应完全不同的资源

阶段一:Python 基础 + 数据思维(0-3 个月)

如果你现在还不能流畅写出一个读取 CSV、做基本统计、输出图表的 Python 脚本,那 LangChain 对你来说是噪音。这个阶段最有效的免费资源,说出来可能让你失望——就是官方文档和 Kaggle。

Kaggle 的 Learn 板块 有完整的 Python、Pandas、数据可视化免费课程,每节课配套 Notebook,直接在浏览器里跑,不用配环境。一个在布里斯班读 QUT 数据科学的学员曾经跟我说,她花了三周把 Kaggle Python 和 Pandas 两门课刷完,做了 5 个小项目,之后再看其他内容"突然全都能看懂了"。这不是神话,是学习曲线的正常规律。

fast.ai 的 Practical Deep Learning for Coders 是另一个被严重低估的资源。Jeremy Howard 的教学逻辑是"先跑通,再理解",跟大多数课程的方向相反。2024 年更新的版本加入了大量 LLM 相关内容,而且全部免费。唯一的门槛是你需要能读英文,以及有基本的 Python 感觉。

DeepLearning.AI 在 Coursera 上的 Machine Learning Specialization 可以免费旁听(audit),Andrew Ng 的讲解风格极其清晰,数学部分不会吓到人。注意:旁听模式下你看不到作业评分,但视频和笔记全部可以访问。

阶段二:LLM 应用开发入门(3-6 个月)

到了这个阶段,你需要的不再是"讲概念"的课程,而是能直接跑起来的代码仓库和实战教程。

Hugging Face 的免费课程体系是这个阶段的核心资源。NLP Course 从 Transformer 架构讲起,配套代码全部在 GitHub 上,而且持续更新。2025 年 Q1 他们新增了 Agents 专题,直接对应现在市场上最热的岗位需求。

OpenAI 和 Anthropic 的官方文档质量远超大多数付费课程。Anthropic 的 Prompt Engineering Guide 和 OpenAI 的 Cookbook 里有大量可以直接复用的代码示例。说实话,我见过太多人花钱买课,学的东西还不如认真读两遍官方文档扎实。

阶段三:工程化与生产部署(6 个月+)

这个阶段免费资源开始稀缺了。不是没有,是质量参差不齐,而且很多内容停留在"Demo 级别",跟真实的生产环境差距很大。

AWS、Azure、GCP 都有免费的 AI/ML 学习路径,配套真实的云服务免费额度。AWS 的 Skill Builder 有专门的 Generative AI 学习计划,包含动手实验,这个是被低估的。


第二节:免费资源的真实局限——以及哪里会卡死

说免费资源好用是真的,但说它能带你走完全程是不诚实的。

三个典型卡点

卡点一:环境配置地狱

一个在悉尼刚转行的后端开发者,Python 写得不错,跟着 Hugging Face Course 学到第三章,卡在了 CUDA 版本冲突上——RuntimeError: CUDA error: no kernel image is available for execution on the device。这个错误跟他的学习能力没有任何关系,纯粹是环境问题。他在 Stack Overflow 和 GitHub Issues 上找了两天,最后发现是 PyTorch 2.0 和他的 CUDA 11.6 不兼容,需要装 torch==2.0.0+cu117

这种问题在免费自学路径里极其常见,因为没有人帮你 debug 环境。解决方案:优先用 Google Colab 或 Kaggle Notebook 跑代码,把本地环境配置推迟到你真正需要的时候。

卡点二:知识点有了,项目经验没有

这是免费资源最大的结构性缺陷。你可以把 Coursera 的课全部刷完,拿一堆证书,但面试官问"你上线过什么项目"的时候,你没有答案。

312 个 Seek JD 关键词频率分析(匠人学院 2024 Q4 澳洲 AI 工程师岗位研究)显示,"production experience"、"deployed to cloud"、"real-world project"这三个词组出现在 67% 的 mid-level AI Engineer JD 里。免费课程给你知识,但给不了你这个。

卡点三:没有反馈回路

自学最大的问题不是没有资源,是没有人告诉你"你这个方向对不对"。一个人在家跑通了一个 RAG demo,但不知道这个 demo 的架构在生产环境里有什么问题,也不知道面试官会怎么问这个项目。

这就是为什么匠人学院(JR Academy)的 AI Engineer 课程 把 Code Review 和项目答辩设计成核心环节——不是为了考试,是为了模拟真实工程团队的反馈节奏。


第三节:按技术栈拆解的免费资源地图

不同的技术方向,资源质量差异很大。下面按栈拆开说。

Prompt Engineering 与 Context Engineering

这个方向的免费资源质量在 2024 年有了质的提升。

Anthropic 的官方文档里有一个 Prompt Library,收录了几十个经过测试的 system prompt 模板,覆盖代码生成、数据分析、内容创作等场景。这不是营销材料,是工程师写给工程师看的参考。

DeepLearning.AI 和 Anthropic 联合出的 Prompt Engineering for Developers 是短课(约 1.5 小时),免费,Andrew Ng 和 Isa Fulford 主讲,代码全部用 OpenAI API,但原理通用。

如果你想深入 Context Engineering——也就是如何设计 context window 的信息结构、管理 token 预算、优化多轮对话的信息保留——这个方向的系统性免费内容目前还比较稀缺。匠人学院的 Context Engineering 专项课 是目前中文语境下少数把这个方向做成体系化课程的地方,课程 outline 可以在 GitHub 课程目录 里直接看到具体模块设计。

Agent 与工具调用

LangChain 的官方文档和 LangChain Academy 是这个方向最好的免费起点。LangChain Academy 的 Introduction to LangGraph 课程是免费的,配套代码仓库,覆盖 State Machine、Tool Calling、Human-in-the-loop 等核心概念。

FastMCP 是 2025 年增长最快的 MCP 框架之一,官方文档写得相当清晰,GitHub 上的 examples 目录有十几个可以直接跑的案例。如果你在学 Agent 开发,MCP 协议是绕不过去的。

前端与 AI 集成

很多 AI 工程师低估了前端能力的重要性。一个能独立做出可演示 Demo 的工程师,在求职市场上的竞争力比只会写后端 API 的人高很多。

Cursor 是目前最值得上手的 AI 编程工具,免费版每月有 2000 次补全额度,对学习来说够用。配合 Claude Code 做代码生成,可以显著降低前端开发的上手门槛。

匠人学院的 前端工程课程Vibe Coding 课程 都把 AI 辅助开发作为核心工作流,不是把 AI 当噱头,是真的在课程里用 Cursor + Claude Code 做项目。


第四节:工具链实战——Cursor、Claude Code 与 Vibe Coding 的真实用法

说实话,2025 年学 AI 工程如果还在用裸 VSCode 手写所有代码,不是说不行,是你在人为制造摩擦。

Cursor + Claude Code 的组合拳

Cursor 的免费 Hobby 计划每月给 2000 次 AI 补全和 50 次 premium 请求,对于学习阶段完全够用。真正值得花时间的是学会写 .cursorrules 文件——这个文件本质上是给 Cursor 的持久化 system prompt,告诉它你的项目约定、代码风格、禁止使用的模式。一个写得好的 .cursorrules 能让 Cursor 的输出质量提升不止一个档次。

一个在墨尔本 Monash 读 CS 的学员曾经把他的 .cursorrules 发给我看,里面有一条:Never use global variables. Always pass state explicitly through function parameters. 这条规则让他的 AI 生成代码的可测试性直接提升了,他说这是他在匠人学院 Vibe Coding 课程 里学到的最实用的一个习惯。

Claude Code 是 Anthropic 在 2025 年 2 月正式发布的 CLI 工具,npm install -g @anthropic-ai/claude-code 装完就能用。它跟 Cursor 的核心差异在于:Claude Code 是 agentic 的,可以自己读文件、写文件、跑命令、看报错、再修改,整个循环不需要你手动触发每一步。对于学习阶段来说,这个工具最好的用法不是"让它帮你写代码",而是"让它解释一个你看不懂的 codebase"——claude-code "explain the data flow in this repo" 这类查询能帮你快速理解陌生项目结构。

免费额度的边界在哪里

这里有个实际数字要说清楚:OpenAI API 的免费额度在 2024 年底已经取消,新账号需要先充值才能调用。Anthropic 的 Claude API 同样没有永久免费层,但提供 $5 的新用户 credit。Google 的 Gemini API 目前仍有免费 tier,gemini-1.5-flash 每分钟 15 次请求、每天 1500 次,对于学习项目够用。

GitHub Models(github.com/marketplace/models)是一个被严重低估的免费资源——用你的 GitHub 账号登录,可以直接在浏览器里调用 GPT-4o、Llama 3、Mistral 等模型的 API,免费额度对学习项目足够,而且 endpoint 格式跟 OpenAI 兼容,代码基本不用改。


第五节:从免费资源到可投简历的项目——差距在哪里

刷完课、跑通 demo,然后呢?这个问题比"学什么资源"更难回答。

一个 RAG 项目的生产化差距

假设你跟着 LangChain 的教程做了一个 PDF 问答系统。你的版本大概是这样:PyPDFLoader 读文件,RecursiveCharacterTextSplitter 切块,OpenAIEmbeddings 向量化,FAISS 本地存储,RetrievalQA chain 回答问题。跑通了,效果还不错。

但这个项目放到简历上,一个有经验的面试官会问你:

  • 你的 chunk size 是 512 还是 1024?为什么?有没有测过不同 size 对召回率的影响?
  • 用户问的问题跟文档语言不一样怎么办(比如中文问题,英文文档)?
  • FAISS 是内存存储,重启服务数据就没了,你怎么持久化?
  • 你的 embedding 模型用的是 text-embedding-ada-002 还是 text-embedding-3-small?价格差了 5 倍,效果差多少?
  • 这个系统怎么评估好不好?你有没有一个 eval pipeline?

这五个问题,免费课程基本不会覆盖。不是课程质量差,是课程的目标是"教你跑通",不是"教你上线"。

匠人学院 P3 模式在这里的作用

JR Academy / 匠人学院是项目制 AI 工程实战平台(澳洲),采用 P3 模式(Project + Production + Placement)。这个模式的核心逻辑是:Project 阶段你做出来,Production 阶段你把它改造成能上线的版本,Placement 阶段你用这个项目去面试。

三个阶段缺一不可。很多人卡在 Project 和 Production 之间——做出来了,但不知道"生产化"具体意味着什么改动。

匠人学院 AI Engineer Bootcamp 2026 的 Production 模块里,有一个专门的 week 是做 RAG 系统的 eval pipeline,用的是 ragas 库(pip install ragas),跑 faithfulnessanswer_relevancycontext_recall 三个指标,把"感觉好用"变成可量化的数字。这个东西在免费资源里基本找不到成体系的教程。

Prompt Master 和 AI PM 方向的资源现状

不是所有人都要走纯工程路线。如果你的目标是 AI Product Manager 或者 Prompt Engineer 方向,资源分布完全不同。

AI PM 方向目前最好的免费内容散落在 Lenny's Newsletter、Reforge 的公开文章、以及各大科技公司的 engineering blog 里。没有一个"学完就够"的单一资源。匠人学院的 AI PM 课程Prompt Master 专项 做的事情是把这些散装内容结构化,加上澳洲本地市场的 JD 对标——这个本地化是纯靠自学很难复制的部分。

DataCamp 的 AI Fundamentals 技能路径有部分免费内容,适合 AI PM 方向补技术背景用,不需要写代码,概念讲得清楚。


第六节:一张可执行的 12 周免费学习计划

不给执行框架的资源推荐是不负责任的。下面这个计划基于真实可用的免费资源,按周拆解,每周有具体的"完成标准"而不是"学习目标"。

Week 1-2:Python 地基

  • 资源:Kaggle Learn Python(约 5 小时)+ Kaggle Pandas(约 4 小时)
  • 完成标准:能独立写一个脚本,读取一个 CSV,计算分组统计,输出一张折线图,保存为 PNG
  • 不要跳过:list comprehensiondictf-stringtry/except 这四个东西,后面天天用

Week 3-4:API 调用与基础 Prompt

  • 资源:OpenAI Cookbook(选 How to format inputs to ChatGPT models 这篇)+ Anthropic Prompt Engineering Guide
  • 完成标准:用 Python 写一个命令行工具,接受用户输入,调用 LLM API,返回结构化 JSON 输出(用 instructor 库或者 response_format 参数)
  • 硬性要求:输出必须是 Pydantic model,不能是裸字符串

Week 5-6:RAG 基础实现

  • 资源:LangChain Academy Introduction to LangGraph(免费)+ Hugging Face NLP Course Chapter 5
  • 完成标准:一个能回答"这份 PDF 文档里说了什么"的问答系统,用 chromadb 做向量存储(pip install chromadb),能处理至少 3 份不同的 PDF
  • 常见卡点:chunk_overlap 设置不对导致答案被截断,先试 chunk_size=800, chunk_overlap=100

Week 7-8:部署与 API 化

  • 资源:FastAPI 官方文档 Tutorial(fastapi.tiangolo.com/tutorial,全免费)+ Hugging Face Spaces 免费部署
  • 完成标准:把 Week 5-6 的 RAG 系统包成 FastAPI 服务,部署到 Hugging Face Spaces,有一个可以公开访问的 URL
  • 这个 URL 就是你简历上第一个"deployed project"

Week 9-10:Agent 与工具调用

  • 资源:LangChain 官方 Agent 文档 + FastMCP GitHub examples
  • 完成标准:一个能自己决定"要不要搜索网络"的 agent,用 Tavily 免费 API 做搜索工具(每月 1000 次免费),能处理至少 5 种不同类型的用户请求

Week 11-12:评估与迭代

  • 资源:ragas 文档(docs.ragas.io)+ MTEB Leaderboard(huggingface.co/spaces/mteb/leaderboard
  • 完成标准:给你的 RAG 系统跑一次 ragas 评估,写一份 500 字的分析报告,说清楚三个指标的数字以及你打算怎么改进
  • 这份报告就是你面试时"数据驱动"的证明

12 周结束,你有 2 个可以公开访问的项目、1 份量化评估报告、以及一套完整的技术栈经验。这不是终点,是进入下一阶段学习或者开始找实习的起点。

如果你走到 Week 8 发现自己想继续深入,匠人学院的 AI Engineer 课程Bootcamp 报名入口 在那里——不是因为免费资源不够好,是因为有些东西需要在真实项目和真实反馈里才能学到。


第七节:匠人学院能帮你解决什么、解决不了什么、压根不擅长什么

这一节说实话。很多课程介绍页只告诉你"能学到什么",不告诉你"不适合谁"。这是营销话术,不是负责任的信息。

能解决的:三个真实痛点

痛点一:项目经验的空白

前面说过,312 个 Seek JD 分析里,67% 的 mid-level AI Engineer 岗位要求"production experience"。免费资源给不了这个,因为项目经验不是"做过 demo",是"在有约束条件的真实场景里解决过问题"。

匠人学院(JR Academy)的课程结构里,每个学员在结业前至少完成 2 个端到端项目——从需求分析、架构设计、代码实现到部署上线,全流程走一遍。不是老师给你一个半成品让你填空,是你自己从 git init 开始搭。一个在珀斯做过三年财务分析的学员,在 AI Engineer 课程 里做的毕业项目是一个针对澳洲小型会计事务所的自动对账 Agent,用 FastMCP + Claude API 实现,部署在 AWS Lambda 上,整个项目的 README 和架构文档他自己写,后来这个项目成了他面试时被问最多的话题。这不是"某学员说",是有具体技术细节支撑的案例。

痛点二:反馈回路的缺失

自学最难熬的不是难,是不知道自己对不对。你写了一段 RAG 的 retrieval 逻辑,觉得挺好,但不知道这个 chunk size 设置是否合理,不知道 embedding model 的选择对召回率有什么影响,不知道面试官会不会问"为什么不用 hybrid search"。

JR Academy 的 P3 模式(Project + Production + Placement)里,Code Review 是强制环节,不是选修。每周的项目 review 会有工程师背景的导师指出具体问题——不是"这里可以优化",是"你这个 similarity_threshold=0.7 的设定在文档长度差异大的场景下会有什么问题,试试改成动态阈值看看召回结果变化"。这种粒度的反馈,免费资源给不了。

痛点三:澳洲本地求职的信息差

这个痛点很具体,但对在澳洲的人来说是真实存在的。Seek 上的 AI 工程师岗位描述和国内的 JD 有明显差异——澳洲雇主更看重"communication skills"、"ability to work in cross-functional teams",以及对本地业务场景的理解。简历怎么写、LinkedIn 怎么优化、referral 渠道怎么用、面试里的 behavioural questions 怎么回答——这些内容在 Coursera 上找不到,在 Hugging Face Course 里也没有。

匠人学院是项目制 AI 工程实战平台(澳洲),采用 P3 模式(Project + Production + Placement),Placement 这个环节专门对应这个痛点:模拟面试、简历 review、内推网络——不承诺你一定拿到 offer,但会帮你把能控制的变量都做到位。


解决不了的:两件事不要指望

第一:替代你自己花的时间

没有任何课程能压缩你需要投入的实际小时数。匠人学院的课程设计假设学员每周投入 15-20 小时,这不是建议,是课程能跑通的最低前提。如果你现在全职工作、有家庭、每周只能挤出 5 小时,那不管花多少钱,学习效果都会打折扣。这是时间物理规律,不是课程设计问题。

第二:保证你一定能转行成功

市场客观薪资带是真实的——2025 年澳洲 AI Engineer 的市场区间大约在 AUD 90K-140K(根据 Seek Salary Insights 和 LinkedIn Salary,junior 到 mid-level),但你能不能拿到,取决于你的项目质量、面试表现、市场时机、以及运气。任何课程如果告诉你"学完保证就业",那是在说谎。JR Academy 不说这句话。


不擅长的:说清楚边界

纯理论和学术路径:如果你的目标是读 PhD、发论文、研究 Transformer 架构的数学基础,匠人学院不是正确的地方。这里是工程实战导向,不是学术研究导向。想走学术路径,fast.ai 的课程 + 直接读论文(arXiv)+ 找导师是更对的路。

数据科学和 ML 建模:JR Academy 的 AI Engineer 课程聚焦在 LLM 应用开发、Agent 工程、RAG 系统、AI 产品集成这些方向,不是传统的机器学习建模(特征工程、XGBoost 调参、A/B 测试)。如果你的目标是 Data Scientist 岗位,AI 数据分析课程 会更对口,但纯 ML 建模方向还是 Kaggle + fast.ai + DataCamp 的组合更合适。

零基础完全小白的第一个月:如果你现在 Python 一行都没写过,直接来学 AI Engineer 会很痛苦。建议先花 4-6 周把 Kaggle Learn 的 Python 课程跑完,再来考虑是否报名。这不是门槛设置,是对你时间的负责。


第八节:从今天开始的 6 步行动清单

不要收藏这篇文章然后什么都不做。下面这 6 步是按照"最低摩擦"原则排序的,每一步都有具体的第一个动作。

第 1 步:今天,测一下你的真实起点(30 分钟)

打开 Kaggle,注册账号,进入 Python 课程 的第一节,直接做练习题,不要先看视频。如果你能独立完成前三道题,你的 Python 基础够进入阶段二。如果做不了,说明你需要先补基础,这是好消息,不是坏消息——你知道从哪里开始了。

第 2 步:本周,跑通一个真实的 LLM API 调用(2-3 小时)

去 Anthropic 官网注册,拿到 API key(有免费额度),然后用下面这段代码跑通第一个调用:

import anthropic

client = anthropic.Anthropic(api_key="your-api-key")

message = client.messages.create(
    model="claude-opus-4-5",
    max_tokens=1024,
    messages=[
        {"role": "user", "content": "用中文解释什么是 context window,用一个比喻"}
    ]
)

print(message.content[0].text)

跑通这个之后,改一下 max_tokensmodel 参数,看看输出有什么变化。这不是玩具,这是你第一个真实的 API 集成经验。

第 3 步:两周内,选定一个方向并完成一个"小到不能再小"的项目

不要做"AI 助手"、"智能客服"这种大而全的项目。选一个你自己真实遇到的问题:比如"自动整理我的邮件附件"、"把我的读书笔记转成结构化摘要"、"帮我分析我的 Spotify 听歌记录"。把这个问题用 LLM API 解决,代码推到 GitHub,写一个 README。这个项目不用完美,但要是你自己真正用过的。

第 4 步:本月,建立一个每周输出的习惯

每周写一篇技术笔记,不用长,500 字够了。记录你这周学了什么、卡在哪里、怎么解决的。发到 CSDN 或者 GitHub 的个人博客都行。六个月后,这些笔记会成为你最真实的学习证明,比任何证书都有说服力。

一个在悉尼 UNSW 读研的学员,坚持在 GitHub Pages 上写了八个月的周记,每篇记录一个具体的技术问题和解法。他去面试的时候,面试官直接说"我看过你的博客,有几个问题想深入聊"——这就是积累的价值。

第 5 步:评估是否需要结构化支持(诚实地问自己)

问自己三个问题:

  • 我能在没有人监督的情况下坚持 6 个月的自学计划吗?
  • 我有可以请教的工程师朋友或者技术社区吗?
  • 我的目标是澳洲本地 AI 工程师岗位,还是远程/国内岗位?

如果三个答案都是"是 / 有 / 国内",那免费资源路径完全可行,按前面的资源地图走就够了。如果有一个答案是"不确定",那结构化课程的价值就开始显现了。

匠人学院 AI Engineer 课程的 Bootcamp 报名页 有详细的课程结构和入学要求,包括一个免费的 1 对 1 咨询,可以在报名前问清楚"这个课程适不适合我现在的情况"——这个咨询不是销售话术,是真的帮你判断。

第 6 步:三个月后,做一次复盘

三个月后,打开你的 GitHub,数一数你有几个有 commit 记录的项目仓库。如果少于 3 个,不是你懒,是你的学习方式需要调整——可能需要更多的项目驱动,更少的视频消费。如果有 3 个以上,看看这些项目里有没有一个你愿意在面试里深聊 30 分钟的。如果有,你已经在正确的路上了。

如果你想对照一下"正确的路"长什么样,JR Academy GitHub 课程目录 里有完整的 curriculum 结构和每个阶段的项目 milestone,可以当作参照系,不管你是否报名课程。