新手入门:如何接入AI大模型?从零开始的实用指南

0 阅读6分钟

你好,我是野人。相信在学习ai的过程中你会遇到类似这样的问题:“我想在项目里接入AI,但完全不知道从哪开始,这可怎么办呐”。今天就让我带你走一遍完整的AI大模型接入流程。不管你是学生、开发者,还是对AI感兴趣的产品经理,这篇文章都能帮你理清思路。

先搞懂几个概念

在开始之前,我们先理解一个简单的比喻:

AI编程工具(如Cursor、Bolt.new  = 你的工作台
AI模型(如Claude、GPT-4)  = 坐在工作台前干活的程序员

所以,接入AI大模型,本质上就是让我们的程序能够和这些“AI程序员”对话


一、使用大模型的两种途径

1. 云服务(推荐新手)

就像租用云服务器一样,通过API调用厂商已经部署好的模型。

优点:不用买显卡、不用配置环境,开箱即用
缺点:按调用量付费,长期大量使用成本较高

2. 本地自部署

在自己的电脑或服务器上运行模型。

优点:数据私密、免费(只要你有足够的算力)
缺点:需要好的显卡、配置较复杂

新手建议先从云服务开始,等熟悉了再考虑本地部署。

二、接入大模型的三种方式

方式一:通过AI应用平台(最简单的可视化接入)

像微软Azure OpenAI、谷歌云AI平台这类服务,提供了网页控制台。你只需要:

  • 注册账号
  • 点几下鼠标创建应用
  • 复制API密钥

这种方式适合产品经理或想快速验证想法的同学。

方式二:通过AI软件客户端(适合日常使用)

比如ChatGPT网页版、各种AI助手App。
优点:不用写代码,直接聊天
缺点:无法集成到自己的程序中

方式三:程序接入(开发者必看)

这才是我们的重点!下面我会用阿里云百炼平台为例,带你体验4种程序接入方式。## 三、手把手实战:4种程序接入方式

在开始前,你需要先做一件事:
注册阿里云账号,在“阿里云百炼”控制台创建一个API Key

image.png

创建好API Key后,就可以开始尝试不同的接入方式了。

方式1:SDK接入(最简单、最推荐)

SDK(软件开发工具包)就像是一个“翻译器”,让你用几行代码就能调用复杂的AI功能。

官方文档阿里云百炼API参考-DashScope SDK

步骤演示:

  1. 添加依赖(Maven项目):
    根据官方文档所示,添加以下依赖:
<dependency>
    <groupId>com.alibaba</groupId>
    <artifactId>dashscope-sdk-java</artifactId>
    <version>最新版本号</version>
</dependency>

2. 参考官方示例
阿里云百炼控制台找到SDK调用示例:

image.png 3. 按照示例代码编写

package com.swl.baodianaiagent.demo.invoke;

import com.alibaba.dashscope.aigc.generation.Generation;
import com.alibaba.dashscope.aigc.generation.GenerationParam;
import com.alibaba.dashscope.aigc.generation.GenerationResult;
import com.alibaba.dashscope.common.Message;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.InputRequiredException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.utils.JsonUtils;
import java.util.Arrays;

public class SdkAiInvoke {
    
    public static GenerationResult callWithMessage() throws ApiException, NoApiKeyException, InputRequiredException {
        Generation gen = new Generation();
        
        Message systemMsg = Message.builder()
            .role(Role.SYSTEM.getValue())
            .content("You are a helpful assistant.")
            .build();
            
        Message userMsg = Message.builder()
            .role(Role.USER.getValue())
            .content("你是谁?")
            .build();
            
        GenerationParam param = GenerationParam.builder()
            // 若没有配置环境变量,请用百炼APIKey将下行替换为:apiKey("sk-xxx")
            .apiKey(TestApiKey.API_KEY)  // 替换为自己的API_KEY
            // 此处以qwen-plus为例,可按需更换模型名称
            .model("qwen-plus")
            .messages(Arrays.asList(systemMsg, userMsg))
            .resultFormat(GenerationParam.ResultFormat.MESSAGE)
            .build();
            
        return gen.call(param);
    }
    
    public static void main(String[] args) {
        try {
            GenerationResult result = callWithMessage();
            System.out.println(JsonUtils.toJson(result));
        } catch (ApiException | NoApiKeyException | InputRequiredException e) {
            // 使用日志框架记录异常信息
            System.err.println("An error occurred while calling the generation service: " + e.getMessage());
        }
    }
}

4. 运行结果

image.png

方式2:HTTP接入(更灵活,任何语言都能用)

如果你的编程语言没有官方SDK,或者需要更精细的控制,可以用HTTP方式。

官方文档阿里云百炼API参考-HTTP调用

  1. 找到官方curl示例

image.png 2. 在程序中将curl实例转换为HTTP请求,代码(可借助ai生成)

image.png

  1. 修改代码,将代码中的参数替换为实际的值

image.png 4. 发送HTTP请求,获取大模型的响应

image.png

方式3:Spring AI接入(适合Spring Boot项目)

如果你用Spring Boot开发,Spring AI框架能让接入变得极其简单。

官方文档Spring AI Alibaba官方文档

  1. 添加依赖
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-web</artifactId>
    <version>3.3.4</version>
</dependency>

<dependency>
    <groupId>com.alibaba.cloud.ai</groupId>
    <artifactId>spring-ai-alibaba-starter</artifactId>
    <version>1.0.0-M6.1</version>
</dependency>

2. 配置文件(application.yml):

spring:
  application:
    name: baodian-ai-agent
  ai:
    dashscope:
      api-key: "你的API-KEY"  # 替换成你自己的
      chat:
        options:
          model: qwen-plus

3. 编写调用代码

package com.swl.baodianaiagent.demo.invoke;

import jakarta.annotation.Resource;
import org.springframework.ai.chat.messages.AssistantMessage;
import org.springframework.ai.chat.model.ChatModel;
import org.springframework.ai.chat.prompt.Prompt;
import org.springframework.boot.CommandLineRunner;
import org.springframework.stereotype.Component;

@Component
public class SpringAiAiInvoke implements CommandLineRunner {
    
    @Resource  // 该注解优先以名称匹配Bean,若未找到则按类型匹配
    private ChatModel dashscopeChatModel;
    
    @Override
    public void run(String... args) throws Exception {
        AssistantMessage assistantMessage = dashscopeChatModel.call(
            new Prompt("你好,我正在学习Spring AI")
        ).getResult().getOutput();
        
        System.out.println(assistantMessage.getText());
    }
}

4. 运行结果

你好!很高兴你开始学习 Spring AI 🌟

方式4:Langchain4j接入(强大的AI开发框架)

Langchain4j是Java版的LangChain,提供了更多高级功能。

官方文档Langchain4j DashScope模型集成

  1. 添加依赖(注意版本在1.0.0-alpha1后包名有变化):
<!-- Before 1.0.0-alpha1: -->
<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-dashscope</artifactId>
    <version>${previous version here}</version>
</dependency>

<!-- 1.0.0-alpha1 and later: -->
<dependency>
    <groupId>dev.langchain4j</groupId>
    <artifactId>langchain4j-community-dashscope</artifactId>
    <version>${latest version here}</version>
</dependency>

2. 编写调用代码

package com.swl.baodianaiagent.demo.invoke;

import dev.langchain4j.community.model.dashscope.QwenChatModel;
import dev.langchain4j.model.chat.ChatModel;

public class LangChainAiInvoke {
    
    public static void main(String[] args) {
        ChatModel qwenChatModel = QwenChatModel.builder()
            .apiKey(TestApiKey.API_KEY)
            .modelName("qwen-max")
            .build();
            
        String response = qwenChatModel.chat("你好,我是一名大二学生,现在正在学习AI");
        System.out.println(response);
    }
}

3. 运行结果

你好!很高兴听到你正在学习AI,这是一个非常有前景且充满挑战的领域。根据你的兴趣和需求,我可以提供一些学习建议或资源推荐。首先,想了解一下

四、扩展知识:本地部署AI模型(Ollama实战)

如果想完全免费、保护数据隐私,可以尝试本地部署。这里推荐用Ollama,它把复杂的模型部署变得像安装软件一样简单。

官方文档Ollama官网

步骤1:下载安装Ollama

访问 Ollama下载页面 下载对应系统的版本。

步骤2:挑选模型

在 Ollama模型广场 选择你想要的模型。参考image-16.png,新手推荐 gemma3:1b(只有815MB,普通电脑都能跑):

image.png

步骤3:运行模型

打开终端,执行一行命令:

ollama run gemma3:1b

系统会自动下载并启动模型:

C:\Users\13501>ollama run gemma3:1b
pulling manifest
pulling 7cd4618c1faf:  28%    227 MB/815 MB   3.7 MB/s   2m37s

步骤4:验证服务

访问 http://localhost:11434,看到如下界面说明运行成功:

Ollama is running

本地模型怎么接入程序?

Ollama启动后,会提供一个类似云服务的API地址:http://localhost:11434/api/chat
你可以用前面学的HTTP方式,把URL改成这个地址,就能在代码里调用本地模型了!


总结:新手怎么选?

接入方式适用场景难度推荐指数
SDK接入大多数项目⭐⭐⭐⭐⭐⭐⭐
HTTP接入特殊语言/精细控制⭐⭐⭐⭐⭐⭐
Spring AISpring Boot项目⭐⭐⭐⭐⭐⭐
Langchain4j需要复杂AI功能⭐⭐⭐⭐⭐⭐⭐
本地部署隐私要求高/长期使用⭐⭐⭐⭐⭐⭐⭐

新手建议路线

  1. 先用SDKSpring AI快速体验
  2. 理解原理后尝试HTTP方式
  3. 有特殊需求时学习Langchain4j
  4. 最后探索本地部署节省成本

附录:官方文档汇总

  1. 阿里云百炼平台bailian.console.aliyun.com/
  2. 灵积SDK文档bailian.console.aliyun.com/cn-beijing?…
  3. 灵积HTTP调用文档bailian.console.aliyun.com/cn-beijing?…
  4. Spring AI官方文档spring.io/projects/sp…
  5. Langchain4j DashScope集成docs.langchain4j.dev/integration…
  6. Ollama官网ollama.com/
  7. Ollama模型广场ollama.com/search

希望这篇文章能帮你打开AI编程的大门!有什么问题欢迎在评论区交流,我们一起进步 🚀