SpringAI+Ollama+Qwen:7b,轻松搭建本地大模型聊天程序!

98 阅读2分钟

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

还记得ChatGPT刚火那会儿,朋友圈满屏都是"我和AI的对话截图"。可最近,越来越多开发者开始担心:我的敏感数据会不会被云端大模型"偷窥"?企业级应用如何在享受AI红利的同时,确保数据安全?

答案很简单:本地化部署。

image.png

今天就带你用SpringAI+Ollama+Qwen:7b

30分钟搭建一套完全私有的智能聊天系统!

核心实现步骤

一、环境准备

(1) 本地Ollama环境,下载本地Qwen大模型

轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署

(2) SpringAI代码集成

SpringAI+阿里百炼,基于OpenAI,超简单!

(3) 前端页面代码

image.png

二、SpringAI对接Ollama的千问大模型

(1) 引入依赖 pom.xml

<!-- ollama依赖 -->
<dependency>
  <groupId>org.springframework.ai</groupId>
  <artifactId>spring-ai-starter-model-ollama</artifactId>
</dependency>

(2) 配置对接Qwen本地大模型 application.yml

# 应用服务器端口号
server:
  port: 8080
  # 上下文路径
  servlet:
    context-path: /
spring:
  ai:
    ollama:
      base-url: http://localhost:11434
      chat:
        options:
          model: qwen:7b

三、后端聊天业务代码实现

package com.bmbfm.controller;
import com.bmbfm.dto.ReqParamDTO;
import io.swagger.v3.oas.annotations.Operation;
import org.springframework.ai.chat.model.ChatModel;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.*;
import reactor.core.publisher.Flux;

@RestController
public class ChatController {

    @Autowired
    private ChatModel chatModel;

    @PostMapping("/chat/v1")
    @Operation(summary = "聊天流式调用")
    public Flux<String> clientAIChat(@RequestBody ReqParamDTO reqParamDTO) {
        Flux<String> stream = chatModel.stream(reqParamDTO.getMessage());
        return stream;
    }

}

AI正在重塑软件架构。从云端集中式服务,到边缘计算分布式部署,技术演进的背后是对效率、安全、成本的多维优化。

SpringAI+Ollama+Qwen这套组合,为Java开发者提供了拥抱AI浪潮的最佳实践路径。不只是写代码,更是在思考如何用技术创造真正的商业价值。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI