首页
归档
留言
友链
广告合作
壁纸
更多
美女主播
Search
1
博瑞GE车机升级/降级
5,573 阅读
2
Mac打印机设置黑白打印
4,884 阅读
3
修改elementUI中el-table树形结构图标
4,861 阅读
4
Mac客户端添加腾讯企业邮箱方法
4,645 阅读
5
intelliJ Idea 2022.2.X破解
4,313 阅读
Java
HarmonyOS Next
Web前端
微信开发
开发辅助
App开发
数据库
随笔日记
登录
/
注册
Search
标签搜索
Spring Boot
Java
Spring Cloud
Mac
MyBatis
WordPress
Nacos
Spring Cloud Alibaba
MacOS
Mybatis-Plus
Typecho
jQuery
Java Script
asp.net
MySQL
IntelliJ IDEA
微信小程序
Sentinel
UniApp
asp.net core
Laughing
累计撰写
613
篇文章
累计收到
1,427
条评论
首页
栏目
Java
HarmonyOS Next
Web前端
微信开发
开发辅助
App开发
数据库
随笔日记
页面
归档
留言
友链
广告合作
壁纸
美女主播
搜索到
3
篇与
的结果
2025-03-18
Spring 官宣接入 DeepSeek,太香了!
Spring AI已经支持DeepSeek。今天和大家聊聊如何在Spring Boot项目制使用DeepSeek,还是非常方便的!Spring AI介绍Spring AI是一个用于AI工程的应用程序框架,将Spring生态系统设计原则应用于AI领域。其核心是通过抽象化和模块化设计,简化AI功能的接入步骤,同时保持与Spring生态的无缝兼容。以下是其主要特点与功能:统一的抽象API:支持主流AI服务,如 OpenAI、DeepSeek、Google、和Ollama等,提供了提供标准化的接口。核心功能模块:模型交互、向量处理、检索增强生成(RAG)、函数调用。低代码集成:通过Spring Boot Starter依赖快速接入,在配置文件中配置好AI服务即可使用。结构化输出:将模型响应直接映射为Java对象,简化数据处理。流式响应:支持Flux流式输出,适用于实时聊天等场景。Spring AI集成DeepSeek申请Api Key首先我们需要去DeepSeek官网申请Api Key,地址: https://platform.deepseek.com/api_keys Spring Boot中集成DeepSeek首先在SpringBoot项目中添加Spring AI对应的依赖;<dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-openai-spring-boot-starter</artifactId> <version>1.0.0-M6</version> </dependency>然后在项目的application.yml配置文件中添加调用AI服务相关的配置;spring: ai: openai: # 调用AI接口时表明身份的API KEY api-key: <YOUR_API_KEY> # 调用AI接口时的基础路径,配置的是阿里云百炼的基础路径 base-url: https://api.deepseek.com chat: options: # 调用的模型,DeepSeek的话可以选择deepseek-r1或deepseek-v3 model: deepseek-chat # 用来控制文本生成的随机性(创造力),值越小越严谨 temperature: 0.8创建一个控制器类,用于处理与 DeepSeek 的交互,import org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.*; @RestController @RequestMapping("/api/chat") public class ChatController { @Autowired private DeepSeekClient deepSeekClient; @PostMapping public String chat(@RequestBody String message) { return deepSeekClient.chatCompletion(message).getOutput().getContent(); } @GetMapping(value = "/stream", produces = "text/event-stream") public Flux<String> chatStream(@RequestParam String message) { return deepSeekClient.chatFluxCompletion(message) .map(response -> response.getOutput().getContent()); } }
2025年03月18日
23 阅读
0 评论
0 点赞
2025-02-19
使用Page Assist实现本地部署DeepSeek对话及数据投喂
在 ollama本地部署 DeepSeek详细教程:小白也能轻松搞定! 中我们实现了deepseek的本地部署及使用chatbox可视化界面搭建,但是chatbox无法进行本地模型的训练,界面也不是很美观,这里我们介绍另外一个浏览器插件Page Assist实现模型对话与训练。安装Page Assist插件我是用的Edge浏览器,Chrome浏览器也是类似的。打开扩展界面,搜索Page Assist第一个就是,点击获取进行安装安装完成后,点击这个小图标(真的好小)如果本地ollama正在运行,会出现下面的页面我们点击右上角的设置按钮,进行设置先修改一下语言,改成简体中文设置完成后,返回首页,在左上角选择我们的模型,就可以进行对话了本地模型训练为了让模型更加了解我们的需求,我们可以给模型投喂数据,这里我们需要用一个量化的工具,把各种格式的数据量化给人工智能,让它能看得懂。也就是RAG。这里我们使用ollama提供的nomic-embed-text可以打开[](https://ollama.com/library/nomic-embed-text)这个页面查看拉取命令将命令ollama pull nomic-embed-text复制到终端里面执行即可安装完成后,我们进入Page Assist的设置界面在RAG设置标签页,选择nomic-embed-text:last然后切换到管理知识页,点击添加新知识,就可以对我们的模型进行投喂了添加完成后,可以查看处理状态及历史数据
2025年02月19日
399 阅读
0 评论
0 点赞
2025-02-19
ollama本地部署 DeepSeek详细教程:小白也能轻松搞定!
2025蛇年伊始,DeepSeek如平地惊雷般引发空前讨论,不知腾讯等大厂的产品积极拥抱DeepSeek,就连我们普通人就在使用DeepSeek解决一些问题,俨然进入了全民AI时代。DeepSeek-R1 已发布并开源,性能对标 OpenAI o1 正式版。DeepSeek 不同版本模型硬件要求不同版本对应参数量不同,参数量越大,使用效果越好,当然对应电脑配置要求越高。以下是 DeepSeek 不同版本模型的硬件要求,小伙伴们可以结合自己电脑配置选择版本模型版本参数量显存需求(FP16)推荐 GPU(单卡)多卡支持量化支持适用场景DeepSeek-R1-1.5B15亿3GBGTX 1650(4GB显存)无需支持低资源设备部署(树莓派、旧款笔记本)、实时文本生成、嵌入式系统DeepSeek-R1-7B70亿14GBRTX 3070/4060(8GB显存)可选支持中等复杂度任务(文本摘要、翻译)、轻量级多轮对话系统DeepSeek-R1-8B80亿16GBRTX 4070(12GB显存)可选支持需更高精度的轻量级任务(代码生成、逻辑推理)DeepSeek-R1-14B140亿32GBRTX 4090/A5000(16GB显存)推荐支持企业级复杂任务(合同分析、报告生成)、长文本理解与生成DeepSeek-R1-32B320亿64GBA100 40GB(24GB显存)推荐支持高精度专业领域任务(医疗/法律咨询)、多模态任务预处理DeepSeek-R1-70B700亿140GB2x A100 80GB/4x RTX 4090(多卡并行)必需支持科研机构/大型企业(金融预测、大规模数据分析)、高复杂度生成任务DeepSeek-671B6710亿512GB+(单卡显存需求极高,通常需要多节点分布式训练)8x A100/H100(服务器集群)必需支持国家级/超大规模 AI 研究(气候建模、基因组分析)、通用人工智能(AGI)探索DeepSeek本地安装目前ollama已经支持DeepSeek,我们这里也使用ollama进行安装。下载并安装Ollama访问Ollama官网 下载选择自己电脑对应的操作系统版本进行下载安装即可。也可以直接使用下面的链接下载对应系统版本Windows MacOS Linux可以直接使用curl命令安装,命令如下curl -fsSL https://ollama.com/install.sh | sh本文以Windows为例进行介绍验证Ollama是否安装成功下载后,会得到OllamaSetup.exe文件,直接双击安装,完成后,打开终端,输入ollama -v,如果输出对应的版本号代表安装成功。通过Ollama部署DeepSeek 模型之前部署过1.5B的,感觉效果差强人意,这次尝试一下7B的,也可以选择其他版本详细部署版本可以查看 https://ollama.com/library/deepseek-r1 命令行输入:ollama run deepseek-r1:7b 拉取DeepSeek模型7B模型大概4.7G,根据电脑网速,下载时间有所不同下载完成后,就可以进行对话了每次进行对话时,可以在命令行输入:ollama run deepseek-r1:7b部署可视化前端界面目前虽然已经可以在终端进行对话,但是界面比较简陋,我们可以使用Chatbox这个可视化图文交互界面来提升使用体验。进入 Chatbox官网 下载对应版本的安装包。安装完成后,打开,选择使用自己本地模型在弹出的界面,选择ollama api在弹出界面中,模型选择本地模型,因为我部署的是deepseek-r1:7b,所以选择deepseek-r1:7b即可然后就可以进行对话了
2025年02月19日
204 阅读
0 评论
0 点赞