首页
归档
留言
友链
广告合作
壁纸
更多
美女主播
Search
1
博瑞GE车机升级/降级
5,603 阅读
2
Mac打印机设置黑白打印
4,931 阅读
3
修改elementUI中el-table树形结构图标
4,892 阅读
4
Mac客户端添加腾讯企业邮箱方法
4,670 阅读
5
intelliJ Idea 2022.2.X破解
4,352 阅读
后端开发
HarmonyOS Next
Web前端
微信开发
开发辅助
App开发
数据库
随笔日记
登录
/
注册
Search
标签搜索
Spring Boot
Java
Vue
Spring Cloud
Mac
MyBatis
WordPress
MacOS
asp.net
Element UI
Nacos
.Net
Spring Cloud Alibaba
MySQL
Mybatis-Plus
Typecho
jQuery
Java Script
微信小程序
Oracle
Laughing
累计撰写
626
篇文章
累计收到
1,421
条评论
首页
栏目
后端开发
HarmonyOS Next
Web前端
微信开发
开发辅助
App开发
数据库
随笔日记
页面
归档
留言
友链
广告合作
壁纸
美女主播
搜索到
1
篇与
的结果
2025-02-19
ollama本地部署 DeepSeek详细教程:小白也能轻松搞定!
2025蛇年伊始,DeepSeek如平地惊雷般引发空前讨论,不知腾讯等大厂的产品积极拥抱DeepSeek,就连我们普通人就在使用DeepSeek解决一些问题,俨然进入了全民AI时代。DeepSeek-R1 已发布并开源,性能对标 OpenAI o1 正式版。DeepSeek 不同版本模型硬件要求不同版本对应参数量不同,参数量越大,使用效果越好,当然对应电脑配置要求越高。以下是 DeepSeek 不同版本模型的硬件要求,小伙伴们可以结合自己电脑配置选择版本模型版本参数量显存需求(FP16)推荐 GPU(单卡)多卡支持量化支持适用场景DeepSeek-R1-1.5B15亿3GBGTX 1650(4GB显存)无需支持低资源设备部署(树莓派、旧款笔记本)、实时文本生成、嵌入式系统DeepSeek-R1-7B70亿14GBRTX 3070/4060(8GB显存)可选支持中等复杂度任务(文本摘要、翻译)、轻量级多轮对话系统DeepSeek-R1-8B80亿16GBRTX 4070(12GB显存)可选支持需更高精度的轻量级任务(代码生成、逻辑推理)DeepSeek-R1-14B140亿32GBRTX 4090/A5000(16GB显存)推荐支持企业级复杂任务(合同分析、报告生成)、长文本理解与生成DeepSeek-R1-32B320亿64GBA100 40GB(24GB显存)推荐支持高精度专业领域任务(医疗/法律咨询)、多模态任务预处理DeepSeek-R1-70B700亿140GB2x A100 80GB/4x RTX 4090(多卡并行)必需支持科研机构/大型企业(金融预测、大规模数据分析)、高复杂度生成任务DeepSeek-671B6710亿512GB+(单卡显存需求极高,通常需要多节点分布式训练)8x A100/H100(服务器集群)必需支持国家级/超大规模 AI 研究(气候建模、基因组分析)、通用人工智能(AGI)探索DeepSeek本地安装目前ollama已经支持DeepSeek,我们这里也使用ollama进行安装。下载并安装Ollama访问Ollama官网 下载选择自己电脑对应的操作系统版本进行下载安装即可。也可以直接使用下面的链接下载对应系统版本Windows MacOS Linux可以直接使用curl命令安装,命令如下curl -fsSL https://ollama.com/install.sh | sh本文以Windows为例进行介绍验证Ollama是否安装成功下载后,会得到OllamaSetup.exe文件,直接双击安装,完成后,打开终端,输入ollama -v,如果输出对应的版本号代表安装成功。通过Ollama部署DeepSeek 模型之前部署过1.5B的,感觉效果差强人意,这次尝试一下7B的,也可以选择其他版本详细部署版本可以查看 https://ollama.com/library/deepseek-r1 命令行输入:ollama run deepseek-r1:7b 拉取DeepSeek模型7B模型大概4.7G,根据电脑网速,下载时间有所不同下载完成后,就可以进行对话了每次进行对话时,可以在命令行输入:ollama run deepseek-r1:7b部署可视化前端界面目前虽然已经可以在终端进行对话,但是界面比较简陋,我们可以使用Chatbox这个可视化图文交互界面来提升使用体验。进入 Chatbox官网 下载对应版本的安装包。安装完成后,打开,选择使用自己本地模型在弹出的界面,选择ollama api在弹出界面中,模型选择本地模型,因为我部署的是deepseek-r1:7b,所以选择deepseek-r1:7b即可然后就可以进行对话了
2025年02月19日
236 阅读
0 评论
0 点赞