网页资讯视频图片知道文库贴吧地图采购
进入贴吧全吧搜索

 
 
 
日一二三四五六
       
       
       
       
       
       

签到排名:今日本吧第个签到,

本吧因你更精彩,明天继续来努力!

本吧签到人数:0

一键签到
成为超级会员,使用一键签到
一键签到
本月漏签0次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行补签。
连续签到:天  累计签到:天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
07月28日漏签0天
笔记本吧 关注:5,004,073贴子:89,023,471
  • 看贴

  • 图片

  • 吧主推荐

  • 视频

  • 游戏

  • 10回复贴,共1页
<<返回笔记本吧
>0< 加载中...

求助,想买个显存大一点的英伟达显卡电脑跑模型

  • 只看楼主
  • 收藏

  • 回复
  • 帅aii
  • 笔吧元老
    2
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
预算6000-7000吧,有无好哥哥帮忙推荐一下


  • TvTvT
  • 神论党
    9
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
这个预算没啥大显存显卡不如买个两年了或者m系列这种的畅享自由显存


2025-07-28 10:25:06
广告
不感兴趣
开通SVIP免广告
  • Rop2z
  • 电脑新手
    12
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
整机7000预算么


  • 贴吧用户_GANJGW9490
  • 真·大神
    1
该楼层疑似违规已被系统折叠 隐藏此楼查看此楼
比较难,我给您提供几个数据:
前提假定您使用Ollama跑LLVM,为了更少的占用资源,我假定您使用Linux系统,不使用其他辅助工具 ------ 纯命令行方式,最小的占用资源:
1)Google的gemna3:27b:其大模型占用是17G,实际运行测试(Ubuntu Linux 24.04Lts)大致需要70G,当然,您可以使用较小规模的模型,如12b:则模型大小为8.1G;更小的4b个人认为意义不大
2)以国内的deepseek-r1为例:满血版就不要想了,671b仅模型数据就要404G,我们假定70b大模型,模型数据也要43G,几乎消费显卡也不大可能;针对消费电脑,目前可行的只有8b,其数据模型也要4.9G
。。。。。
-------------------------------------------------------------------------------------------------------------
结论:
即,综合以上来看,即使跑较小的模型:显卡的显存至少要在8G以上 ------ 还只是诸如8b或4b这种小规模的模型;同时,如果显存较小,您可能需要消耗更到的内存,即电脑内存可能会达到64G甚至更大(27b实测70G内存):即40系8G或以上显存,主机内存是少32G甚至64G或更高
目前比较好的解决办法是使用统一内存的电脑,如MacPro或者AMD新出的AMD AI Max 395,且要128G版本 ------ 只是这个售价大约到2万元以上了;基本跑32b或27b规模的大模型问题不大
--------------------------------------------------------------------------------------------------------------
图例是我的电脑:移动工作站,128G内存 + A400专业显卡,系统Ubuntu 24.04LTS;运行Gemma3:27b时内存消耗截图:图中演示是我询问我本地部署的Gemma3:27b本地部署deepseek-r1需要的电脑配置


登录百度账号

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!
  • 贴吧页面意见反馈
  • 违规贴吧举报反馈通道
  • 贴吧违规信息处理公示
  • 10回复贴,共1页
<<返回笔记本吧
分享到:
©2025 Baidu贴吧协议|隐私政策|吧主制度|意见反馈|网络谣言警示