1
mokeyjay 21 小时 52 分钟前
你至少也要先规划一下自己想跑多少 B 的模型吧?如果你对「够用」的定义是能跑就行,那 2B 4B 的小模型手机都跑得动
|
3
zhandouji2023 21 小时 43 分钟前 via Android
论文助手,润色之类需要什么显卡够了
@mokeyjay |
4
ntdll 21 小时 30 分钟前
@s2555 #2 满血版的 Deepseek 671B 这种规模本地就别想了,哪怕老黄送你几个计算卡,光电费,就已经是国家电网战略合作伙伴了。
有这个预算,还是买 Coding plan ,这个卡的钱,一年的订阅费都用不完,一年后,你还玩不玩都不一定呢 |
5
crocoBaby 21 小时 5 分钟前
上下文 256k 才勉强够用
|
6
cin 20 小时 26 分钟前
48G 适合跑的最新模型有 Qwen3.5-27B Qwen3.5-35B-A3B, Gemma-4-26B-A4B Gemma-4-31B ,可以先体验下再考虑
|
8
mokeyjay 9 小时 25 分钟前
@zhandouji2023 你这需求自然是越大的模型效果越好,很难界定「够用」的标准,我的建议是直接买现成的服务不要自己搞
|
9
stevn 3 小时 2 分钟前
pro6000 的 96GB 内存都不一定够,最起码双卡,不考虑电费,这价格买 api 够多少年的了
|
11
WDATM33 1 小时 9 分钟前
本地能跑个人开销的起的开源模型没有一个能和开源模型掰手腕的,也就画图模型还能追一追,其他的是真的不行,与其花那个钱买设备不如买 api 了
|
13
nullyouraise 12 分钟前
本地想跑 GLM 这个等级的大模型就别想了,GLM-5.1 满血版需要 8 张 H200 ,总计 1.15TB 显存才能跑;哪怕是量化到极致的最低要求也得 240G 显存
|