V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
s2555
V2EX  ›  Local LLM

本地大模型多大显存够用?

  •  
  •   s2555 · 21 小时 53 分钟前 · 969 次点击
    有没有人跑本地大模型养龙虾,多大显存能用得爽一点?我打算买个 4090 魔改 48G 的,够用了吗?
    13 条回复    2026-04-16 18:21:08 +08:00
    mokeyjay
        1
    mokeyjay  
       21 小时 52 分钟前
    你至少也要先规划一下自己想跑多少 B 的模型吧?如果你对「够用」的定义是能跑就行,那 2B 4B 的小模型手机都跑得动
    s2555
        2
    s2555  
    OP
       21 小时 47 分钟前
    @mokeyjay 没概念,能达到 ds 刚出来的效果吗?
    zhandouji2023
        3
    zhandouji2023  
       21 小时 43 分钟前 via Android
    论文助手,润色之类需要什么显卡够了
    @mokeyjay
    ntdll
        4
    ntdll  
       21 小时 30 分钟前
    @s2555 #2 满血版的 Deepseek 671B 这种规模本地就别想了,哪怕老黄送你几个计算卡,光电费,就已经是国家电网战略合作伙伴了。

    有这个预算,还是买 Coding plan ,这个卡的钱,一年的订阅费都用不完,一年后,你还玩不玩都不一定呢
    crocoBaby
        5
    crocoBaby  
       21 小时 5 分钟前
    上下文 256k 才勉强够用
    cin
        6
    cin  
       20 小时 26 分钟前
    48G 适合跑的最新模型有 Qwen3.5-27B Qwen3.5-35B-A3B, Gemma-4-26B-A4B Gemma-4-31B ,可以先体验下再考虑
    s2555
        7
    s2555  
    OP
       20 小时 18 分钟前
    @ntdll 买显卡也有别的用途
    mokeyjay
        8
    mokeyjay  
       9 小时 25 分钟前
    @zhandouji2023 你这需求自然是越大的模型效果越好,很难界定「够用」的标准,我的建议是直接买现成的服务不要自己搞
    stevn
        9
    stevn  
       3 小时 2 分钟前
    pro6000 的 96GB 内存都不一定够,最起码双卡,不考虑电费,这价格买 api 够多少年的了
    s2555
        10
    s2555  
    OP
       2 小时 19 分钟前
    @stevn 这样看来还是要买 api 啊
    WDATM33
        11
    WDATM33  
       1 小时 9 分钟前
    本地能跑个人开销的起的开源模型没有一个能和开源模型掰手腕的,也就画图模型还能追一追,其他的是真的不行,与其花那个钱买设备不如买 api 了
    WDATM33
        12
    WDATM33  
       1 小时 8 分钟前
    @WDATM33 #11 打错了 是没有一个能和闭源模型掰手腕
    nullyouraise
        13
    nullyouraise  
       12 分钟前
    本地想跑 GLM 这个等级的大模型就别想了,GLM-5.1 满血版需要 8 张 H200 ,总计 1.15TB 显存才能跑;哪怕是量化到极致的最低要求也得 240G 显存
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3730 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 59ms · UTC 10:33 · PVG 18:33 · LAX 03:33 · JFK 06:33
    ♥ Do have faith in what you're doing.