1
Kevinyy 4 天前 直接 64G ,得不到的永远在躁动
|
2
taozheju 4 天前
肯定越大越好
|
3
PeiXyJ 4 天前
|
4
andforce 4 天前 via iPhone
兄弟,我告诉你,我的 M1 都上 64G 内存了
|
6
CloudMx 4 天前
64,如果预算更多直接 128 了.
|
7
diudiuu 4 天前
48 吧 我 m4 搞得 32 这会用的时候还是有点吃力,主要是上本地模型了,昨天去以旧换新,旧的折算 5000 ,算了讲究用吧
|
9
yifangtongxing28 OP @CloudMx 平台上 128g 的都光了,看了下价格,有货情况 3w5 左右能拿下,预算投入超支了哈哈
|
10
yifangtongxing28 OP @diudiuu 多少 B 的模型?上下文多轮对话能扛得住吗?
|
11
chitanda 4 天前
48g 。64g 多出来的 16g 并不能干什么
|
12
fredweili 4 天前
16g m1 pro ,准备换 48g m5 pro ,因为公司只给这个
|
13
comefromweb 4 天前
|
14
stinkytofux 4 天前
64g 吧, 能多用两年.
|
15
turing518 4 天前
如果在纠结,那就直接上 64G ,免得以后后悔
|
16
rockddd 4 天前
想用五年肯定越大越好,如果两三年就换那么 48G 更合适,目前 64 也跑不了智商在线的模型
|
17
marvinxtechbot18 PRO 内存多多益善,预算充足情况下,绝对不考虑省这个。
|
18
yhxx 4 天前
看自己现在的电脑日常用了多少
我是 48 足够了 觉得拉满可以多用两年,其实大部分人还没到那两年,就换 M7M8 了 |
19
wombat 4 天前
除非部署模型,不然 48g 足够。 我觉得 64g 部署的模型要体验好,也就 32b 及一下吧? 32b 的话不如用云端的模型 api ,32b 作为 openclaw 、日常使用差点。
|
20
yifangtongxing28 OP @rockddd 模型这个没啥执念,我用 windows 台式机玩了一下,目前还看不出什么设备是本地部署利器,消费级的产品来说的话
|
24
wu67 4 天前
可以但是没必要, 你加钱搞那么多内存, 都够你开各种 API 套餐爽用了, 反正我是觉得 24 够用 32 爽用了.
|
25
painter 4 天前
8g 内存的 M1 Air 依然在咔咔 AI Coding
|
26
kerwin1874 4 天前
现在 16g 的 m1 pro 本地开发也开始吃力了。
需求是 idea 开 2 个项目,goland 开一个,3-4 个服务,safari 开 10 个标签,然后要 docker 跑 3-4 个容器,还有一堆 electron app ,感觉还是要 64g 心里才有底。 m5 pro 64+1t 看价格是 21k ,不知道同模具的 m2 max/m3 max 大内存版本能压到多少价格? m5 pro 的 cpu 性能感觉进步挺大的。 |
27
night98 4 天前
有条件内存肯定越大越好。
|
28
jaoyina 4 天前 via Android
准备跑大模型吗,不跑 48 也够了。
|
29
yifangtongxing28 OP @jaoyina 不准备啊,笔记本开盖盒盖麻烦
|
30
rlarnsgur 4 天前
之前看过评测,14 寸的磨具 32G 是可以压得住,但是 64G 明显 16 寸更加游刃有余,
|
31
coolxll 4 天前
@kerwin1874 #26 m5 pro 64+1t 看价格是 21k 是啥渠道?
|
32
bzw875 4 天前
买中配,3 年一换
|
33
diudiuu 4 天前
@yifangtongxing28 跑的 26b 的一个 18g ,最简单的方式就是你看下载的模型大小,直接加就行了,能简单算出来
比如 gemma4:26b 18g ,32g mac 电脑,本身占 11g + 18g ,差不多都在 29g-30g ,再加上推理要用的,之能更大 速度我看下来以只要内存后,出 token 都差别不是很大,我试了一个 gemma4:e4b 9g ,跟上面 18g 都是 25 token/s ,区别不是很大 |
34
kuaner 4 天前
128 不要犹豫,内存只会越来越贵
|
35
kerwin1874 4 天前
@coolxll 淘宝刷到过大概这个价格
|
36
JEFFMEME 4 天前
没必要 64G 邦死 5 年这样的想法,5 年都有新的高度了,或许差价加一点置换新硬件更划算,或者 API 来替代。
需要多少就买多少,两三年即可。 |
37
wanguorui123 4 天前
如果只用 3-5 年 48G 足够了,如果要用 10 年左右肯定买内存更大的
|
38
wetalk 4 天前
M 系列芯片的单核 IPC 差异并不大,性能提升主要源于频率和核心数量的增加。但问题是,即便 CPU 满载,散热能力也往往跟不上。说白了,在核心数相同的情况下,M3 干不了的活,M5 同样干不了。目前真正的使用瓶颈通常不在 CPU ,而是在内存。
|
39
zhuyao 4 天前
有钱就 24G 以上,没钱就咬牙大于 16g 。我这个 16 寸,开多个 idea 内存就红色了
|
40
glpyhster 4 天前
预算充足,能上 64G 就上 64G ,虽然我 M4 Pro 48G 平时使用也没有遇到什么瓶颈的地方。
|
41
xubeiyou 4 天前
有钱就肯定 64 啊
|
42
A9754184529 4 天前
由于需要跑一台 Windows 虚拟机,直接上 64G 内存了。M2 Max ,1T ,有点后悔早知道上 2T 。
|
43
DinnyXu 4 天前
经济没压力就一口气上 64G 的,我这 16G 初代 M1 都用了 5 年多了,经常因为 idea 内存占用过高
|
44
yifangtongxing28 OP @wetalk 专业,有很多 14 寸压不住 max 的例子,其实编码或者各种时候大部分 cpu 都跑的很不满,少数情况,也就一会就过去了,但是内存是刚需
|
45
auroraccc 4 天前
看你喜不喜欢关窗口,我是不喜欢关应用的人。48G 偶尔也会卡,大概 40 个 chrome tab 、Arc 3-6 个 tab 、前端开发服务 2-3 个、QSpace 、VSCode 窗口 3-4 个、XCode 、Codex 、Android Studio 、Warp 、QQ 音乐、Figma 客户端、钉钉。大头主要这些,差不多会变黄。
|
46
AndyLuo 4 天前 via Android
我个人用 mac 就是搭搭 ai 环境,干干文字工作,48g 不是很够,假期自建了一把本地龙虾,因为不想碰 mac 的数据(也没需求)所以自建了个 8g 虚拟机,本地模型+虚拟机+mac 需要的内存 64 个。直接吃满了开始用交换空间。如果没本地跑模型的需求感觉 48g 也够用了
|
47
zsmj1024 4 天前
买了 m3max 64GB+2TB ,推荐 m5pro 64GB+1TB (港版教育优惠,大概 18k )
|
48
yifangtongxing28 OP @zsmj1024 哈哈,我就是犹豫了没买到这批货,才看 m5 的
|
49
version 3 天前
异地组网。m5 air 24g 刚刚好..感觉苹果性价比不高.等真的能上大模型. win+96g+5090 这样省钱些.多台 pve 部署机长期不关机..rdp 目前在 mac 使用非常可以的..都 vibe coding 了.你需要的是长期不关机的电脑
|
50
Keystroke 3 天前
用着 16G 的看到这个帖子惊呆了……你们现在都买那么大的吗?如果不跑大模型,这么大的意义是啥……
|
51
zhouquanbest 3 天前
我选 48 的 多的钱选大点 SSD
Mac 的内存压缩其实还可以 48G 你别本地跑太变态的东西 是够的 |
52
JoshTheLegend 3 天前
打算用 5 年,你也只是提到了差价没有提预算,那肯定越多越好啊,说不定两三年后有黑科技开源小模型性能猛涨呢。
|
53
Lemonadeccc 3 天前
64gm1max ,开一堆网页,常年 85%,极少 91%。感觉一般 48 就够用了。然后个人认为端侧模型肯定后面会适配大部分设备的。
|
54
ApmI00 3 天前
曾经 m3 max ,咬牙上了 128G ,龙虾出现前,虽然偶尔也跑本地模型试试手感,但是大部分情况还是空闲 64G 内存,不图别的,看到 swap 为 0 ,就是爽
|
55
yifangtongxing28 OP @zhouquanbest 固态都是 1t 我自己还屯了 2 条 2t 的固态,可以外接
|
56
yifangtongxing28 OP @ApmI00 土豪啊哈哈,目前看 48 和 64 在不跑模型下都算是够用的
|
57
belite 1 天前
@yifangtongxing28 要是考虑本地模型的话,实测 gemma4 的 26b-4bit 在 48G mac 上用 olmx 显示占用 16G ,设置 4G 内存缓存,开着常用的 chrome 这些软件轻度使用还剩 10G 内存未使用。打开大型软件会内存交换。26b 的 8bit 和 31b 模型直接会内存交换。建议 64G 的可以本地常开一个 26B 模型,这个模型质量和速度都还可以。但是不排除半年后会有更优秀的模型出来可能到时候 48G 足够,现阶段还是 API 在线模型更划算。
|
58
gigishy 23 小时 11 分钟前 via iPhone
就我个人而言,64g 勉强愿意,但是起步还是想 128g 内存的 mbp 。
原因还是因为目前能达到实用水平的端侧 ai…… |
59
yifangtongxing28 OP @belite 目前来看我如果真要用端侧,我会买一台 mac studio 一直跑,笔记本合盖还是会有问题
|
60
yifangtongxing28 OP @gigishy 哈哈,128 的钱加的有点多,要上服务器级别的就有更好选择了
|
61
leozeeho 2 小时 10 分钟前
现在笔记本就是个客户端 32G 就够了,跑模型的,直接搞个 studio 256G 以上,远程调用自己的大模型,或者云端模型才是正道。
我自己就是 32G 的 M1 pro 和 64G 的 M5 pro, 主要是 java 技术栈的开发。就开发编码这点事根本没用出什么区别。 |
62
yifangtongxing28 OP @leozeeho 是的,最后我选了 48 的 m5pro 。
|