1
beimenjun PRO 关键 5.4 模型你强行调出 1M ,使用起来因为命中率不高,其实表现也就那样。
|
2
yuan321 OP 上下文确实和 claude code 有比较大的差距
|
3
sampeng 9 小时 58 分钟前 via iPhone
codex 的 compact 我觉得比 cc 的聪明
|
4
neteroster 9 小时 49 分钟前
1. codex 的 5.5 没有 1M ,API 才有,大概率成本考量。Tibo ( OpenAI Codex 负责人) X 上说后续会提高上下文。
2. codex 的 compact 很强 |
5
xubeiyou 9 小时 37 分钟前
他这个不是 pro 用不起啊 一下子 就没了。。。。
|
6
lihanst 9 小时 27 分钟前
5.4 的 1m 上下文性能退化严重
|
7
salor 8 小时 46 分钟前
1m 上下文有什么用呢,600k 上下文就已经分不清计划模式了,让执行上面的方案一个劲的重复方案就是不执行,复现很多次了。通常超过 400k 上下文就要开新对话了,不然生成的内容真信不过。
|
8
yuan321 OP 一般 compact 几次需要从开对话?
|
9
zisen 8 小时 31 分钟前
codex 里面的 5.5 是 400k ,api 调用是 1M
|
11
lifeintools 8 小时 28 分钟前
还真没注意到这个事。我以为默认就是 1M
|
12
billytom 5 小时 1 分钟前
请教下 codex 的 compact 需要像 cc 那样自己感觉长了就/compact 一下还是说 codex 它到了聊天 context 顶会自动压缩的?
|
13
AEDaydreamer 4 小时 57 分钟前
1.compact 非常好用
2.但是这个上下文确实小了,不免让人不放心 总体就是长 thread 用起来心理上很纠结但是生成的内容貌似还能接受. |
14
zisen 3 小时 48 分钟前
@yuan321 好吧,我看 openai blog 写的 In Codex, GPT‑5.5 is available for Plus, Pro, Business, Enterprise, Edu, and Go plans with a 400K context window. GPT‑5.5 is also available in Fast mode, generating tokens 1.5x faster for 2.5x the cost.
https://openai.com/index/introducing-gpt-5-5/ |
16
winglight2016 51 分钟前
官网上有标明不同订阅等级,不同模型,context 大小是不一样的,plus 的 5.5 标明了是 256k 。
另外,5.5 似乎非常贵,我刚充了 40 刀 1000credits ,问了两次居然就用完了,好像碰到诈骗了一样。 |