| 在 Planet 里配上了 ollama 驱动的 gemma4
Planet • Livid PRO |
1 |
| 用 Ollama 部署了一个我之前没听过的大模型 gpt-oss:120b, 发现速度还挺快, 不知道能不能用在 openclaw 上.然后跟 Qwen 做了一下生成速度对比, 可能不太客观.
分享发现 • JoeJoeJoe PRO |
50 |
| 有没有 openclaw 调用本地 ollama 大模型的 问与答 • xuzhijian24 • 3 月 7 日 • 最后回复来自 hiccup00 | 8 |
| [求助] DGX Spark 上 Ollama 推理极慢,改用 llama.cpp 部署是否更合适? Local LLM • diudiuu • 3 月 11 日 • 最后回复来自 diudiuu | 11 |
| 用了一个月的 ollama+zed 感觉体验不错啊,是我误判了什么吗? 程序员 • blueskeletons • 2025 年 12 月 11 日 • 最后回复来自 wupeaking | 17 |
| LLAMA CPP 比 Ollama 快得多 程序员 • wenerme • 2025 年 11 月 23 日 • 最后回复来自 mooyo | 22 |
| [分享]本地部署大模型,又开发了一个 Ollama 的 UI 分享创造 • guojam • 2025 年 11 月 9 日 |
| 在 n8n 中使用 Ollama 的本地 LLM 模型 Local LLM • DejavuMoe • 2025 年 11 月 24 日 • 最后回复来自 DejavuMoe | 3 |
| Ollama 正在测试云 API 服务,目前免费爽刷
1 分享发现 • Solix • 2025 年 9 月 24 日 • 最后回复来自 molton
|
3 |
| AI 本地化部署的方式 Local LLM • wenkgin • 2025 年 12 月 4 日 • 最后回复来自 horizon | 44 |
| Ollama 最新的桌面客户端有开源吗? 问与答 • cat • 2025 年 8 月 19 日 • 最后回复来自 cat | 5 |
| 用 Claude Code 和 v0 写了一个基于 Ollama 的本地 RAG 的库/CLI 一体的“玩具” 分享创造 • liliang • 2025 年 8 月 15 日 • 最后回复来自 xuemian | 1 |
| openai 正式开源了模型 gpt-oss-120b 和 gpt-oss-20b 分享发现 • perfectlife • 2025 年 8 月 10 日 • 最后回复来自 cloverzrg2 | 20 |
| 容器化部署没有限制使用 CPU 和内存大小 ollama 只能调动一半 CPU 怎么解决 TensorFlow • morencato1 • 3 月 20 日 • 最后回复来自 sirk | 6 |
| 我做了一个 Ollama JSONL 批量推理工具,除了 Ollama 还支持 Deepseek 等 OpenAI Style 兼容 API Local LLM • mili100 • 2025 年 6 月 24 日 • 最后回复来自 mili100 | 2 |
| win 上 ollama 运行 qwen3 最简单实现语音交互的方法是什么 程序员 • crac • 2025 年 6 月 7 日 • 最后回复来自 echaos | 3 |
| llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 Local LLM • coefu • 2025 年 10 月 29 日 • 最后回复来自 coefu | 6 |
| Ollama for amd 项目更新了,目前支持 9000 系显卡,可以跑模型了。 分享发现 • Tree9390 • 2025 年 3 月 24 日 |
| 使用 Python 写的大语言模型能力调用 mvc 框架,欢迎使用测试 程序员 • vtwoextb • 2025 年 3 月 18 日 |
| 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢 Local LLM • littlemis • 2025 年 3 月 18 日 • 最后回复来自 littlemis | 4 |
| 半个小时前, ollama 上线了目前单显卡里,最强的中小模型 gemma3
1 Local LLM • tool3d • 2025 年 5 月 10 日 • 最后回复来自 mizuhashi
|
51 |
| 请问推荐哪个平台租用 deepseek 本地版的 ollama 云端版本 问与答 • littlemis • 2025 年 3 月 12 日 • 最后回复来自 xjh1024 | 1 |
| 为 Ollama 添加 APIKEY 鉴权的最简单的方式,防止 Ollama 直接暴露在公网被滥用 Local LLM • mili100 • 2025 年 3 月 12 日 • 最后回复来自 musi | 6 |
| 大佬们,本地使用 ollama 部署的 DeepSeek-R1-32B 在 anythingllm 中发送图片,它说它没收到,应该怎么做?才能让他帮我识别图片?实现官网那种效果 Local LLM • cander0815 • 2025 年 3 月 11 日 • 最后回复来自 coefuqin | 4 |
| 本地部署了 ollama+deepseek-r1:70b 和 32b 分享发现 • lefthand2006 • 2025 年 3 月 5 日 |
| Ollama 拉模型不搞小动作了? OpenAI • gtese • 2025 年 3 月 4 日 • 最后回复来自 DICK23 | 4 |
| ollama+docker 部署的 dify+ Linux 放在外网,如何设置才安全? Local LLM • icemanpro • 2025 年 3 月 3 日 • 最后回复来自 mmdsun | 9 |
| ragflow 的聊天内容只显示一半 问与答 • BaconiOS • 2025 年 3 月 2 日 • 最后回复来自 5gmobiler | 2 |
| colab 搭建 ollama 外链的问题 问与答 • visavisa • 2025 年 2 月 17 日 |
| 有开源的可联网搜索的 ollama UI 项目推荐吗 Local LLM • goashore • 2025 年 3 月 1 日 • 最后回复来自 coefuqin | 14 |
| 请问 ollama 等 AI 的第三方客户端,除了 ChatBox 和 CherryStudio,还有更好的选择吗? Local LLM • BearCookie • 2025 年 6 月 4 日 • 最后回复来自 aero99 | 11 |
| NVLink 对显卡集群的影响有多大? NVIDIA • v2dev • 2025 年 2 月 17 日 • 最后回复来自 mengban | 19 |
| ollama 绕过本地下载 deepseek 大模型文件方法 问与答 • cfer • 2025 年 2 月 17 日 • 最后回复来自 hackroad | 2 |
| 使用 openai webui 对接较慢的模型的时候,出现了不该有的重试? OpenAI • phpfpm • 2025 年 2 月 10 日 • 最后回复来自 phpfpm | 1 |
| ollama 如何手动下载模型? Local LLM • mrleft • 2025 年 2 月 20 日 • 最后回复来自 h4ckm310n | 15 |
| 问一个大模型本地部署的问题 问与答 • sakujo • 2025 年 2 月 2 日 • 最后回复来自 me007 | 4 |
| 有使用 gitea 的吗?试试这个 基于 Gitea 和 Ollama (open-webui) 的代码合并(PR)自动检查 推广 • kekxv • 2025 年 1 月 19 日 |
| 我做了一个 Ollama 模型仓库镜像站,帮你更快的从 ModelScope 魔搭拉取模型 Local LLM • mili100 • 2025 年 1 月 10 日 |
| 基于 tornado 写一个调用 Ollama 中的大模型的框架,供参考 分享创造 • vtwoextb • 2024 年 12 月 27 日 |
| 史上最简洁的 Ollama 交互页面 分享发现 • xshell • 2024 年 12 月 13 日 • 最后回复来自 heijiangjun | 1 |
| LightRAG: 轻量级检索增强生成系统 Python • suke119 • 2024 年 12 月 5 日 • 最后回复来自 mdb | 5 |
| 代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算? Local LLM • raw0xff • 2024 年 11 月 11 日 • 最后回复来自 poorcai | 28 |
| 在 mac 上安装 ollama,过几天再打开,为什么之前下载到本地的模型 ollama list 识别不了? Local LLM • cmichael • 2024 年 11 月 1 日 |
| Meta 发布了 llama3.2,我试了一下 ollama 版本,发现这是假的 Local LLM • winglight2016 • 2024 年 9 月 28 日 • 最后回复来自 yuting0501 | 14 |
| 本地跑大模型代码助手还挺好用 Local LLM • songray • 2024 年 9 月 24 日 • 最后回复来自 tabc2tgacd | 6 |
| 请问哪个支持 idea 系列引擎的且支持 ollama 的代码补全插件比较好用? 程序员 • v2user89 • 2024 年 9 月 2 日 • 最后回复来自 v2user89 | 4 |
| 初步完成了一个 swiftui 的 macos 本地的 chatui,大家有兴趣可以帮忙提点意见 问与答 • treblex • 2024 年 8 月 24 日 |
| intel mbp 有办法用 gpu 给 ollama 提速吗 Local LLM • Vitta • 2024 年 8 月 13 日 • 最后回复来自 Vitta | 6 |
| Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型? Local LLM • adrianzhang • 2024 年 12 月 12 日 • 最后回复来自 adrianzhang | 7 |
| 使用 RAG-GPT 和 Ollama 搭建智能客服 OpenAI • AIInception • 2024 年 5 月 22 日 |
| 目前最快的模型, 微软 Phi-3 Local LLM • zsxzy • 2024 年 4 月 26 日 • 最后回复来自 xudong | 2 |
| 感谢巨硬, Phi-3 Mini 让我八年前的破笔记本也能玩本地大模型翻译了 Local LLM • iX8NEGGn • 2024 年 4 月 26 日 • 最后回复来自 SuperMaxine | 13 |
| llama 3 发布了,我感觉挺猛的...
2 Local LLM • t41372 • 2024 年 7 月 24 日 • 最后回复来自 kangfenmao
|
12 |
| ollama run 报错请教大佬 Local LLM • xmtpw • 2024 年 8 月 21 日 • 最后回复来自 finalsatan | 4 |
| Ollama 运行 Llama2 大模型,怎么友好的支持中文 Local LLM • xiaohupro • 2024 年 7 月 23 日 • 最后回复来自 kangfenmao | 13 |
| 为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama
1 分享创造 • hqwuzhaoyi • 2024 年 3 月 16 日 • 最后回复来自 barryzhai
|
5 |
| 推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便 Local LLM • keepRun • 2024 年 7 月 18 日 • 最后回复来自 kangfenmao | 24 |
| ollama 平时不使用的时候会占用内存吗? Local LLM • coinbase • 2024 年 2 月 23 日 |
| 有人买英特尔 14 代 ultra 系列的 cpu 了么,里面的 npu 运行 ollama 速度大概什么样? Local LLM • PungentSauce • 2024 年 2 月 22 日 • 最后回复来自 Track13 | 1 |
| ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错 Local LLM • frankyzf • 2024 年 2 月 16 日 • 最后回复来自 frankyzf | 6 |