V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  Ollama
Livid 在 Planet 里配上了 ollama 驱动的 gemma4
Planet  •  Livid  
PRO
 •  2 天前  •  最后回复来自 Livid
1
xuzhijian24 有没有 openclaw 调用本地 ollama 大模型的
问与答  •  xuzhijian24  •  3 月 7 日  •  最后回复来自 hiccup00
8
wenerme LLAMA CPP 比 Ollama 快得多
程序员  •  wenerme  •  2025 年 11 月 23 日  •  最后回复来自 mooyo
22
DejavuMoe 在 n8n 中使用 Ollama 的本地 LLM 模型
Local LLM  •  DejavuMoe  •  2025 年 11 月 24 日  •  最后回复来自 DejavuMoe
3
Solix Ollama 正在测试云 API 服务,目前免费爽刷
  •  1   
    分享发现  •  Solix  •  2025 年 9 月 24 日  •  最后回复来自 molton
    3
    wenkgin AI 本地化部署的方式
    Local LLM  •  wenkgin  •  2025 年 12 月 4 日  •  最后回复来自 horizon
    44
    cat Ollama 最新的桌面客户端有开源吗?
    问与答  •  cat  •  2025 年 8 月 19 日  •  最后回复来自 cat
    5
    perfectlife openai 正式开源了模型 gpt-oss-120b 和 gpt-oss-20b
    分享发现  •  perfectlife  •  2025 年 8 月 10 日  •  最后回复来自 cloverzrg2
    20
    crac win 上 ollama 运行 qwen3 最简单实现语音交互的方法是什么
    程序员  •  crac  •  2025 年 6 月 7 日  •  最后回复来自 echaos
    3
    coefu llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。
    Local LLM  •  coefu  •  2025 年 10 月 29 日  •  最后回复来自 coefu
    6
    isSamle 有没有这样的项目啊
    程序员  •  isSamle  •  2025 年 4 月 10 日  •  最后回复来自 isSamle
    10
    littlemis 请问此配置如何加速 ollama ds-r1 32b 的速度,好慢
    Local LLM  •  littlemis  •  2025 年 3 月 18 日  •  最后回复来自 littlemis
    4
    tool3d 半个小时前, ollama 上线了目前单显卡里,最强的中小模型 gemma3
  •  1   
    Local LLM  •  tool3d  •  2025 年 5 月 10 日  •  最后回复来自 mizuhashi
    51
    littlemis 请问推荐哪个平台租用 deepseek 本地版的 ollama 云端版本
    问与答  •  littlemis  •  2025 年 3 月 12 日  •  最后回复来自 xjh1024
    1
    gtese Ollama 拉模型不搞小动作了?
    OpenAI  •  gtese  •  2025 年 3 月 4 日  •  最后回复来自 DICK23
    4
    icemanpro ollama+docker 部署的 dify+ Linux 放在外网,如何设置才安全?
    Local LLM  •  icemanpro  •  2025 年 3 月 3 日  •  最后回复来自 mmdsun
    9
    BaconiOS ragflow 的聊天内容只显示一半
    问与答  •  BaconiOS  •  2025 年 3 月 2 日  •  最后回复来自 5gmobiler
    2
    visavisa colab 搭建 ollama 外链的问题
    问与答  •  visavisa  •  2025 年 2 月 17 日
    goashore 有开源的可联网搜索的 ollama UI 项目推荐吗
    Local LLM  •  goashore  •  2025 年 3 月 1 日  •  最后回复来自 coefuqin
    14
    v2dev NVLink 对显卡集群的影响有多大?
    NVIDIA  •  v2dev  •  2025 年 2 月 17 日  •  最后回复来自 mengban
    19
    cfer ollama 绕过本地下载 deepseek 大模型文件方法
    问与答  •  cfer  •  2025 年 2 月 17 日  •  最后回复来自 hackroad
    2
    phpfpm 使用 openai webui 对接较慢的模型的时候,出现了不该有的重试?
    OpenAI  •  phpfpm  •  2025 年 2 月 10 日  •  最后回复来自 phpfpm
    1
    mrleft ollama 如何手动下载模型?
    Local LLM  •  mrleft  •  2025 年 2 月 20 日  •  最后回复来自 h4ckm310n
    15
    sakujo 问一个大模型本地部署的问题
    问与答  •  sakujo  •  2025 年 2 月 2 日  •  最后回复来自 me007
    4
    xshell 史上最简洁的 Ollama 交互页面
    分享发现  •  xshell  •  2024 年 12 月 13 日  •  最后回复来自 heijiangjun
    1
    suke119 LightRAG: 轻量级检索增强生成系统
    Python  •  suke119  •  2024 年 12 月 5 日  •  最后回复来自 mdb
    5
    raw0xff 代码助手用 cursor pro 划算还是 cursor+ollama 本地部署划算?
    Local LLM  •  raw0xff  •  2024 年 11 月 11 日  •  最后回复来自 poorcai
    28
    songray 本地跑大模型代码助手还挺好用
    Local LLM  •  songray  •  2024 年 9 月 24 日  •  最后回复来自 tabc2tgacd
    6
    Vitta intel mbp 有办法用 gpu 给 ollama 提速吗
    Local LLM  •  Vitta  •  2024 年 8 月 13 日  •  最后回复来自 Vitta
    6
    adrianzhang Mac 上 VS Code 使用什么插件可以使用 Ollama 本地模型?
    Local LLM  •  adrianzhang  •  2024 年 12 月 12 日  •  最后回复来自 adrianzhang
    7
    AIInception 使用 RAG-GPT 和 Ollama 搭建智能客服
    OpenAI  •  AIInception  •  2024 年 5 月 22 日
    zsxzy 目前最快的模型, 微软 Phi-3
    Local LLM  •  zsxzy  •  2024 年 4 月 26 日  •  最后回复来自 xudong
    2
    t41372 llama 3 发布了,我感觉挺猛的...
  •  2   
    Local LLM  •  t41372  •  2024 年 7 月 24 日  •  最后回复来自 kangfenmao
    12
    xmtpw ollama run 报错请教大佬
    Local LLM  •  xmtpw  •  2024 年 8 月 21 日  •  最后回复来自 finalsatan
    4
    xiaohupro Ollama 运行 Llama2 大模型,怎么友好的支持中文
    Local LLM  •  xiaohupro  •  2024 年 7 月 23 日  •  最后回复来自 kangfenmao
    13
    hqwuzhaoyi 为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama
  •  1   
    分享创造  •  hqwuzhaoyi  •  2024 年 3 月 16 日  •  最后回复来自 barryzhai
    5
    keepRun 推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便
    Local LLM  •  keepRun  •  2024 年 7 月 18 日  •  最后回复来自 kangfenmao
    24
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   888 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 77ms · UTC 19:45 · PVG 03:45 · LAX 12:45 · JFK 15:45
    ♥ Do have faith in what you're doing.