kiwix 发表于 2026-3-10 12:07:24

买个minimax coding plan 最便宜的套餐,一个月不到30块:lol

floe 发表于 2026-3-10 12:15:25

Musk 发表于 2026-3-10 10:46
内存,存贮,显卡都有一定的要求

32g + 4060能跑起来不

职业菜鸟 发表于 2026-3-10 13:05:32

youshao 发表于 2026-3-10 10:45
据说一个月要烧1-2K,所以看看本地模型是否靠谱,也不干什么特别重要的东西么。 ...

昨天还在群里问同事了。他说一次 0.25刀。 我是玩不起。

MukaichiMion 发表于 2026-3-10 16:13:58

装一个ollama 本地跑模型一般都用这个 接入openclaw官方文档很完善 16G显存可以跑Qwen3.5 9B 上月刚发布的目前最强的小模型

rqp 发表于 2026-3-10 16:17:10

:o

louiejordan 发表于 2026-3-10 16:18:25

你这个本地配置连给龙虾提鞋都不配yc008t

520520 发表于 2026-3-10 18:10:21

:o这么烧钱

mfch666 发表于 2026-3-10 18:56:28

智能诈骗

guyuefeng 发表于 2026-3-10 19:07:07

ollama 不过龙虾上下文需要64k,需要占用好几G的现存,所以能跑的模型就很小

scheme 发表于 2026-3-10 20:25:10

个人认为龙虾还得再进化下,否则token一般人玩不起,目前可以白票gpt给龙虾用。 自己搭建也挺耗电,玩玩可以。另外有错删文件,清空磁盘的风险,mjj需要注意
页: 1 [2] 3 4
查看完整版本: 龙虾怎么配本地模型跑