我3090显卡 双e52666洋垃圾 128g内存 ollama搭建了qwen3.5 27b,小龙虾本地用,回答一个“介绍一下你自己”,用了大概6分多钟。
minimax 最便宜套餐,29 一个月。够用了的。
比本地搞强了 n 个次方。虽然比不上 opus 这些,但龙虾完全足够
小参数模型+一个龙虾服务,跑肯定可以跑
豆包不够你用嘛
从带宽焦虑变成了token焦虑
不过确实好用
本地ai跟傻子一样能用吗,基本上同配置吧,不过内存是64。 早就放弃本地的弱智ai了。
本地AI=弱智,不要自己气自己
智谱有免费模型,就是很蠢
