有没有openclaw用户,咨询一下
本帖最后由 三天八百万 于 2026-3-6 11:31 编辑本地模型的效果怎么样?如果需要购买大模型服务的话买哪家好?
如何通过手机进行远程指挥? 本帖最后由 流缨 于 2026-3-6 17:08 编辑
本地都不行,不要考虑了,你面对的是超复杂的需求和网络情况,agent能力足够的本地都跑不起来
首选gemini或者opus,要低成本minimax或者豆包的plan
openclaw给了十多种CHANNEL,如果你主用无梯环境就选钉钉或者飞书,有梯就TG/discord 本地不建议考虑。
国内的话,minimax之类有专供小龙虾的plan。
国内可以用飞书、微博等等平台做终端操作。 俩V100搞个够跑吗 刚试用了几天,经验不一定对。
本地大模型能用,但速度堪忧。特别需要注意这玩意用掉的上下文非常多,打个“你好”都要用掉10k tokens,所以如果模型卡的比较死就容易爆显存,不爆显存也要预读半天才开始工作。我后来换成picoclaw感觉好一些。
然后现在我用的服务是坛友提过的联通元景,一个月30块不限量的GLM-5
手机控制就是配置agent的频道,最通用的是电报,也有支持钉钉、企业微信的。我现在是电报和钉钉都在用。 问个蠢问题,coding plan适合日常对话和本地操作(例如office文档)吗 流缨 发表于 2026-3-6 17:07
本地都不行,不要考虑了,你面对的是超复杂的需求和网络情况,agent能力足够的本地都跑不起来
首选gemini或 ...
通常一个月耗掉token多少钱
—— 来自 HUAWEI ALT-AL10, Android 12, 鹅球 v3.5.99 本帖最后由 Saikou 于 2026-3-6 09:52 编辑
国内模型主要问题是用的人一多就慢的一笔接近不能用了
openclaw方便是方便,但这玩意做出去的事就像泼出去的水,回不来了。拿来办公之类的是自己给自己找麻烦
搭车问下,用它整理分类大量的书籍,图片,漫画压缩包耗费的token会不会很多?
—— 来自 Xiaomi 2410DPN6CC, Android 16, 鹅球 v3.5.99 先30买个联通元景glm-5体验下呗 就是慢点 我刚买5天 玩的还挺开心 魔法师lain 发表于 2026-3-6 23:01
通常一个月耗掉token多少钱
—— 来自 HUAWEI ALT-AL10, Android 12, 鹅球 v3.5.99
plan不是高强度搞代码根本用不完的,别看上下文多,但plan有刷新机制,基本在你过了初期高强度配置环境技能之后就很难每个5小时都用完了
建议火山搞个9.9的试一个月 aleko 发表于 2026-3-7 06:27
搭车问下,用它整理分类大量的书籍,图片,漫画压缩包耗费的token会不会很多?
—— 来自 Xiaomi 2410DPN6 ...
其实很少,因为你这个需求实际上就是打印文件列表然后写处理脚本
但非常不建议在未备份数据上让他这么搞,最好写完脚本后自己review,如果没有脚本编写经验可以把脚本交给其他AI解释一遍 三天八百万 发表于 2026-3-6 21:57
问个蠢问题,coding plan适合日常对话和本地操作(例如office文档)吗
适合的,比如火山的plan支持调用多个模型,你完全可以指定openclaw的多个agent调用不同的模型担任不同的任务
但office文档未必有你想象中好用,纯excel数据清洗问题不大,word和PPT都只能说有而不是能用,最好让他生产markdown文档再转换 流缨 发表于 2026-3-6 17:07
本地都不行,不要考虑了,你面对的是超复杂的需求和网络情况,agent能力足够的本地都跑不起来
首选gemini或 ...
qwen 3.5 27b也不行吗,总觉得有些操作一直连着网络做不了,例如一些要切换梯子的
—— 来自 HUAWEI ALT-AL10, Android 12, 鹅球 v3.5.99 本帖最后由 流缨 于 2026-3-7 19:10 编辑
魔法师lain 发表于 2026-3-7 17:56
qwen 3.5 27b也不行吗,总觉得有些操作一直连着网络做不了,例如一些要切换梯子的
—— 来自 HUAWEI ALT ...
小模型做agent基本是能干起来,但是质量和速度都不能让人满意,不少操作真是教不会,折腾半天浪费时间太难受了
切换网络环境的操作可以不要让他执行,只写脚本,review之后再让他只做执行,这样能保持一致性,不然每次都不一样的操作不知道啥时候就崩了 不考虑价格的话, minimax, GLM, Kimi 这三家的plan哪个好?
话说阿里云的这个怎么样
如果只跑openclaw的gateway,那么用服务器或者自己的电脑没啥区别。
部署gateway之后,可以在电脑、手机上安装app作为node提供一些功能,比如在mac上安装openclaw的app(不是gateway),就可以用小龙虾控制mac进行一些操作,比如录音、拍照、用applescript和日历交互之类的。
国内交互其实比较推荐用qq,比较常用不会错过通知,https://q.qq.com/qqbot/openclaw/
飞书的生态也还可以,但是飞书个人版我想一般人都不会用吧,要是用公司的飞书,申请机器人权限还要审批挺麻烦的。 全世界失恋 发表于 2026-3-8 08:01
用云端的好点还是自己部署一个本地版本,我看腾讯炒的挺火的
—— 来自 vivo V2405A, Android 15, 鹅球 v3 ...
我昨天在nas上用docker部署了个,不算麻烦。b站找个视频就行了。
腾讯那个还得要钱,而且要是整理本地的漫画什么的不还得传上去,腾讯云硬盘空间不大。 张元英 发表于 2026-3-7 21:12
不考虑价格的话, minimax, GLM, Kimi 这三家的plan哪个好?
GLM 限购. 你现在买不到. kimi 不支持切换模型. 只有选minimax 张元英 发表于 2026-3-7 21:12
不考虑价格的话, minimax, GLM, Kimi 这三家的plan哪个好?
建议买个第三方的plan,这几家的模型都能用。就是不知道后台量化了多少 两天干出去140M的token 用在线的
尽量用订阅plan不要用算token的
我自己是用gemini,纯薅羊毛
可以link的channel很多,我自己wts,tel,discord都用过
目前体感最好就是tel elwingh 发表于 2026-3-7 10:17
先30买个联通元景glm-5体验下呗 就是慢点 我刚买5天 玩的还挺开心
联通的glm太敏感了,似乎有对输入的prompt额外做了**过滤,对话时经常爆400空回 Freewolf 发表于 2026-3-10 01:08
联通的glm太敏感了,似乎有对输入的prompt额外做了**过滤,对话时经常爆400空回 ...
对 所以我让OpenClaw自己监控 发现可能会400报错的任务就自行分步骤执行 再就是太慢了 反正也就一个月 当熟悉怎么玩小龙虾后面再换其他平台 本地的你要选对模型,肯定比不上云算力,但是本地能消融,就是消融会降智,这几天我发现消融降的智能用opus补点。
qwen3.5 35BA3B 消融之后像个弱智,不追求极致速度的话还是跑27B,速度大概是A3B 130t/s vs 27B 45t/s
综合推荐qwen3.5 27B opus heretic 我是用的硅基流动,试完送的16又充了50,感觉自己也没啥需求,剩了十几块钱放那了。 yjmy705 发表于 2026-3-10 11:01
本地的你要选对模型,肯定比不上云算力,但是本地能消融,就是消融会降智,这几天我发现消融降的智能用opus ...
什么设备?
—— 来自 Xiaomi 2304FPN6DC, Android 13, 鹅球 v3.5.99-alpha 雪影 发表于 2026-3-10 12:06
什么设备?
—— 来自 Xiaomi 2304FPN6DC, Android 13, 鹅球 v3.5.99-alpha
显卡是5090d 几天折腾玩下来,个人模型体验 gpt-5.4(gpt-5.3-codex)≥gemini-3.1≥minimax-m2.5≥联通glm5,其他没体验过不好评价。另外openclaw支持GitHub的copilot,有github学生认证的可以白嫖copilot pro用gpt和Gemini的最新模型 本帖最后由 WiiGe 于 2026-3-12 02:50 编辑
yjmy705 发表于 2026-3-10 11:01
本地的你要选对模型,肯定比不上云算力,但是本地能消融,就是消融会降智,这几天我发现消融降的智能用opus ...
我vllm只能启一个9B的qwen3.5带mm,不过单卡5090可以起256K模型长度,配上MemOS还挺堪用的,搞下来TOTP 300ms内,生成90 TPS+
你35B是sglang启动的吗?vllm根本盘不动这个非量化的 本地利好DGX Spark WiiGe 发表于 2026-3-12 02:49
我vllm只能启一个9B的qwen3.5带mm,不过单卡5090可以起256K模型长度,配上MemOS还挺堪用的,搞下来TOTP 3 ...
用的lmstudio,肯定跑量化的q4,上下文80k左右吧 借楼,问一下频率使用不高的情况现在哪一家的plan比较划算?联通的glm5已经无了 Re:Source 本帖最后由 dodolee 于 2026-3-12 10:12 编辑
魔法师lain 发表于 2026-3-7 17:56
qwen 3.5 27b也不行吗,总觉得有些操作一直连着网络做不了,例如一些要切换梯子的
—— 来自 HUAWEI ALT ...
我用DGX Saprk部署的Qwen3.5 122B int4也不是很行,打算过两个月再搞一台组集群试试Qwen3.5 397B……
哪个模型好用可以看看这个:https://pinchbench.com/ 本帖最后由 这次是十块钱 于 2026-3-12 11:19 编辑
亚瑟摩根 发表于 2026-3-9 12:59
用在线的
尽量用订阅plan不要用算token的
gemini 指的是每个月10美元赠额吗,感觉10刀不够用啊 这次是十块钱 发表于 2026-3-12 11:16
gemini 指的是每个月10美元赠额吗,感觉10刀不够用啊
`````我的那个是反代gemini的白嫖 ,如果10刀订阅可以找github copilot,里面各种大模型都有,GPT5.4 和 opus4.6随便用,第一个月还可以白嫖。 drx66 发表于 2026-3-7 23:18
话说阿里云的这个怎么样
四十块这个我让做点自动化脚本,五天给我烧完了。 dodolee 发表于 2026-3-12 10:10
我用DGX Saprk部署的Qwen3.5 122B int4也不是很行,打算过两个月再搞一台组集群试试Qwen3.5 397B……
哪 ...
富哥富哥, 试过洋垃圾DGX-1没有? V100 32G SXM2 *6不到25K的价格搞得我硬了起来, 想测一下nvfp4 的397B
页:
[1]
2
