本文介绍如何利用开源项目OpenClaw(龙虾)与本地部署的Qwen3.5-35B大模型,搭建低成本AI数字员工工作室。方案核心包括使用P40矿卡(约0.8k)部署35B模型、通过自然语言指令实现自动化(如客流分析、社媒运营、无人直播),无需编写代码,适合寻求自动化运营与跨境内容变现的数字游民及小型工作室。
Tags:
数字员工
在openclaw(龙虾)出现之前,只能用代码/N8N进行RPA自动化,中间的节点,用AI润色
但是现在,只需要在chatbot (聊天机器人),对它用大白话说出要求,就可以实现全部功能了
比如
• 分析摄像头流,当有人/车进入画面,进行通知+响铃,并进行门店客流统计,打印报告 • 浏览器打开 nomadro.com(出海导航),分析该网站收录了哪些信息,有什么价值• 安卓手机打开X/小红书,自动浏览,并分析画面的内容进行数据分析,对特定主题自动点赞/评论
一行代码都不需要写,直接得到结果
24小时打工
用GPT进行对话是实时的,它不会在多少小时后给你汇报,但是龙虾可以
它可以在睡觉的时候,继续工作
并且每个龙虾,可以设定专业的角色分工,比如:客服/程序员/设计师/会计等
它只是把网络/电力/算力,变成了AI货币:token
可以做员工经营业务,也可以直接对外出售变现
与雇佣真实的人类比较,它很便宜,且长久
硬件
开源项目openclaw和大模型对mac芯片/系统做了适配和优化
所以很多人选择mac mini作为家庭服务器
它静音/省电,能私有化部署,不必担心天价的token账单和隐私风险
但本文以
显卡GPU为例
前些年配置了RTX4060TI 16gb和RTX3060TI 12gb,都是NVIDIA,CUDA对AI大模型支持友好
游戏笔记本也含有8gb的显存
为了单独配置小龙虾,在海鲜市场,又淘了 RTX3060 12gb,以及 P40 24gb(矿卡)
P40 24gb 矿卡
目前市场价0.8k左右,24gb的显存,不用担心服务宕机,效果与RTX 3060 其实差不多,目前在ubuntu server运行Qwen3.5-35B-A3B模型,35B占比22gb显存,多模态(图片识别)占用2gb,刚刚好=24gb
实际速度,30token/s
另外:9B与35B对比,前者是玩具,不足以胜任数字员工的标准
P40配置如下
部署
大模型选择qwen3.5
只需要在小黄脸(huggingface)下载GGUF模型文件,:
用llama.cpp运行如下命令
llama-server -m Qwen3.5-35B-A3B-Q4_K_M.gguf --mmproj mmproj-BF16.gguf -ngl 40 --threads 12 --host 0.0.0.0 --port 8007 -c 32768 --verbose --no-mmap --image-min-tokens 1024 -b 256 -ub 128 -np 1 --main-gpu 0 --reasoning_format none网盘下载地址,可以后台私信: qwen,获取网盘地址
然后就有了是部署在本地的qwen3.5-35B-A3B模型的webui界面
小龙虾openclaw部署,也只需要一行命令
curl -fsSL https://openclaw.ai/install.sh | bashopenclaw的web管理面板
对话,配置telegram
要求获取服务器的配置和信息
openclaw交流,可以后台私信:加群
最后
龙虾openclaw用AI控制你的手机/电脑/电器设备
具体到浏览器网页/app,以及更底层的控制协议http/adb等等
在不断地迭代升级中,确实能成为一名优秀的数字员工
它现在并不是玩具,是未来
数字游民:低成本工作室:云手机,无人直播tiktok/youtube,赚美金
如果给你带来启发,记得公众号一键三连: 关注/点赞/推荐
没有评论:
发表评论