作为一名折腾过数十款智能家居产品的资深玩家,我一直在寻找真正能"理解"家庭场景的智能系统。直到去年11月小米开源的Miloco项目出现,才让我看到了智能家居从"被动响应"到"主动服务"的质变可能。
传统智能家居的局限性非常明显:需要精确的语音指令、预设的自动化规则,或者依赖简单的传感器触发。比如我书房的小米台灯,要么需要喊"小爱同学开灯",要么依赖人体传感器——但传感器无法区分我是来取书还是准备长时间工作,经常出现误判。而Miloco的核心突破在于:
举例来说,当Miloco通过摄像头发现我坐在书桌前打开笔记本电脑,它会自动:
Miloco采用微服务架构,主要包含三大核心组件:
| 组件 | 功能 | 技术实现 |
|---|---|---|
| 视觉处理引擎 | 实时分析摄像头画面,提取物体、动作、场景特征 | 基于小米自研MiMo-VL-7B模型 |
| 决策中枢 | 根据视觉输入生成设备控制策略 | DeepSeek-V3.2规划模型 |
| 设备网关 | 连接米家IoT设备并执行控制指令 | 小米IoT开放平台API |
根据硬件条件不同,Miloco提供两种部署方案:
云端方案(推荐给大多数用户)
本地方案(适合极空间Z425/T6用户)
实测建议:普通家庭使用云端方案完全足够,只有当需要处理多个摄像头或对隐私要求极高时,才考虑本地部署。
在开始部署前,请确保准备好以下要素:
硬件要求
账号服务
网络环境
通过极空间文件管理器建立以下目录树:
code复制/Docker
└── miloco
├── data # 用于存储临时分析数据
└── log # 存放运行日志
使用极空间自带的Compose功能,粘贴以下配置时需注意:
yaml复制services:
backend:
container_name: miloco-backend
image: ghcr.io/xiaomi/miloco-backend:latest
network_mode: host # 必须使用host网络模式
environment:
- BACKEND_PORT=8002 # 可修改为未被占用的端口
- AI_ENGINE_HOST=api.siliconflow.cn
- TZ=Asia/Shanghai # 时区设置
volumes:
- /path/to/miloco/data:/app/miloco_server/.temp
- /path/to/miloco/log:/app/miloco_server/.temp/log
restart: unless-stopped
关键参数说明:
network_mode: host:使容器能直接访问局域网设备在硅基流动控制台创建API Key时:
通过自然语言即可创建复杂规则,例如:
"当检测到老人独自在客厅站立超过30秒时,自动:
视觉提示词优化
在AI中心使用更精确的描述能提升识别准确率:
设备联动策略
异常检测配置
python复制# 伪代码示例:宠物异常行为检测
if camera.detect(object="cat", area="餐桌"):
notify.send("猫咪又上餐桌了!")
speaker.play("喵星人请下来~")
Q:容器启动后无法访问Web界面
cat /Docker/miloco/log/app.logQ:摄像头绑定失败
网络延迟优化
识别准确率提升
成本控制方案
经过两个月的实际使用,Miloco最令我惊喜的是它的学习能力——系统会逐渐记忆家庭成员的行为模式。比如现在当我晚上走进厨房,它会:
这种细腻的场景理解,正是传统智能家居无法实现的。虽然目前还存在一些限制(如对非米家设备支持有限),但作为开源项目,Miloco已经展现出颠覆智能家居体验的潜力。建议开发者可以重点关注:
对于想要体验未来智能家居的用户,现在通过极空间NAS+云端方案的组合,用最低成本就能搭建这套系统。我个人的体验感受是:一旦用过这种能真正理解需求的智能家居,就再也回不去"喊口令"的时代了。