本文智能体基于Rokid AI Glasses和灵珠AI平台开发,开发指南:https://forum.rokid.com/index

前言

作为 Rokid AI 眼镜的深度体验者,我一直期待能打造一个真正融入生活的专属智能体。近期在灵珠平台搭建「识花小镜」的过程中,我不仅完成了 AR 眼镜端的功能实测,更亲手解锁了 “拍照识花 + 植物科普” 的全新玩法 —— 从 0 到 1 打造智能体的体验,远比使用现成应用更有成就感,也让 Rokid 眼镜成为了我探索自然的 “随身百科”。

一、智能体介绍:识花小镜

「识花小镜」是专为 Rokid AI 眼镜打造的植物识别与科普智能体,依托灵珠平台多模态能力,实现第一视角拍照识花、植物信息讲解、生长习性科普、科属特征介绍等功能。全程语音操控、无需动手、不用低头,让用户以最自然的方式,认识身边每一株植物。

核心能力:

  • 语音触发,眼镜自动拍照识别

  • 精准识别花草、绿植、常见野生植物

  • 输出植物名称、科属、花期、分布、习性等权威信息

  • 口语化科普播报,适配 AR 眼镜使用场景

  • 严格约束大模型,不编造、不乱讲,保证知识准确

二、需求场景:为什么我要做 “识花小镜”

日常生活里,很多人都有过这样的瞬间:

  • 在公园、小区看到好看的花,想知道名字,却懒得掏手机

  • 带孩子认识自然,想讲解植物知识,却不知道怎么说

  • 喜欢养花种草,希望快速了解植物习性、养护要点

  • 户外散步时,对身边植物充满好奇,却无处快速获取答案

传统方式需要解锁、打开 App、对焦、等待识别,步骤繁琐、体验割裂。而 Rokid AI 眼镜 + 识花小镜,一句话就能完成整个流程,让知识随手可得,让探索更轻松。

三、使用体验:一句话,认识整个植物世界

戴上 Rokid AI 眼镜,只需一句简单指令:

“帮我拍张照,看看这是什么花。”

眼镜自动启动拍摄,快速完成识别,随后温柔播报:

植物名称、科属、花期、生长环境、简单科普……

全程解放双手,眼前是风景,耳边是知识,体验流畅自然。

无论是路边的野花、小区的绿化植物,还是家里的盆栽,「识花小镜」都能快速识别并给出专业、简洁的讲解,让每一次出行都充满探索乐趣。

四、开发历程:从 0 到 1 的搭建,与大模型 “较真” 的日子

打造「识花小镜」的过程,是一次充满挑战也充满收获的创作之旅,每一步都藏着用心打磨的细节。

1. 智能体人设与功能打磨

首先确定了「识花小镜」的核心定位 ——植物科普助手,而非基础识花工具。因此在灵珠平台配置时,重点强化了科普属性:

  • 开场白设计为 “(举起小小的放大镜,亮晶晶地看着你)哈喽~我是识花小镜!对准花草拍一张,我帮你揭秘它的身份、生长习性,还有植物小百科哦~”,快速传递核心功能;

  • 预置问题围绕 “植物识别”“生长习性”“科属区分”“冷知识” 设计,引导用户探索深度科普内容,强化专业科普属性。

更让我有成就感的是,这套识花功能完全是自己在灵珠平台一步步搭建的。从「识花小镜」的人设设定、系统提示词优化,到插件适配,再到反复用 AR 眼镜真机测试、调试细节,直到所有功能流畅运行,每一步都充满了乐趣与收获。

那种 “我亲手创造了一个有用的 AI 助手” 的成就感,远比直接用一个现成 App 要强得多。

2. 开发步骤(零代码)

1,创建智能体

2,编辑智能体

3,人设设定

4,添加插件

5,预览及调试

五、开发过程:我如何解决 “大模型瞎编” 的问题

在开发「识花小镜」时,我遇到了所有植物类智能体最核心的难题:

大模型容易编造植物名称、科属、习性等信息。

为了保证科普真实可靠,我做了三层优化:

  1. 严格提示词约束

    在系统提示中明确规定:只输出真实可验证的植物信息,不确定则说明无法识别,绝不编造内容。

  2. 视觉识别优先,大模型只做整理

    先通过灵珠视觉插件识别植物特征与匹配结果,再由大模型做口语化整理,从源头避免错误。

  3. 真机反复验证校准

    使用 Rokid 眼镜实拍数十种常见植物,逐一核对百科信息,不断优化识别与播报逻辑。

最终,「识花小镜」实现了高准确率、低误报、无编造的稳定体验。

六、小结:科技让我们重新看见世界

通过 Rokid AI 眼镜与灵珠平台,我不仅搭建了一个实用的智能体,更重新定义了自己与自然的连接方式。

从前视而不见的花草,如今都有了名字与故事;

从前繁琐的识花过程,如今只需一句话。

「识花小镜」让科技不再冰冷,让知识触手可及,也让 AR 眼镜真正成为生活的一部分。未来,我会继续优化它的植物库、科普内容,让更多人通过 Rokid,轻松探索身边的自然世界。

Logo

一站式 AI 云服务平台

更多推荐