Rokid Glasses AR+AI 眼镜升级:搭载多款 AI 大模型,支持手动配置
GoodNav 3 月 10 日报道,Rokid Glasses AR 眼镜在去年 11 月正式发布,其搭载了阿里通义 AI,定价为 2499 元。
今日,Rokid 宣布在当前 AI 大模型快速发展的背景下,仅使用一个 AI 大模型显然无法满足用户需求,因此 Rokid Glasses 进行了新的升级。
目前,除了通义千问,Rokid Glasses 还集成了多个大模型,如 DeepSeek、豆包、智谱清言、纳米搜索等。它将这些大模型进行分类管理,包括基础模型、视觉模型、搜索模型等。
基础大模型负责整体的 AI 能力,包括对话、问答以及产品功能调用;视觉大模型专注于处理视觉信息,例如物体识别等;信息大模型则用于搜索并整合最新的信息以解答用户的问题。以下是分类图:
每种模型都有特定的优势。Rokid Glasses 会根据不同场景将用户请求智能分发给合适的模型进行处理。例如,通义千问的风格偏向严谨客观,表现为专业的助理形象,而豆包则更为轻松俏皮,如同一个好朋友,用户可以在应用端选择自己喜爱的模型。
此外,Rokid Glasses 还允许用户自定义配置个人的私有模型,用户可以通过 OpenAI 标准 API 调用自己的私有大模型,以满足科研和专业领域的多样需求。
多个大模型的协同工作意味着 Rokid Glasses 拥有较高的 AI 扩展性,能够根据用户的场景和需求灵活配置不同的大模型,这也对系统的信息分发逻辑和意图分发算法提出了更高的要求。
在实际应用中,眼镜接收到的信息种类繁多且复杂,如何确保快速而准确地解读这些信息并给出反馈是研发团队需要攻克的首要课题。通常,智能眼镜会将获取的信息全部发送至云端大模型,由其进行判断;然而在这种模式下,大模型往往需要更多时间来识别和回应,导致用户体验不佳,响应时间较长。
而 Rokid 则在端侧集成了自研的意图分类模型,能够在 2 毫秒内完成对意图的分类,并将请求分配给合适的模型。