织梦CMS - 轻松建站从此开始!

欧博ABG官网-欧博官方网址-会员登入

欧博abg对接你的语音助手到本地Ollama或者Gemini 教程,让你的语音助手更聪明~ R

时间:2025-02-15 05:55来源: 作者:admin 点击: 0 次
大家好,欧博abg这里是 IT Commander。上期节目我给大家介绍了如何使用 Atom Echo 作为你的 Home Assistant 语音助手。 今天我们要给 Atom Echo“提高智商”啦!——让它可以对接到流行的 AI 大模型,这样它就能听懂更多的语义、回答更复杂的问题。 如果你还没


Home Assistant


大家好,欧博abg这里是 IT Commander。上期节目我给大家介绍了如何使用 Atom Echo 作为你的 Home Assistant 语音助手。

今天我们要给 Atom Echo“提高智商”啦!——让它可以对接到流行的 AI 大模型,这样它就能听懂更多的语义、回答更复杂的问题。
如果你还没有看过上一期关于 Atom Echo 的基础设置视频,可以先去补一下课,然后再回来看这期教程哦。

要想让 Home Assistant 的对话代理(Conversation Agent)接入各种 AI 能力,主要有两大思路:

本地完全脱离互联网运行开源对话模型(Ollama + Llama3.3)

通过互联网接入各大 AI 厂商提供的 API(例如 Google 的 Gemini)

我们来看下这两种方法各有优缺点:

本地运行 完全离线,数据不出家门,对注重隐私安全的朋友非常友好,缺点是对硬件性能有一定要求,要有一台新能足够流畅运行Llama3的计算机。

云端服务 不需要自己提供算力,但是有费用和隐私方面的风险。

我个人手里有一些AI厂商的免费账号,像 OpenAI、Claude、Gemini 都试了试。最后发现 OpenAIClaude 的 API 都需要付费才好用,而 Google Gemini 目前有免费配额可用。

所以,这期我们就演示如何使用 Ollama(本地)Gemini(云端) 这两种方案来接入 Home Assistant。

第一部分:本地方案 —— 安装 Ollama + Llama3.3

为什么选择 Ollama?

它可以运行开源的 Llama3.3 模型,并且提供一个简单易用的命令行界面。

数据完全在本地处理,不用担心聊天内容被云端服务器保存或分析。

所需环境/硬件:

一台性能尚可的电脑用来运行Ollama运行本地对话大模型。Ollama支持4种安装环境,Windows,欧博官网MacOS,Linux,还有Docker。

具体步骤:

下载 Ollama前往 Ollama 官方网站(此处可展示官网或 GitHub 页面),按照操作系统选择安装方式。

安装完成后,可以在终端里敲 ollama version 看看是否安装成功。

获取 Llama3.3 模型在 Ollama 中常用命令是 ollama pull llama3.3 这样的方式来下载模型。

等模型下载完毕,就能在本地进行推理计算了。

这里划重点,我们要给Ollama设置环境变量,让Ollama对外提供服务,否则Ollama只能在本机工作,你就无法从Home Assistant里远程调用。

配置 Home Assistant 对话代理打开 Home Assistant,进入 Settings(设置) → Devices & Services(设备与服务) 添加Ollama集成,填写你运行Ollama的设备IP地址(:11434)点击完成即可完成配置。

将 Atom Echo 与新的对话代理关联进入设置语音助手,选择默认语音助手,找到对话代理下拉选择刚才设置的Ollama。

这样一来,当你对着 Atom Echo 说话时,就会触发 Ollama 的 Llama3.3 模型进行本地推理,然后把结果再反馈给 Atom Echo。

测试效果给 Home Assistant 下个比较复杂的口令或让它回答一些稍微难度高的问题,观察一下 Ollama 的响应速度和答案质量。

如果回答速度过慢,可能是硬件性能不足或者模型太大,需要权衡一下性能和模型规模。

如果一切顺利,那么你就完成了本地 AI 对话功能的搭建啦!

第二部分:云端方案 —— 对接 Google Gemini API

如果你没有强劲的本地计算机,或者觉得下载、维护大模型太麻烦,那么可以考虑使用云端的 AI 服务。
本期示例我们就选择 Google Gemini,因为目前来看,它有免费配额(大家要随时关注官方政策更新)。

具体实现步骤:

获取 Gemini API 凭证

配置 Home Assistant同样,在 Home Assistant 的设置 -> 集成与服务 里找到Google Generative AI,点击添加,添加的过程中程序会提示让你输入API Key,把你刚才从https://aistudio.google.com/apikey 获取到的key复制进去点击确认即可完成。

关联 Atom Echo与前面 Ollama 类似,把 Atom Echo 的语音请求指向新的对话代理,后台会帮你完成识别语音、发送到 Gemini、获得回复的流程。只需要把语音助手的对话代理选为Google Generative AI,即可使用Gemini做为你的语音助手对话代理了。

测试使用场景问一些比较跳跃或者基于外部知识库的问题,比如“今天天气怎么样”“帮我写一段小故事”“说明一下某个科普知识”等。

留意一下响应速度和准确率,以及看看有没有跑出什么奇怪的回答。

优点:不用担心本地算力不足,随时可用;
缺点:免费额度可能有限,用完以后就得付费,而且对隐私比较敏感的朋友需要慎重。

结尾与总结

好啦,今天我们示范了 两种常见的 AI 对话集成方法

本地:Ollama + Llama3.3

云端:Google Gemini

在实际使用中,你可以根据自己的 设备配置对隐私的敏感程度、以及 预算 来决定用哪种方案。

如果追求零隐私泄露,并且家里有足够性能的服务器,可以首选本地方案。

如果你想尽可能简单,只需要轻度用用,或者你手上没有能跑大模型的机器,就可以选云端服务。

最后,如果你对 Home Assistant 的语音助手、对话代理还不熟悉,记得先去看上一期关于 Atom Echo 的配置教程,然后再来玩转 AI 集成哦!

Join @itcommander on Telegram

分享到:

赞过:

正在加载……

(责任编辑:)
------分隔线----------------------------
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:
发布者资料
查看详细资料 发送留言 加为好友 用户等级: 注册时间:2025-03-07 05:03 最后登录:2025-03-07 05:03
栏目列表
推荐内容