チュートリアル:ローカルLLMで究極のプライバシースマートホーム
Llama 4とHome Assistantを統合して、家から出ない音声アシスタントを作る方法。
声をクラウドに送るのをやめましょう。 $300のミニPCとHome Assistantで、Alexaより賢く、Siriより速く、100%プライベートな音声アシスタントを構築できます。
なぜローカル?
- プライバシー: 誰も聞いていない。
- 速度: クラウドレイテンシなし。レスポンスはほぼ即座。
- 継続性: インターネットがダウンしても動作。
前提条件
- ハードウェア: 最低16GB RAMのミニPC(NUC、Beelink)。(Raspberry Pi 5は基本的なものにはOKですが、良いLLMには苦労)。
- ソフトウェア: Home Assistant OSがインストール済み。
- 音声ハードウェア: ESP32-S3 Box(または「Home Assistant Satellite」互換デバイス)。
ステップ1:「LocalAI」または「Ollama」アドオンをインストール
2026年は使いやすさからOllamaをお勧めします。
- Home Assistant設定 -> アドオンへ移動。
- 「Ollama」を検索してインストール。
- アドオンを起動し、ログで実行中であることを確認。
ステップ2:モデルをダウンロード
RAMに収まる「量子化」モデルが必要です。
- 推奨:
Llama-4-8b-instruct-q4。軽量ですが指示に従うのが非常に賢い。 - Ollama設定で、プルするモデルを
llama4に設定。
ステップ3:「Assist」パイプラインを設定
- 設定 -> 音声アシスタントへ移動。
- 新しいアシスタントパイプラインを作成。
- 会話エージェント: 「Ollama」を選択。
- 音声認識(STT): Faster-Whisperを使用(ローカルで実行)。
- テキスト読み上げ(TTS): Piperを使用(優れたニューラル音声、ローカルで実行)。
ステップ4:システムプロンプトエンジニアリング
これが秘訣です。LLMに家を制御することを伝える必要があります。 システムプロンプト:
あなたはJarvisという名前の便利なスマートホームアシスタントです。
音声で簡潔に答えます。
次のツールにアクセスできます:turn_on、turn_off、set_temperature。
現在の時刻は{{ now() }}です。
ステップ5:テスト
ESP32 Boxに話しかけます:「ライトを消して、リビングを22度に設定して。」 LLMはこれを2つのコマンドに解析し、Home AssistantのIntent APIで実行します。
トラブルシューティング
- レスポンスが遅い? モデルがRAMに対して大きすぎます。
Phi-4モデルまたは4ビット量子化を試してください。 - ハルシネーション? システムプロンプトで利用可能なデバイスを厳密にリストしていることを確認。
結果
スタートレックのようなコンピュータができました。家を制御し、複雑なコンテキストを理解し(「寝ます」 -> ドアをロック、ライトを消す、ブラインドを下げる)、ビッグテックと1バイトのデータも共有しません。