ブログ一覧に戻る

SlackにAIアシスタントを導入した話 - Local LLMの限界からGemini 3ハイブリッド構成まで

GitHub 100k+スターのOpenClawをSlackに導入。Local LLMで完全無料運用を目指すも断念し、Gemini 3ハイブリッド構成で実用化するまでの試行錯誤。

10分で読める
SlackにAIアシスタントを導入した話 - Local LLMの限界からGemini 3ハイブリッド構成まで

「SlackにAIアシスタント入れたら便利そう」「しかもOSSなら無料で動かせるんじゃ...?」

そんな甘い考えで調べ始めた経験、ありませんか?

GitHub 100k+スターのプロジェクトを見つけてしまいました。Peter Steinberger氏(PSPDFKit創業者)が開発したOSS、OpenClaw。

「これは触らないわけにはいかない」

えんじにあだもの。

みつを

OpenClawとは

SlackやDiscordなど複数のメッセージングプラットフォームに対応したAIアシスタントフレームワークです。

名前の変遷

ちなみにこのプロジェクト、名前が何度か変わっています。

  1. Clawdbot - 最初の名前
  2. Moltbot - Anthropicから商標に関する要請があり改名(2026年1月下旬)
  3. OpenClaw - 現在の名前

(Claudeっぽい名前つけたら怒られた、というオチです)

魅力は「Skills」

OpenClawの最大の魅力はSkillsで機能を拡張できること。自分で作ったSkillsという資産を活用できる。これがあるから導入する価値がある。

...という前提で話を進めます。

最初の野望:Local LLMで完全無料運用

「セルフホストできるんだから、Local LLMで完全無料運用だ!」

意気揚々と試行錯誤開始。

使用機材

  • M3 Pro MacBook Pro(メモリ18GB)

試したモデル

  • Ollama + Llama 3.2
  • Qwen 2.5
  • その他いくつか

結論から言うと

全部ダメでした。

(ここで一番時間を溶かしました。コーヒー何杯淹れたか覚えてない)

Local LLMでハマった2つのポイント

1. 日本語がおかしい

返答の日本語が不自然。業務で使うには厳しいレベル。

「お手伝いすることができますか?何かお手伝いします!」

(日本語として通じるけど、社内で使うのはちょっと...)

2. 遅すぎてタイムアウト

プロンプト応答時間
「こんにちは」数十秒
「今日の天気教えて」タイムアウト
Skill呼び出しもちろんタイムアウト

M3 Pro 18GBでもメインPCで色々処理走ってたから足りなかったのかも。でも開発マシンって普通そうですよね。

散々待たされた挙げ句タイムアウト。コーヒーを淹れに行って、戻ってきて、飲み終わってもまだ待ってる。Skillsがまともに動かないなら、ただのチャットボット。導入する意味がない。

現実路線:Gemini 3ハイブリッド構成

Local LLMを諦め、クラウドAPIへ切り替え。

なぜGemini 3?

普段はClaude使ってるので、せっかくだからGemini試してみようかなと。

比較ポイントGemini 3 FlashGemini 3 Pro
コスト安いやや高め
ツール呼び出し精度
応答速度

Flash + Proのハイブリッド構成

単純な質問はFlash、複雑なタスクはProに振り分ける構成に。

読み込み中...図を読み込み中

選定理由:

  • コスト効率: Flashモデルは応答が速く、トークン単価も抑えめ
  • Skillsが動く: 動く!動くぞ!!
  • 日本語性能: 業務で使うなら自然さは譲れない

導入時につまずいたポイント

実際に運用してみて遭遇した問題をまとめます。

1. allowlist方式は必須

OpenClawはデフォルトで全チャンネルに応答しようとします。これはまずい。

  • 機密チャンネルへの誤応答防止: 経営会議チャンネルでAIが勝手に発言したら...
  • APIコスト管理: 全チャンネル監視はトークン消費が激しい

allowlist方式で「このチャンネルだけ応答」に制限するのが現実的です。

2. スレッドの挙動が不安定

OpenClawのSlack連携、スレッド周りで挙動が怪しいことがあります。

  • DMでスレッド化しようとしても無視される(Issue #2411
  • 連続でメッセージを送ると、返信がスレッドから外れてメインチャンネルに出る(Issue #4424

「あれ、なんでここに返信来たの?」という現象、Issue見たら同じこと言ってる人がいました。

3. AIの自律性ゆえの不安定さ

OpenClawはAIが自律的に判断するフレームワーク。ほとんどの場合は賢く動いてくれますが、たまに:

  • プロンプトを誤解釈する
  • タスク途中で止まる
  • 同じ処理をループする

致命的ではないけど、「AIだな〜」という場面は時々あります。

Skillsの精度がすべて

OpenClawの価値はSkillsで機能を拡張できること

  • カレンダー連携
  • Jira/GitHub Issue作成
  • ドキュメント検索
  • 定型作業の自動化

これらが「ちゃんと呼び出される」かどうかが生命線。Local LLMでは散々待たされた挙げ句タイムアウトで、Skillsがまともに動かなかった。これが諦めた最大の理由です。

実験結果まとめ

構成Skillsが動く日本語速度コスト
Local LLM (M3 Pro)
Gemini 3 Flash
Gemini 3 Pro
Flash + Pro ハイブリッド

今回の学び

  1. Local LLMの限界: M3 Pro 18GBでは、Skillsを使うAIアシスタントは厳しい
  2. Skillsの重要性: ツールが動かないなら導入する意味がない
  3. ハイブリッド構成: コストと品質のバランスはFlash + Proで取れる
  4. Slack連携の癖: allowlistとスレッド周りは要注意

おわりに

「完全無料でLocal LLMで動かすぞ!」という野望は砕けましたが、現実的な構成に落ち着きました。

Gemini 3のAPI料金は、Local LLMのタイムアウト待ちで失った週末に比べれば安いもの。(あの土日、返して)

SlackにAIアシスタントを導入してみたい方の参考になれば幸いです。

お問い合わせはこちら

実験に参加しませんか?

正解のない問いに、一緒に挑みましょう。まずはお気軽にご相談ください。