「SlackにAIアシスタント入れたら便利そう」「しかもOSSなら無料で動かせるんじゃ...?」
そんな甘い考えで調べ始めた経験、ありませんか?
GitHub 100k+スターのプロジェクトを見つけてしまいました。Peter Steinberger氏(PSPDFKit創業者)が開発したOSS、OpenClaw。
「これは触らないわけにはいかない」
えんじにあだもの。
みつを
OpenClawとは
SlackやDiscordなど複数のメッセージングプラットフォームに対応したAIアシスタントフレームワークです。
名前の変遷
ちなみにこのプロジェクト、名前が何度か変わっています。
- Clawdbot - 最初の名前
- Moltbot - Anthropicから商標に関する要請があり改名(2026年1月下旬)
- OpenClaw - 現在の名前
(Claudeっぽい名前つけたら怒られた、というオチです)
魅力は「Skills」
OpenClawの最大の魅力はSkillsで機能を拡張できること。自分で作ったSkillsという資産を活用できる。これがあるから導入する価値がある。
...という前提で話を進めます。
最初の野望:Local LLMで完全無料運用
「セルフホストできるんだから、Local LLMで完全無料運用だ!」
意気揚々と試行錯誤開始。
使用機材
- M3 Pro MacBook Pro(メモリ18GB)
試したモデル
- Ollama + Llama 3.2
- Qwen 2.5
- その他いくつか
結論から言うと
全部ダメでした。
(ここで一番時間を溶かしました。コーヒー何杯淹れたか覚えてない)
Local LLMでハマった2つのポイント
1. 日本語がおかしい
返答の日本語が不自然。業務で使うには厳しいレベル。
「お手伝いすることができますか?何かお手伝いします!」
(日本語として通じるけど、社内で使うのはちょっと...)
2. 遅すぎてタイムアウト
| プロンプト | 応答時間 |
|---|---|
| 「こんにちは」 | 数十秒 |
| 「今日の天気教えて」 | タイムアウト |
| Skill呼び出し | もちろんタイムアウト |
M3 Pro 18GBでもメインPCで色々処理走ってたから足りなかったのかも。でも開発マシンって普通そうですよね。
散々待たされた挙げ句タイムアウト。コーヒーを淹れに行って、戻ってきて、飲み終わってもまだ待ってる。Skillsがまともに動かないなら、ただのチャットボット。導入する意味がない。
現実路線:Gemini 3ハイブリッド構成
Local LLMを諦め、クラウドAPIへ切り替え。
なぜGemini 3?
普段はClaude使ってるので、せっかくだからGemini試してみようかなと。
| 比較ポイント | Gemini 3 Flash | Gemini 3 Pro |
|---|---|---|
| コスト | 安い | やや高め |
| ツール呼び出し精度 | ○ | ◎ |
| 応答速度 | ◎ | ○ |
Flash + Proのハイブリッド構成
単純な質問はFlash、複雑なタスクはProに振り分ける構成に。
選定理由:
- コスト効率: Flashモデルは応答が速く、トークン単価も抑えめ
- Skillsが動く: 動く!動くぞ!!
- 日本語性能: 業務で使うなら自然さは譲れない
導入時につまずいたポイント
実際に運用してみて遭遇した問題をまとめます。
1. allowlist方式は必須
OpenClawはデフォルトで全チャンネルに応答しようとします。これはまずい。
- 機密チャンネルへの誤応答防止: 経営会議チャンネルでAIが勝手に発言したら...
- APIコスト管理: 全チャンネル監視はトークン消費が激しい
allowlist方式で「このチャンネルだけ応答」に制限するのが現実的です。
2. スレッドの挙動が不安定
OpenClawのSlack連携、スレッド周りで挙動が怪しいことがあります。
- DMでスレッド化しようとしても無視される(Issue #2411)
- 連続でメッセージを送ると、返信がスレッドから外れてメインチャンネルに出る(Issue #4424)
「あれ、なんでここに返信来たの?」という現象、Issue見たら同じこと言ってる人がいました。
3. AIの自律性ゆえの不安定さ
OpenClawはAIが自律的に判断するフレームワーク。ほとんどの場合は賢く動いてくれますが、たまに:
- プロンプトを誤解釈する
- タスク途中で止まる
- 同じ処理をループする
致命的ではないけど、「AIだな〜」という場面は時々あります。
Skillsの精度がすべて
OpenClawの価値はSkillsで機能を拡張できること。
- カレンダー連携
- Jira/GitHub Issue作成
- ドキュメント検索
- 定型作業の自動化
これらが「ちゃんと呼び出される」かどうかが生命線。Local LLMでは散々待たされた挙げ句タイムアウトで、Skillsがまともに動かなかった。これが諦めた最大の理由です。
実験結果まとめ
| 構成 | Skillsが動く | 日本語 | 速度 | コスト |
|---|---|---|---|---|
| Local LLM (M3 Pro) | ✗ | △ | ✗ | ◎ |
| Gemini 3 Flash | ○ | ○ | ◎ | ○ |
| Gemini 3 Pro | ◎ | ◎ | ○ | △ |
| Flash + Pro ハイブリッド | ◎ | ◎ | ○ | ○ |
今回の学び
- Local LLMの限界: M3 Pro 18GBでは、Skillsを使うAIアシスタントは厳しい
- Skillsの重要性: ツールが動かないなら導入する意味がない
- ハイブリッド構成: コストと品質のバランスはFlash + Proで取れる
- Slack連携の癖: allowlistとスレッド周りは要注意
おわりに
「完全無料でLocal LLMで動かすぞ!」という野望は砕けましたが、現実的な構成に落ち着きました。
Gemini 3のAPI料金は、Local LLMのタイムアウト待ちで失った週末に比べれば安いもの。(あの土日、返して)
SlackにAIアシスタントを導入してみたい方の参考になれば幸いです。



