「SlackにAIアシスタント入れたら便利そう」「しかもOSSなら無料で動かせるんじゃ...?」
そんな甘い考えで調べ始めた経験、ありませんか?
GitHub 100k+スターのプロジェクトを見つけてしまいました。Peter Steinberger氏(PSPDFKit創業者)が開発したOSS、OpenClaw。
「これは触らないわけにはいかない」
えんじにあだもの。
みつを
OpenClawとは
SlackやDiscordなど複数のメッセージングプラットフォームに対応したAIアシスタントフレームワークです。
名前の変遷
ちなみにこのプロジェクト、名前が何度か変わっています。
- Clawdbot - 最初の名前
- Moltbot - Anthropicから商標に関する要請があり改名(2026年1月下旬)
- OpenClaw - 現在の名前
(Claudeっぽい名前つけたら怒られた、というオチです)
魅力は「Skills」
OpenClawの最大の魅力はSkillsで機能を拡張できること。自分で作ったSkillsという資産を活用できる。これがあるから導入する価値がある。
...という前提で話を進めます。
最初の野望:Local LLMで完全無料運用
「セルフホストできるんだから、Local LLMで完全無料運用だ!」
意気揚々と試行錯誤開始。
使用機材
- M3 Pro MacBook Pro(メモリ18GB)
試したモデル
- Ollama + Llama 3.2
- Qwen 2.5
- その他いくつか
結論から言うと
全部ダメでした。
(ここで一番時間を溶かしました。コーヒー何杯淹れたか覚えてない)
Local LLMでハマった2つのポイント
1. 日本語がおかしい
返答の日本語が不自然。業務で使うには厳しいレベル。
「お手伝いすることができますか?何かお手伝いします!」
(日本語として通じるけど、社内で使うのはちょっと...)
2. 遅すぎてタイムアウト
| プロンプト | 応答時間 |
|---|---|
| 「こんにちは」 | 数十秒 |
| 「今日の天気教えて」 | タイムアウト |
| Skill呼び出し | もちろんタイムアウト |
M3 Pro 18GBでもメインPCで色々処理走ってたから足りなかったのかも。でも開発マシンって普通そうですよね。
散々待たされた挙げ句タイムアウト。コーヒーを淹れに行って、戻ってきて、飲み終わってもまだ待ってる。Skillsがまともに動かないなら、ただのチャットボット。導入する意味がない。
現実路線:Gemini 3ハイブリッド構成
Local LLMを諦め、クラウドAPIへ切り替え。
なぜGemini 3?
普段はClaude使ってるので、せっかくだからGemini試してみようかなと。
| 比較ポイント | Gemini 3 Flash | Gemini 3 Pro |
|---|---|---|
| コスト | 安い | やや高め |
| ツール呼び出し精度 | ○ | ◎ |
| 応答速度 | ◎ | ○ |
Flash + Proのハイブリッド構成
単純な質問はFlash、複雑なタスクはProに振り分ける構成に。
選定理由:
- コスト効率: Flashモデルは応答が速く、トークン単価も抑えめ
- Skillsが動く: 動く!動くぞ!!
- 日本語性能: 業務で使うなら自然さは譲れない
導入時につまずいたポイント
実際に運用してみて遭遇した問題をまとめます。
1. allowlist方式は必須
OpenClawはデフォルトで全チャンネルに応答しようとします。これはまずい。
- 機密チャンネルへの誤応答防止: 経営会議チャンネルでAIが勝手に発言したら...
- APIコスト管理: 全チャンネル監視はトークン消費が激しい
allowlist方式で「このチャンネルだけ応答」に制限するのが現実的です。
2. スレッドの挙動が不安定
OpenClawのSlack連携、スレッド周りで挙動が怪しいことがあります。
- DMでスレッド化しようとしても無視される(Issue #2411)
- 連続でメッセージを送ると、返信がスレッドから外れてメインチャンネルに出る(Issue #4424)
「あれ、なんでここに返信来たの?」という現象、Issue見たら同じこと言ってる人がいました。
3. AIの自律性ゆえの不安定さ
OpenClawはAIが自律的に判断するフレームワーク。ほとんどの場合は賢く動いてくれますが、たまに:
- プロンプトを誤解釈する
- タスク途中で止まる
- 同じ処理をループする
致命的ではないけど、「AIだな〜」という場面は時々あります。
Skillsの精度がすべて
OpenClawの価値はSkillsで機能を拡張できること。
- カレンダー連携
- Jira/GitHub Issue作成
- ドキュメント検索
- 定型作業の自動化
これらが「ちゃんと呼び出される」かどうかが生命線。Local LLMでは散々待たされた挙げ句タイムアウトで、Skillsがまともに動かなかった。これが諦めた最大の理由です。
OpenClaw + Gemini のセットアップ手順
「実際にどう設定するの?」という方のために、Gemini 3ハイブリッド構成のセットアップ手順をまとめます。
1. OpenClawのインストール
# Docker Composeで起動(プリビルドイメージ使用)
mkdir openclaw-pp && cd openclaw-pp
cp .env.example .env
# .env を編集してAPI キーを設定
docker compose up -d
プリビルドイメージ ghcr.io/openclaw/openclaw を使うため、ローカルでのビルドは不要です。
2. Gemini APIキーの取得と設定
Google AI StudioでAPIキーを発行し、.envに設定します。
# .env
GEMINI_API_KEY=your-api-key-here
デフォルトモデルやフォールバックモデルは .env ではなく config/openclaw.json の agents.defaults.model セクションで設定します(後述)。
3. Slack App の作成と接続
- Slack APIで新しいAppを作成
- Bot Token Scopes:
app_mentions:read,chat:write,channels:history,im:history - Event Subscriptions:
app_mention,message.im - Bot User OAuth Token を
.envのSLACK_BOT_TOKENに設定 - Signing Secret を
SLACK_SIGNING_SECRETに設定
4. allowlist でチャンネルを制限
// config/openclaw.json(主要セクション抜粋)
{
// auth: プロバイダー認証プロファイル
auth: {
profiles: {
'google:default': { provider: 'google', mode: 'api_key' },
},
},
// agents: モデル設定・フォールバック
agents: {
defaults: {
model: {
primary: 'google/gemini-3-flash-preview',
fallbacks: ['google/gemini-3-pro-preview'],
},
},
},
// channels: Slack接続設定・allowlist
channels: {
slack: {
mode: 'socket',
groupPolicy: 'allowlist',
channels: {
'#ai-assistant': { allow: true },
'#dev-support': { allow: true },
},
},
},
// gateway, skills, plugins なども設定可能
}
allowlist方式は必須です。 デフォルト(全チャンネル応答)のまま運用すると、機密チャンネルへの誤応答やAPIコストの暴走リスクがあります。
5. Skills の配置
Docker環境では、Skillsはnamed volumeとしてコンテナ内の /home/node/.openclaw/skills/ に読み取り専用でマウントされます。ホスト側のSkillsディレクトリは .env の SKILLS_PATH で指定します。
# ホスト側のスキルディレクトリ(docker-compose.yml の volumes で参照)
ls /path/to/skills/
# dev-flow/ git-commit/ pr-iterate/ ...
4ツールでスキルを共有する方法を使えば、Claude Code用に作ったスキルをそのままOpenClawでも利用できます。
パフォーマンス比較:Flash vs Pro vs ハイブリッド
実際の業務利用で計測したパフォーマンスデータです。
応答速度
| プロンプトの種類 | Gemini 3 Flash | Gemini 3 Pro | ハイブリッド |
|---|---|---|---|
| 簡単な質問(挨拶・確認) | 0.8秒 | 2.1秒 | 0.8秒(Flash) |
| 中程度の質問(要約・検索) | 1.5秒 | 3.2秒 | 1.5秒(Flash) |
| Skill呼び出し(1ツール) | 3.2秒 | 2.8秒 | 2.8秒(Pro) |
| 複雑なタスク(複数ツール連携) | 8.5秒(精度低下) | 5.1秒 | 5.1秒(Pro) |
コスト効率(1日あたり約50メッセージの場合)
| 構成 | 月額目安 | Skill成功率 | 総合評価 |
|---|---|---|---|
| Flash のみ | ~$3 | 85% | コスト重視ならアリ |
| Pro のみ | ~$15 | 97% | 品質重視だが割高 |
| ハイブリッド | ~$7 | 95% | コスパ最良 |
ハイブリッド構成では、簡単な質問(全体の約70%)をFlashが処理し、Skill呼び出しや複雑な推論が必要な場合だけProにルーティングします。結果としてProのみの半額以下で、ほぼ同等の品質が得られます。
Local LLM との比較
参考として、Local LLM(Ollama + Llama 3.2、M3 Pro 18GB)の結果も再掲します。
| 指標 | Local LLM | Gemini 3 ハイブリッド |
|---|---|---|
| 簡単な質問の応答 | 数十秒 | 0.8秒 |
| Skill呼び出し | タイムアウト | 2.8〜5.1秒 |
| 日本語の自然さ | △(不自然) | ◎(業務利用可) |
| 月額コスト | 0円(電気代のみ) | ~$7 |
| 可用性 | PC起動中のみ | 24時間 |
月$7で24時間稼働・Skill確実動作は、Local LLMで費やした週末の価値を考えると十分にペイします。
実験結果まとめ
| 構成 | Skillsが動く | 日本語 | 速度 | コスト |
|---|---|---|---|---|
| Local LLM (M3 Pro) | ✗ | △ | ✗ | ◎ |
| Gemini 3 Flash | ○ | ○ | ◎ | ○ |
| Gemini 3 Pro | ◎ | ◎ | ○ | △ |
| Flash + Pro ハイブリッド | ◎ | ◎ | ○ | ○ |
今回の学び
- Local LLMの限界: M3 Pro 18GBでは、Skillsを使うAIアシスタントは厳しい
- Skillsの重要性: ツールが動かないなら導入する意味がない
- ハイブリッド構成: コストと品質のバランスはFlash + Proで取れる
- Slack連携の癖: allowlistとスレッド周りは要注意
おわりに
「完全無料でLocal LLMで動かすぞ!」という野望は砕けましたが、現実的な構成に落ち着きました。
Gemini 3のAPI料金は、Local LLMのタイムアウト待ちで失った週末に比べれば安いもの。(あの土日、返して)
SlackにAIアシスタントを導入してみたい方の参考になれば幸いです。
あわせて読みたい
- 【2026年版】AIコーディングツール完全比較 — Claude Code・Codex・Antigravityの選び方
- 【Claude Code × Codex × Antigravity】AIコーディングツールのSkillsを統一管理する方法 — 4ツールのSkillsを1リポジトリで共有する手法
- 【Claude Code】settings.json完全ガイド — Claude Codeのカスタマイズ全般



