OpenClaw + AICU API
Custom Providerセットアップガイド
OpenClawはOSSのAIエージェントプラットフォームです。 AICU APIはOpenAI互換の/v1/chat/completionsエンドポイントを提供しており、 OpenClawのCustom Providerとしてそのまま利用できます。
1APIキーを取得(任意)
Dashboard → API KeysからAPIキーを発行できます。 キーはaicu_live_プレフィックスで始まります。 現在Alpha期間中はAPIキーなしでも利用可能です。
2openclaw configure で設定
対話式ウィザードでCustom Providerを追加します。
openclaw configure| 設定項目 | 値 |
|---|---|
| Select sections to configure | Model |
| Model/auth provider | Custom Provider |
| API Base URL | https://api.aicu.ai/v1 |
| API Key | 空欄(Alpha期間中)またはaicu_live_xxx |
| Endpoint compatibility | OpenAI-compatible |
| Model ID | groq-llama-3.3-70b(推奨) |
2'手動設定(代替)
~/.openclaw/openclaw.jsonを直接編集することもできます。
{
"providers": {
"custom-api-aicu-ai": {
"type": "openai",
"baseUrl": "https://api.aicu.ai/v1",
"apiKey": "",
"models": {
"deepseek-v3": {
"contextWindow": 65536,
"maxTokens": 65536
},
"groq-llama-3.3-70b": {
"contextWindow": 131072,
"maxTokens": 131072
}
}
}
}
}デフォルトモデルとして使う場合:
{
"defaults": {
"model": "custom-api-aicu-ai/groq-llama-3.3-70b"
}
}推奨: groq-llama-3.3-70b は Groq 無料枠で動作し、高速・高品質です。deepseek-v3 は OpenRouter 経由のため従量課金が発生します。
重要: contextWindow は16000以上を指定してください。 デフォルト(8192)のままだとOpenClawがモデルをブロックします。
3接続テスト
# プロバイダの接続確認
openclaw models status --probe設定が正しければ、AICU APIのモデルが一覧に表示されます。 その後、OpenClawダッシュボードのChatから動作確認してください。
•curlでの直接テスト
OpenClawを介さず、AICU APIに直接リクエストを送って動作確認できます。
curl -N -X POST https://api.aicu.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "groq-llama-3.3-70b",
"messages": [{"role": "user", "content": "Hello"}],
"stream": true
}'curl -X POST https://api.aicu.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "groq-llama-3.3-70b",
"messages": [{"role": "user", "content": "Hello"}]
}'curl https://api.aicu.ai/v1/models利用可能なモデル
最新の一覧は GET /v1/models で取得できます。
| Model ID | Provider | Best For |
|---|---|---|
| groq-llama-3.3-70b | Groq | 高速推論(無料枠)推奨 |
| groq-llama-3.1-8b | Groq | 軽量・高速(無料枠) |
| deepseek-v3 | OpenRouter | 汎用(従量課金) |
| gemini-flash | OpenRouter | マルチモーダル(従量課金) |
対応機能
| Feature | Status |
|---|---|
| Chat Completions | Supported |
| Streaming (SSE) | Supported |
| Tool / Function Calling (パススルー) | Supported |
| Models List (/v1/models) | Supported |
| temperature, top_p, stop | Supported |
| frequency_penalty, presence_penalty | Supported |
| Embeddings | Not supported |
| Image Generation | Not supported |
Troubleshooting
"Model not found" エラー
AICU APIのモデルIDはOpenRouterやGroqのモデルIDとは異なります。curl https://api.aicu.ai/v1/models で利用可能なモデルIDを確認してください。
ストリーミングが動作しない
リクエストボディに "stream": true が含まれていることを確認してください。curlの場合は -N フラグ(バッファリング無効)を使用します。
モデルが "blocked" と表示される(context window)
OpenClawはcontextWindowが16000以上必要です。~/.openclaw/openclaw.json のモデル設定に "contextWindow": 65536 を追加してください。
OpenClawでプロバイダが重複する
openclaw configure を複数回実行すると custom-api-aicu-ai-2 のように重複します。~/.openclaw/openclaw.json を開いて不要なエントリを削除してください。
タイムアウト
大きな max_tokens を指定するとレスポンスに時間がかかります。ストリーミングモードを使用すると最初のトークンが素早く返されます。