🦀

OpenClaw + AICU API

Custom Providerセットアップガイド

Streaming対応Tool Calling対応OpenAI互換

OpenClawはOSSのAIエージェントプラットフォームです。 AICU APIはOpenAI互換の/v1/chat/completionsエンドポイントを提供しており、 OpenClawのCustom Providerとしてそのまま利用できます。

1APIキーを取得(任意)

Dashboard → API KeysからAPIキーを発行できます。 キーはaicu_live_プレフィックスで始まります。 現在Alpha期間中はAPIキーなしでも利用可能です。

2openclaw configure で設定

対話式ウィザードでCustom Providerを追加します。

Terminal
openclaw configure
設定項目
Select sections to configureModel
Model/auth providerCustom Provider
API Base URLhttps://api.aicu.ai/v1
API Key空欄(Alpha期間中)またはaicu_live_xxx
Endpoint compatibilityOpenAI-compatible
Model IDgroq-llama-3.3-70b(推奨)

2'手動設定(代替)

~/.openclaw/openclaw.jsonを直接編集することもできます。

~/.openclaw/openclaw.json(providers セクションに追加)
{
  "providers": {
    "custom-api-aicu-ai": {
      "type": "openai",
      "baseUrl": "https://api.aicu.ai/v1",
      "apiKey": "",
      "models": {
        "deepseek-v3": {
          "contextWindow": 65536,
          "maxTokens": 65536
        },
        "groq-llama-3.3-70b": {
          "contextWindow": 131072,
          "maxTokens": 131072
        }
      }
    }
  }
}

デフォルトモデルとして使う場合:

~/.openclaw/openclaw.json(defaults セクション)
{
  "defaults": {
    "model": "custom-api-aicu-ai/groq-llama-3.3-70b"
  }
}

推奨: groq-llama-3.3-70b は Groq 無料枠で動作し、高速・高品質です。deepseek-v3 は OpenRouter 経由のため従量課金が発生します。

重要: contextWindow は16000以上を指定してください。 デフォルト(8192)のままだとOpenClawがモデルをブロックします。

3接続テスト

Terminal
# プロバイダの接続確認
openclaw models status --probe

設定が正しければ、AICU APIのモデルが一覧に表示されます。 その後、OpenClawダッシュボードのChatから動作確認してください。

curlでの直接テスト

OpenClawを介さず、AICU APIに直接リクエストを送って動作確認できます。

ストリーミング(推奨: groq-llama-3.3-70b)
curl -N -X POST https://api.aicu.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "groq-llama-3.3-70b",
    "messages": [{"role": "user", "content": "Hello"}],
    "stream": true
  }'
非ストリーミング
curl -X POST https://api.aicu.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "groq-llama-3.3-70b",
    "messages": [{"role": "user", "content": "Hello"}]
  }'
モデル一覧
curl https://api.aicu.ai/v1/models

利用可能なモデル

最新の一覧は GET /v1/models で取得できます。

Model IDProviderBest For
groq-llama-3.3-70bGroq高速推論(無料枠)推奨
groq-llama-3.1-8bGroq軽量・高速(無料枠)
deepseek-v3OpenRouter汎用(従量課金)
gemini-flashOpenRouterマルチモーダル(従量課金)

全モデル一覧 →

対応機能

FeatureStatus
Chat CompletionsSupported
Streaming (SSE)Supported
Tool / Function Calling (パススルー)Supported
Models List (/v1/models)Supported
temperature, top_p, stopSupported
frequency_penalty, presence_penaltySupported
EmbeddingsNot supported
Image GenerationNot supported

Troubleshooting

"Model not found" エラー

AICU APIのモデルIDはOpenRouterやGroqのモデルIDとは異なります。curl https://api.aicu.ai/v1/models で利用可能なモデルIDを確認してください。

ストリーミングが動作しない

リクエストボディに "stream": true が含まれていることを確認してください。curlの場合は -N フラグ(バッファリング無効)を使用します。

モデルが "blocked" と表示される(context window)

OpenClawはcontextWindowが16000以上必要です。~/.openclaw/openclaw.json のモデル設定に "contextWindow": 65536 を追加してください。

OpenClawでプロバイダが重複する

openclaw configure を複数回実行すると custom-api-aicu-ai-2 のように重複します。~/.openclaw/openclaw.json を開いて不要なエントリを削除してください。

タイムアウト

大きな max_tokens を指定するとレスポンスに時間がかかります。ストリーミングモードを使用すると最初のトークンが素早く返されます。