# AICU LLM API Skill

> OpenAI互換のLLM API。認証なしで今すぐ使えます。

## Package Info

- **Name**: aicu-llm
- **Version**: 0.2.0 (Beta)
- **Base URL**: https://api.aicu.ai/v1
- **Auth**: Beta版は認証不要

---

## Quick Start

いますぐ試せます。認証不要です。

```bash
curl -X POST https://api.aicu.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{"model": "deepseek-v3", "messages": [{"role": "user", "content": "Hello"}]}'
```

---

## Available Models

| Model | Cost | Stage | Description |
|-------|------|-------|-------------|
| lfm2.5-jp | 1 AP/1K tokens | alpha | 日本語特化1.2Bパラメータ |
| groq-llama-3.3-70b | 0 AP (free) | alpha | 高品質、レート制限あり |
| groq-llama-3.1-8b | 0 AP (free) | alpha | 高速、レート制限あり |
| deepseek-v3 | 3 AP/1K tokens | beta | 汎用、コスパ良好 |
| gemini-flash | 5 AP/1K tokens | beta | マルチモーダル |
| llama-3.1-8b | 2 AP/1K tokens | beta | 軽量 |
| llama-3.1-70b | 20 AP/1K tokens | beta | 高品質 |
| qwen3-32b | 10 AP/1K tokens | beta | 大規模コンテキスト |

**おすすめ**:
- `deepseek-v3` - 汎用、コスパ最強
- `groq-llama-3.3-70b` - 無料、高品質（レート制限あり）

---

## OpenAI SDK Integration

既存のOpenAI SDKをそのまま使えます。

### Python
```python
from openai import OpenAI

client = OpenAI(
    base_url="https://api.aicu.ai/v1",
    api_key="dummy"  # Beta: 認証不要
)

response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[{"role": "user", "content": "こんにちは"}]
)
print(response.choices[0].message.content)
```

### TypeScript
```typescript
import OpenAI from 'openai';

const client = new OpenAI({
  baseURL: 'https://api.aicu.ai/v1',
  apiKey: 'dummy',
});

const response = await client.chat.completions.create({
  model: 'deepseek-v3',
  messages: [{ role: 'user', content: 'こんにちは' }],
});
```

---

## API Reference

### POST /v1/chat/completions

**Parameters:**
| Name | Type | Required | Description |
|------|------|----------|-------------|
| model | string | Yes | モデルID (例: deepseek-v3) |
| messages | array | Yes | メッセージ配列 |
| max_tokens | number | No | 最大トークン数 |
| temperature | number | No | サンプリング温度 (0-2) |
| stream | boolean | No | ストリーミング有効化 |

### GET /v1/chat/models

利用可能なモデル一覧を取得。

---

## Response Headers

| Header | Description |
|--------|-------------|
| X-AICU-Model | 使用モデル |
| X-AICU-Provider | プロバイダ (openrouter/groq/aicu) |
| X-AICU-Tokens | 消費トークン数 |
| X-AICU-AP-Cost | AP消費 |
| X-AICU-Latency-Ms | サーバーレイテンシ |

---

## Rate Limits & Costs

| Provider | Rate Limit | Cost |
|----------|------------|------|
| Groq | 30 RPM | 無料 |
| OpenRouter | プラン依存 | 2-20 AP/1K tokens |

**Credits**: 100 AP = ¥1

---

## Error Handling

| Code | Meaning | Action |
|------|---------|--------|
| 400 | Bad Request | パラメータ確認 |
| 429 | Rate Limited | 少し待つ |
| 500 | Server Error | リトライ |

---

## Support

- Docs: https://api.aicu.ai/docs
- Dashboard: https://api.aicu.ai/dashboard
- Contact: https://corp.aicu.ai/ja/contact

---
*AICU Japan K.K. - 2026-05-13*
