<aside> ⚠️
AI言語モデル(LLM)の切り替えはプロジェクト単位で行われ、
そのプロジェクトの全ユーザエージェントに適用されます。
操作可能な役割
新UI:全ユーザー
旧UI:チームオーナー / 管理者のみ
</aside>
<aside> ⚠️
各パートナーのセルフホスト環境をご契約の場合、切り替え可能なAI言語モデル(LLM)が異なる場合がございます。各社のCS担当までお問い合わせください。
こちらのページではJitera社SaaSでご利用可能なAI言語モデル(LLM)について記載しております。
</aside>
画面中央のLLMモデル名をクリックすることで、LLMモデルを変更可能です。

<aside> 💡
保存ボタンを押下することで同プロジェクト内の他メンバーにも同様のLLMモデルが適用されます。
保存ボタンを押下前は、操作者の環境でのみ選択したLLMモデルが適用されます。
</aside>
| AI言語モデル(LLM) | Cloud Platform | モデル概要 |
|---|---|---|
| GPT-4o | Azure | OpenAIのマルチモーダル「Omni」モデル。高速でテキスト/画像の両方を処理し、一般的な会話から分析まで幅広く対応。 |
| GPT-4.1 | Azure | OpenAIの最新系統(GPT-4oの後継)。超ロングコンテキスト(最大約1Mトークン級を想定)に対応し、コード生成・指示追従が強化。同等タスクで高速・低コスト化。 |
| GPT-5 | Azure | OpenAIの次世代フラッグシップ(推論・マルチモーダル・長コンテキストを統合した上位モデル)。高度なコード生成、エージェント指向タスク、長期文脈保持に強み。 |
| GPT-5.1 | Azure | GPT-5-miniAzureGPT-5系の軽量版。高い推論品質を維持しつつ、コストとレイテンシを抑制。モバイル/大規模配信に適合。 |
| GPT-5-mini | Azure | GPT-5系の軽量版。高い推論品質を維持しつつ、コストとレイテンシを抑制。モバイル/大規模配信に適合。 |
| GPT-5-nano | Azure | 超軽量版。短応答・簡易タスク向けに最適化し、低消費で高速処理。エッジ・リアルタイム用途に適する。 |
| OpenAI o1 | Azure | 初期「Omni」系の軽量モデル。応答速度を重視したテキスト生成に適したバランス。 |
| OpenAI o3 | Azure | OpenAIの最先端「reasoning」モデル。画像などの複合入力を解析し、外部ツール(Web/Python/画像生成)との連携を重視。 |
| OpenAI o3-mini | Azure | o3の軽量版。推論精度を維持しつつリソース効率と速度を最適化。コスト重視のアプリに適合。 |
| Claude-3.5-sonnet | AWS Bedrock | Anthropic Claude v3.5系のバランス型。安全性と会話品質が高く、業務オートメーションや知的作業に適する。 |
| Claude-3.7-sonnet | AWS Bedrock | Claude v3.7系の改良版。創造性と自然対話に強く、長文・コード・要約の精度が向上。 |
| Claude-4.0-sonnet | AWS Bedrock | Claude v4系のバランスモデル。高性能と効率を両立し、日常業務からエージェント的コーディングまで対応。 |
| Claude-4.5-sonnet | AWS Bedrock | Anthropicの最新世代(4.5)バランスモデル。安全性・推論・長文処理を強化し、コード/分析/要約に高い安定性。 |
| Claude-Opus-4.5 | AWS Bedrock | Claude 4.5 Sonnetと比べて、より「深く、熟考が必要なタスク」に特化したモデルです。 |
| Claude-4.5-haiku | AWS Bedrock | 4.5系の軽量モデル。応答速度とコスト効率を重視しつつ、対話品質と基本推論を確保。短文・リアルタイムUIに適合。 |
| Gemini-2.0-flash | Google Gemini v2系の「Flash」。超高速応答と低レイテンシ重視、軽量推論向け。 | |
| Gemini-2.5-pro | Gemini v2.5系の標準モデル。推論能力とマルチモーダル処理を深化させ、複雑なコーディングやデータ分析での信頼性を向上。 | |
| Gemini-2.5-flash | 2.0 Flashの速度を維持しつつ回答精度を底上げし、大規模バッチ処理やリアルタイム対話に最適化。 | |
| Gemini-3.0-pro | v3系の次世代標準モデル。推論・マルチモーダル・長文脈処理を飛躍的に強化し、複雑なエージェントタスクや高度な分析業務に最適。 |