<aside> ⚠️
AI言語モデル(LLM)の切り替えはプロジェクト単位で行われ、
そのプロジェクトの全ユーザエージェントに適用されます。 ( ※チームオーナー / 管理者 権限者対象機能 )
</aside>
<aside> ⚠️
各パートナーのセルフホスト環境をご契約の場合、切り替え可能なAI言語モデル(LLM)が異なる場合がございます。各社のCS担当までお問い合わせください。
こちらのページではJitera社SaaSでご利用可能なAI言語モデル(LLM)について記載しております。
</aside>
(画面右上部にある) 【設定】をクリックし【エージェント】を選択します。

表示された各エージェントリストから【(任意の)エージェント】をクリックします。

各AI言語モデル(LLM)から【(任意の)言語モデル】をクリックし設定完了して下さい。
<aside> 💡
AI言語モデル(LLM)は、各エージェント毎に設定が可能となります。
</aside>

各エージェント選択時に右側に設定アイコンが表示されますので、そちらから当該エージェントの設定画面へと遷移が可能です

<aside> ⚠️
AI言語モデル(LLM)の切り替えはプロジェクト単位で行われ、
そのプロジェクトの全ユーザエージェントに適用されます。 ( ※チームオーナー / 管理者 権限者対象機能 )
</aside>
| AI言語モデル(LLM) | Cloud Platform | モデル概要 |
|---|---|---|
| GPT-4o | Azure | OpenAIのマルチモーダル「Omni」モデル。高速でテキスト/画像の両方を処理し、一般的な会話から分析まで幅広く対応。 |
| GPT-4.1 | Azure | OpenAIの最新系統(GPT-4oの後継)。超ロングコンテキスト(最大約1Mトークン級を想定)に対応し、コード生成・指示追従が強化。同等タスクで高速・低コスト化。 |
| GPT-5 | Azure | OpenAIの次世代フラッグシップ(推論・マルチモーダル・長コンテキストを統合した上位モデル)。高度なコード生成、エージェント指向タスク、長期文脈保持に強み。 |
| GPT-5-mini | Azure | GPT-5系の軽量版。高い推論品質を維持しつつ、コストとレイテンシを抑制。モバイル/大規模配信に適合。 |
| GPT-5-nano | Azure | 超軽量版。短応答・簡易タスク向けに最適化し、低消費で高速処理。エッジ・リアルタイム用途に適する。 |
| OpenAI o1 | Azure | 初期「Omni」系の軽量モデル。応答速度を重視したテキスト生成に適したバランス。 |
| OpenAI o3 | Azure | OpenAIの最先端「reasoning」モデル。画像などの複合入力を解析し、外部ツール(Web/Python/画像生成)との連携を重視。 |
| OpenAI o3-mini | Azure | o3の軽量版。推論精度を維持しつつリソース効率と速度を最適化。コスト重視のアプリに適合。 |
| Claude-3.5-sonnet | AWS Bedrock | Anthropic Claude v3.5系のバランス型。安全性と会話品質が高く、業務オートメーションや知的作業に適する。 |
| Claude-3.7-sonnet | AWS Bedrock | Claude v3.7系の改良版。創造性と自然対話に強く、長文・コード・要約の精度が向上。 |
| Claude-4.0-sonnet | AWS Bedrock | Claude v4系のバランスモデル。高性能と効率を両立し、日常業務からエージェント的コーディングまで対応。 |
| Claude-4.5-sonnet | AWS Bedrock | Anthropicの最新世代(4.5)バランスモデル。安全性・推論・長文処理を強化し、コード/分析/要約に高い安定性。 |
| Claude-4.5-haiku | AWS Bedrock | 4.5系の軽量モデル。応答速度とコスト効率を重視しつつ、対話品質と基本推論を確保。短文・リアルタイムUIに適合。 |
| Gemini-2.0-flash | Google Gemini v2系の「Flash」。超高速応答と低レイテンシ重視、軽量推論向け。 |