Mistral AI チャット

Spring AI は、Mistral AI のさまざまな AI 言語モデルをサポートしています。Mistral AI 言語モデルと対話し、Mistral モデルに基づいて多言語会話アシスタントを作成できます。

Mistral AI は、OpenAI API 互換エンドポイントも提供します。Spring AI OpenAI を使用して Mistral エンドポイントと通信する方法については、OpenAI API 互換性セクションを確認してください。

前提条件

Mistral AI 言語モデルにアクセスするには、MistralAI で API を作成する必要があります。MistralAI 登録ページ (英語) でアカウントを作成し、API キーページ (英語) でトークンを生成します。Spring AI プロジェクトは、console.mistral.ai から取得した API Key の値に設定する必要がある spring.ai.mistralai.api-key という構成プロパティを定義します。環境変数をエクスポートすることは、その構成プロパティを設定する 1 つの方法です。

export SPRING_AI_MISTRALAI_API_KEY=<INSERT KEY HERE>

リポジトリと BOM の追加

Spring AI アーティファクトは、Spring マイルストーンおよびスナップショットリポジトリで公開されます。これらのリポジトリをビルドシステムに追加するには、リポジトリセクションを参照してください。

依存関係の管理を支援するために、Spring AI は BOM (部品表) を提供し、一貫したバージョンの Spring AI がプロジェクト全体で使用されるようにします。Spring AI BOM をビルドシステムに追加するには、"依存関係管理" セクションを参照してください。

自動構成

Spring AI は、MistralAI チャットクライアント用の Spring Boot 自動構成を提供します。これを有効にするには、プロジェクトの Maven pom.xml ファイルに次の依存関係を追加します。

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-mistral-ai-spring-boot-starter</artifactId>
</dependency>

または、Gradle build.gradle ビルドファイルに保存します。

dependencies {
    implementation 'org.springframework.ai:spring-ai-mistral-ai-spring-boot-starter'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。

チャットのプロパティ

再試行プロパティ

プレフィックス spring.ai.retry は、Mistral AI チャットモデルの再試行メカニズムを構成できるプロパティプレフィックスとして使用されます。

プロパティ 説明 デフォルト

spring.ai.retry.max-attempts

再試行の最大回数。

10

spring.ai.retry.backoff.initial-interval

指数関数的バックオフポリシーの初期スリープ期間。

2 秒

spring.ai.retry.backoff.multiplier

バックオフ間隔の乗数。

5

spring.ai.retry.backoff.max-interval

最大バックオフ期間。

3 分

spring.ai.retry.on-client-errors

false の場合、NonTransientAiException をスローし、4xx クライアントエラーコードの再試行を試行しません。

false

spring.ai.retry.exclude-on-http-codes

再試行をトリガーすべきではない HTTP ステータスコードのリスト (NonTransientAiException をスローするなど)。

spring.ai.retry.on-http-codes

再試行をトリガーする必要がある HTTP ステータスコードのリスト (例: TransientAiException をスローする)。

接続プロパティ

接頭辞 spring.ai.mistralai は、OpenAI への接続を可能にするプロパティ接頭辞として使用されます。

プロパティ 説明 デフォルト

spring.ai.mistralai.base-url

接続先の URL

api.mistral.ai (英語)

spring.ai.mistralai.api-key

API キー

-

プロパティの構成

プレフィックス spring.ai.mistralai.chat は、MistralAI のチャットモデル実装を構成できるプロパティプレフィックスです。

プロパティ 説明 デフォルト

spring.ai.mistralai.chat.enabled

MistralAI チャットモデルを有効にします。

true

spring.ai.mistralai.chat.base-url

オプションで spring.ai.mistralai.base-url をオーバーライドして、チャット固有の URL を提供します

-

spring.ai.mistralai.chat.api-key

オプションで spring.ai.mistralai.api-key をオーバーライドしてチャット固有の API キーを提供します

-

spring.ai.mistralai.chat.options.model

使用するチャットモデルは MistralAI です

open-mistral-7b, open-mixtral-8x7b, mistral-small-latest, mistral-medium-latest, mistral-large-latest

spring.ai.mistralai.chat.options.temperature

生成される補完の見かけの創造性を制御するために使用するサンプリング温度。値を高くすると出力がよりランダムになり、値を低くすると結果がより集中的で決定的になります。これら 2 つの設定の相互作用を予測するのは難しいため、同じ完了リクエストに対して温度と top_p を変更することはお勧めできません。

0.8

spring.ai.mistralai.chat.options.maxTokens

チャット補完で生成するトークンの最大数。入力トークンと生成されたトークンの合計の長さは、モデルのコンテキストの長さによって制限されます。

-

spring.ai.mistralai.chat.options.safePrompt

すべての会話の前にセキュリティプロンプトを挿入するかどうかを示します。

false

spring.ai.mistralai.chat.options.randomSeed

この機能はベータ版です。指定した場合、システムは、同じシードとパラメーターを使用した繰り返しリクエストが同じ結果を返すように、決定論的にサンプリングするために最善の努力をします。

-

spring.ai.mistralai.chat.options.stop

このトークンが検出された場合は生成を停止します。または、配列を提供するときにこれらのトークンの 1 つが検出された場合。

-

spring.ai.mistralai.chat.options.topP

核サンプリングと呼ばれる、温度によるサンプリングの代替方法。モデルは、top_p 確率質量を使用してトークンの結果を考慮します。0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。通常、これまたは温度を変更することをお勧めしますが、両方を変更することは推奨しません。

-

spring.ai.mistralai.chat.options.responseFormat

モデルが出力する必要がある形式を指定するオブジェクト。{ "type": "json_object" } に設定すると JSON モードが有効になり、モデルが生成するメッセージが有効な JSON であることが保証されます。

-

spring.ai.mistralai.chat.options.tools

モデルが呼び出す可能性のあるツールのリスト。現在、ツールとしては関数のみがサポートされています。これを使用して、モデルが JSON 入力を生成する可能性のある関数のリストを提供します。

-

spring.ai.mistralai.chat.options.toolChoice

モデルによって呼び出される関数 (存在する場合) を制御します。none は、モデルが関数を呼び出さず、代わりにメッセージを生成することを意味します。auto は、モデルがメッセージを生成するか関数を呼び出すかを選択できることを意味します。{"type: "function" , "function" : {"name" : "my_function" }} で特定の関数を指定すると、モデルは強制的にその関数を呼び出します。関数が存在しない場合は none がデフォルトです。auto はデフォルトです。機能が存在します。

-

spring.ai.mistralai.chat.options.functions

単一のプロンプトリクエストで関数呼び出しを有効にするために、名前で識別される関数のリスト。これらの名前を持つ関数は、functionCallbacks レジストリに存在する必要があります。

-

spring.ai.mistralai.chat.options.functionCallbacks

ChatModel に登録するための MistralAI ツール関数コールバック。

-

ChatModel および EmbeddingModel 実装の共通の spring.ai.mistralai.base-url および spring.ai.mistralai.api-key をオーバーライドできます。spring.ai.mistralai.chat.base-url および spring.ai.mistralai.chat.api-key プロパティが設定されている場合は、共通のプロパティよりも優先されます。これは、異なるモデルおよび異なるモデルエンドポイントに異なる MistralAI アカウントを使用する場合に便利です。
spring.ai.mistralai.chat.options というプレフィックスが付いたすべてのプロパティは、リクエスト固有のランタイムオプションを Prompt 呼び出しに追加することで実行時にオーバーライドできます。

ランタイムオプション

MistralAiChatOptions.java [GitHub] (英語) は、使用するモデル、温度、周波数ペナルティなどのモデル構成を提供します。

起動時に、MistralAiChatModel(api, options) コンストラクターまたは spring.ai.mistralai.chat.options.* プロパティを使用してデフォルトのオプションを構成できます。

実行時に、新しいリクエスト固有のオプションを Prompt 呼び出しに追加することで、デフォルトのオプションをオーバーライドできます。たとえば、特定のリクエストのデフォルトのモデルと温度をオーバーライドするには、次のようにします。

ChatResponse response = chatModel.call(
    new Prompt(
        "Generate the names of 5 famous pirates.",
        MistralAiChatOptions.builder()
            .withModel(MistralAiApi.ChatModel.LARGE.getValue())
            .withTemperature(0.5f)
        .build()
    ));
モデル固有の MistralAiChatOptions [GitHub] (英語) に加えて、ChatOptionsBuilder#builder() [GitHub] (英語) で作成されたポータブル ChatOptions [GitHub] (英語) インスタンスを使用できます。

関数呼び出し

MistralAiChatModel にカスタム Java 関数を登録し、Mistral AI モデルに、登録された関数の 1 つまたは複数を呼び出すための引数を含む JSON オブジェクトをインテリジェントに出力させることができます。これは、LLM 機能を外部ツールや API に接続するための強力な手法です。Mistral AI 関数呼び出しの詳細については、こちらを参照してください。

OpenAI API 互換性

Mistral は OpenAI API と互換性があり、Spring AI OpenAI クライアントを使用して Mistrial と通信できます。そのためには、OpenAI ベース URL: spring.ai.openai.chat.base-url=https://api.mistral.ai を設定し、Mistral モデル: spring.ai.openai.chat.options.model=mistral-small-latest を選択し、Api キー: spring.ai.openai.chat.api-key=<YOUR MISTRAL API KEY を設定する必要があります。

Spring AI OpenAI ではなく Mistral を使用する例については、MistralWithOpenAiChatModelIT.java [GitHub] (英語) テストを確認してください。

サンプルコントローラー (自動構成)

新しい Spring Boot プロジェクトを作成し、spring-ai-mistral-ai-spring-boot-starter を pom (または gradle) の依存関係に追加します。

src/main/resources ディレクトリに application.properties ファイルを追加して、OpenAi チャットモデルを有効にして構成します。

spring.ai.mistralai.api-key=YOUR_API_KEY
spring.ai.mistralai.chat.options.model=mistral-medium
spring.ai.mistralai.chat.options.temperature=0.7
api-key を OpenAI 資格情報に置き換えます。

これにより、クラスに挿入できる MistralAiChatModel 実装が作成されます。以下は、テキスト生成にチャットモデルを使用する単純な @Controller クラスの例です。

@RestController
public class ChatController {

    private final MistralAiChatModel chatModel;

    @Autowired
    public ChatController(MistralAiChatModel chatModel) {
        this.chatModel = chatModel;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", chatModel.call(message));
    }

    @GetMapping("/ai/generateStream")
	public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        var prompt = new Prompt(new UserMessage(message));
        return chatModel.stream(prompt);
    }
}

手動構成

MistralAiChatModel [GitHub] (英語) は ChatModel と StreamingChatModel を実装し、低レベル MistralAiApi クライアントを使用して MistralAI サービスに接続します。

spring-ai-mistral-ai 依存関係をプロジェクトの Maven pom.xml ファイルに追加します。

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-mistral-ai</artifactId>
</dependency>

または、Gradle build.gradle ビルドファイルに保存します。

dependencies {
    implementation 'org.springframework.ai:spring-ai-mistral-ai'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。

次に、MistralAiChatModel を作成し、テキスト生成に使用します。

var mistralAiApi = new MistralAiApi(System.getenv("MISTRAL_AI_API_KEY"));

var chatModel = new MistralAiChatModel(mistralAiApi, MistralAiChatOptions.builder()
                .withModel(MistralAiApi.ChatModel.LARGE.getValue())
                .withTemperature(0.4f)
                .withMaxTokens(200)
                .build());

ChatResponse response = chatModel.call(
    new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> response = chatModel.stream(
    new Prompt("Generate the names of 5 famous pirates."));

MistralAiChatOptions は、チャットリクエストの構成情報を提供します。MistralAiChatOptions.Builder は流れるようなオプションビルダーです。

低レベル MistralAiApi クライアント

MistralAiApi [GitHub] (英語) が提供するのは、Mistral AI API (英語) 用の軽量 Java クライアントです。

API をプログラムで使用する方法の簡単なスニペットを次に示します。

MistralAiApi mistralAiApi =
    new MistralAiApi(System.getenv("MISTRAL_AI_API_KEY"));

ChatCompletionMessage chatCompletionMessage =
    new ChatCompletionMessage("Hello world", Role.USER);

// Sync request
ResponseEntity<ChatCompletion> response = mistralAiApi.chatCompletionEntity(
    new ChatCompletionRequest(List.of(chatCompletionMessage), MistralAiApi.ChatModel.LARGE.getValue(), 0.8f, false));

// Streaming request
Flux<ChatCompletionChunk> streamResponse = mistralAiApi.chatCompletionStream(
        new ChatCompletionRequest(List.of(chatCompletionMessage), MistralAiApi.ChatModel.LARGE.getValue(), 0.8f, true));

詳細については、MistralAiApi.java [GitHub] (英語) の JavaDoc を参照してください。

MistralAiApi サンプル