Titan チャット

Amazon Titan 基盤モデル (FM) は、フルマネージド API を介して、高性能なイメージ、マルチモーダル埋め込み、テキストモデルの幅広い選択肢をお客様に提供します。Amazon Titan モデルは AWS によって作成され、大規模なデータセットで事前トレーニングされているため、さまざまなユースケースをサポートするように構築された強力な汎用モデルであり、AI の責任ある使用もサポートします。そのまま使用するか、独自のデータを使用して非公開でカスタマイズしてください。

AWS Bedrock Titan モデルページ [Amazon] および Amazon Bedrock ユーザーガイド には、AWS ホストモデルの使用方法に関する詳細情報が含まれています。

前提条件

API アクセスの設定については、Spring Amazon Bedrock に関する AI ドキュメントを参照してください。

リポジトリと BOM の追加

Spring AI アーティファクトは、Spring マイルストーンおよびスナップショットリポジトリで公開されます。これらのリポジトリをビルドシステムに追加するには、リポジトリセクションを参照してください。

依存関係の管理を支援するために、Spring AI は BOM (部品表) を提供し、一貫したバージョンの Spring AI がプロジェクト全体で使用されるようにします。Spring AI BOM をビルドシステムに追加するには、"依存関係管理" セクションを参照してください。

自動構成

spring-ai-bedrock-ai-spring-boot-starter 依存関係をプロジェクトの Maven pom.xml ファイルに追加します。

<dependency>
  <groupId>org.springframework.ai</groupId>
  <artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>

または、Gradle build.gradle ビルドファイルに保存します。

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。

Titan チャットを有効にする

デフォルトでは、Titan モデルは無効になっています。これを有効にするには、spring.ai.bedrock.titan.chat.enabled プロパティを true に設定します。環境変数のエクスポートは、この構成プロパティを設定する 1 つの方法です。

export SPRING_AI_BEDROCK_TITAN_CHAT_ENABLED=true

チャットのプロパティ

プレフィックス spring.ai.bedrock.aws は、AWS Bedrock への接続を設定するためのプロパティプレフィックスです。

プロパティ 説明 デフォルト

spring.ai.bedrock.aws.region

使用する AWS リージョン。

米国東部 -1

spring.ai.bedrock.aws.timeout

使用する AWS タイムアウト。

5 分

spring.ai.bedrock.aws.access-key

AWS アクセスキー。

-

spring.ai.bedrock.aws.secret-key

AWS の秘密鍵。

-

プレフィックス spring.ai.bedrock.titan.chat は、Titan のチャットモデル実装を構成するプロパティプレフィックスです。

プロパティ 説明 デフォルト

spring.ai.bedrock.titan.chat.enabled

Bedrock Titan チャットモデルを有効にします。デフォルトでは無効になっています

false

spring.ai.bedrock.titan.chat.model

使用するモデル ID。対応モデルについては TitanChatBedrockApi#TitanChatModel [GitHub] (英語) を参照してください。

amazon.titan-text-lite-v1

spring.ai.bedrock.titan.chat.options.temperature

出力のランダム性を制御します。値の範囲は [0.0,1.0] です

0.7

spring.ai.bedrock.titan.chat.options.topP

サンプリング時に考慮するトークンの最大累積確率。

AWS Bedrock のデフォルト

spring.ai.bedrock.titan.chat.options.stopSequences

ジェネレーティブが認識するシーケンスを最大 4 つ設定します。停止シーケンスの後、生成はさらなるトークンの生成を停止します。返されるテキストには停止シーケンスは含まれません。

AWS Bedrock のデフォルト

spring.ai.bedrock.titan.chat.options.maxTokenCount

生成されるレスポンスで使用するトークンの最大数を指定します。この最大値に達する前にモデルが停止する可能性があることに注意してください。このパラメーターは、生成するトークンの絶対最大数のみを指定します。最適なパフォーマンスを得るために、4,000 トークンの制限を推奨します。

AWS Bedrock のデフォルト

他のモデル ID については、TitanChatBedrockApi#TitanChatModel [GitHub] (英語) を参照してください。サポートされている値は次のとおりです: amazon.titan-text-lite-v1amazon.titan-text-express-v1amazon.titan-text-premier-v1:0. モデル ID 値は基本モデル ID に関する AWS Bedrock ドキュメント [Amazon] にもあります。

spring.ai.bedrock.titan.chat.options というプレフィックスが付いたすべてのプロパティは、リクエスト固有のランタイムオプションを Prompt 呼び出しに追加することで実行時にオーバーライドできます。

ランタイムオプション

BedrockTitanChatOptions.java [GitHub] (英語) は、温度、topP などのモデル構成を提供します。

起動時に、BedrockTitanChatModel(api, options) コンストラクターまたは spring.ai.bedrock.titan.chat.options.* プロパティを使用してデフォルトのオプションを構成できます。

実行時に、新しいリクエスト固有のオプションを Prompt 呼び出しに追加することで、デフォルトのオプションをオーバーライドできます。たとえば、特定のリクエストのデフォルトの温度をオーバーライドするには、次のようにします。

ChatResponse response = chatModel.call(
    new Prompt(
        "Generate the names of 5 famous pirates.",
        BedrockTitanChatOptions.builder()
            .withTemperature(0.4)
        .build()
    ));
モデル固有の BedrockTitanChatOptions [GitHub] (英語) に加えて、ChatOptionsBuilder#builder() [GitHub] (英語) で作成されたポータブル ChatOptions [GitHub] (英語) インスタンスを使用できます。

サンプルコントローラー

新しい Spring Boot プロジェクトを作成し、spring-ai-bedrock-ai-spring-boot-starter を pom (または gradle) の依存関係に追加します。

src/main/resources ディレクトリに application.properties ファイルを追加して、Titan チャットモデルを有効にして構成します。

spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=1000ms
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}

spring.ai.bedrock.titan.chat.enabled=true
spring.ai.bedrock.titan.chat.options.temperature=0.8
regionsaccess-keysecret-key を AWS 認証情報に置き換えます。

これにより、クラスに挿入できる BedrockTitanChatModel 実装が作成されます。以下は、テキスト生成にチャットモデルを使用する単純な @Controller クラスの例です。

@RestController
public class ChatController {

    private final BedrockTitanChatModel chatModel;

    @Autowired
    public ChatController(BedrockTitanChatModel chatModel) {
        this.chatModel = chatModel;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", chatModel.call(message));
    }

    @GetMapping("/ai/generateStream")
	public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        Prompt prompt = new Prompt(new UserMessage(message));
        return chatModel.stream(prompt);
    }
}

手動構成

BedrockTitanChatModel [GitHub] (英語) は ChatModel および StreamingChatModel を実装し、低レベル TitanChatBedrockApi クライアントを使用して Bedrock タイタニックサービスに接続します。

spring-ai-bedrock 依存関係をプロジェクトの Maven pom.xml ファイルに追加します。

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-bedrock</artifactId>
</dependency>

または、Gradle build.gradle ビルドファイルに保存します。

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。

次に、BedrockTitanChatModel [GitHub] (英語) を作成し、テキスト生成に使用します。

TitanChatBedrockApi titanApi = new TitanChatBedrockApi(
    TitanChatModel.TITAN_TEXT_EXPRESS_V1.id(),
	EnvironmentVariableCredentialsProvider.create(),
    Region.US_EAST_1.id(),
    new ObjectMapper(),
    Duration.ofMillis(1000L));

BedrockTitanChatModel chatModel = new BedrockTitanChatModel(titanApi,
    BedrockTitanChatOptions.builder()
        .withTemperature(0.6f)
        .withTopP(0.8f)
        .withMaxTokenCount(100)
    .build());

ChatResponse response = chatModel.call(
    new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> response = chatModel.stream(
    new Prompt("Generate the names of 5 famous pirates."));

低レベル TitanChatBedrockApi クライアント

TitanChatBedrockApi [GitHub] (英語) は、AWS Bedrock Bedrock Titan 形 [Amazon] 上にある軽量の Java クライアントを提供します。

次のクラス図は、TitanChatBedrockApi インターフェースと構成要素を示しています。

bedrock titan chat low level api

クライアントは、同期レスポンス (例: chatCompletion()) とストリーミングレスポンス (例: chatCompletionStream()) の両方の amazon.titan-text-lite-v1 モデルと amazon.titan-text-express-v1 モデルをサポートします。

API をプログラムで使用する方法の簡単なスニペットを次に示します。

TitanChatBedrockApi titanBedrockApi = new TitanChatBedrockApi(TitanChatCompletionModel.TITAN_TEXT_EXPRESS_V1.id(),
		Region.EU_CENTRAL_1.id(), Duration.ofMillis(1000L));

TitanChatRequest titanChatRequest = TitanChatRequest.builder("Give me the names of 3 famous pirates?")
	.withTemperature(0.5f)
	.withTopP(0.9f)
	.withMaxTokenCount(100)
	.withStopSequences(List.of("|"))
	.build();

TitanChatResponse response = titanBedrockApi.chatCompletion(titanChatRequest);

Flux<TitanChatResponseChunk> response = titanBedrockApi.chatCompletionStream(titanChatRequest);

List<TitanChatResponseChunk> results = response.collectList().block();

詳細については、TitanChatBedrockApi [GitHub] (英語) の JavaDoc を参照してください。