Titan チャット
Amazon Titan 基盤モデル (FM) は、フルマネージド API を介して、高性能なイメージ、マルチモーダル埋め込み、テキストモデルの幅広い選択肢をお客様に提供します。Amazon Titan モデルは AWS によって作成され、大規模なデータセットで事前トレーニングされているため、さまざまなユースケースをサポートするように構築された強力な汎用モデルであり、AI の責任ある使用もサポートします。そのまま使用するか、独自のデータを使用して非公開でカスタマイズしてください。
AWS Bedrock Titan モデルページ [Amazon] および Amazon Bedrock ユーザーガイド には、AWS ホストモデルの使用方法に関する詳細情報が含まれています。
前提条件
API アクセスの設定については、Spring Amazon Bedrock に関する AI ドキュメントを参照してください。
自動構成
spring-ai-bedrock-ai-spring-boot-starter
依存関係をプロジェクトの Maven pom.xml
ファイルに追加します。
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>
または、Gradle build.gradle
ビルドファイルに保存します。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。 |
Titan チャットを有効にする
デフォルトでは、Titan モデルは無効になっています。これを有効にするには、spring.ai.bedrock.titan.chat.enabled
プロパティを true
に設定します。環境変数のエクスポートは、この構成プロパティを設定する 1 つの方法です。
export SPRING_AI_BEDROCK_TITAN_CHAT_ENABLED=true
チャットのプロパティ
プレフィックス spring.ai.bedrock.aws
は、AWS Bedrock への接続を設定するためのプロパティプレフィックスです。
プロパティ | 説明 | デフォルト |
---|---|---|
spring.ai.bedrock.aws.region | 使用する AWS リージョン。 | 米国東部 -1 |
spring.ai.bedrock.aws.timeout | 使用する AWS タイムアウト。 | 5 分 |
spring.ai.bedrock.aws.access-key | AWS アクセスキー。 | - |
spring.ai.bedrock.aws.secret-key | AWS の秘密鍵。 | - |
プレフィックス spring.ai.bedrock.titan.chat
は、Titan のチャットモデル実装を構成するプロパティプレフィックスです。
プロパティ | 説明 | デフォルト |
---|---|---|
spring.ai.bedrock.titan.chat.enabled | Bedrock Titan チャットモデルを有効にします。デフォルトでは無効になっています | false |
spring.ai.bedrock.titan.chat.model | 使用するモデル ID。対応モデルについては TitanChatBedrockApi#TitanChatModel [GitHub] (英語) を参照してください。 | amazon.titan-text-lite-v1 |
spring.ai.bedrock.titan.chat.options.temperature | 出力のランダム性を制御します。値の範囲は [0.0,1.0] です | 0.7 |
spring.ai.bedrock.titan.chat.options.topP | サンプリング時に考慮するトークンの最大累積確率。 | AWS Bedrock のデフォルト |
spring.ai.bedrock.titan.chat.options.stopSequences | ジェネレーティブが認識するシーケンスを最大 4 つ設定します。停止シーケンスの後、生成はさらなるトークンの生成を停止します。返されるテキストには停止シーケンスは含まれません。 | AWS Bedrock のデフォルト |
spring.ai.bedrock.titan.chat.options.maxTokenCount | 生成されるレスポンスで使用するトークンの最大数を指定します。この最大値に達する前にモデルが停止する可能性があることに注意してください。このパラメーターは、生成するトークンの絶対最大数のみを指定します。最適なパフォーマンスを得るために、4,000 トークンの制限を推奨します。 | AWS Bedrock のデフォルト |
他のモデル ID については、TitanChatBedrockApi#TitanChatModel [GitHub] (英語) を参照してください。サポートされている値は次のとおりです: amazon.titan-text-lite-v1
、amazon.titan-text-express-v1
、amazon.titan-text-premier-v1:0
. モデル ID 値は基本モデル ID に関する AWS Bedrock ドキュメント [Amazon] にもあります。
spring.ai.bedrock.titan.chat.options というプレフィックスが付いたすべてのプロパティは、リクエスト固有のランタイムオプションを Prompt 呼び出しに追加することで実行時にオーバーライドできます。 |
ランタイムオプション
BedrockTitanChatOptions.java [GitHub] (英語) は、温度、topP などのモデル構成を提供します。
起動時に、BedrockTitanChatModel(api, options)
コンストラクターまたは spring.ai.bedrock.titan.chat.options.*
プロパティを使用してデフォルトのオプションを構成できます。
実行時に、新しいリクエスト固有のオプションを Prompt
呼び出しに追加することで、デフォルトのオプションをオーバーライドできます。たとえば、特定のリクエストのデフォルトの温度をオーバーライドするには、次のようにします。
ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates.",
BedrockTitanChatOptions.builder()
.withTemperature(0.4)
.build()
));
モデル固有の BedrockTitanChatOptions [GitHub] (英語) に加えて、ChatOptionsBuilder#builder() [GitHub] (英語) で作成されたポータブル ChatOptions [GitHub] (英語) インスタンスを使用できます。 |
サンプルコントローラー
新しい Spring Boot プロジェクトを作成し、spring-ai-bedrock-ai-spring-boot-starter
を pom (または gradle) の依存関係に追加します。
src/main/resources
ディレクトリに application.properties
ファイルを追加して、Titan チャットモデルを有効にして構成します。
spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=1000ms
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}
spring.ai.bedrock.titan.chat.enabled=true
spring.ai.bedrock.titan.chat.options.temperature=0.8
regions 、access-key 、secret-key を AWS 認証情報に置き換えます。 |
これにより、クラスに挿入できる BedrockTitanChatModel
実装が作成されます。以下は、テキスト生成にチャットモデルを使用する単純な @Controller
クラスの例です。
@RestController
public class ChatController {
private final BedrockTitanChatModel chatModel;
@Autowired
public ChatController(BedrockTitanChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return chatModel.stream(prompt);
}
}
手動構成
BedrockTitanChatModel [GitHub] (英語) は ChatModel
および StreamingChatModel
を実装し、低レベル TitanChatBedrockApi クライアントを使用して Bedrock タイタニックサービスに接続します。
spring-ai-bedrock
依存関係をプロジェクトの Maven pom.xml
ファイルに追加します。
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock</artifactId>
</dependency>
または、Gradle build.gradle
ビルドファイルに保存します。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。 |
次に、BedrockTitanChatModel [GitHub] (英語) を作成し、テキスト生成に使用します。
TitanChatBedrockApi titanApi = new TitanChatBedrockApi(
TitanChatModel.TITAN_TEXT_EXPRESS_V1.id(),
EnvironmentVariableCredentialsProvider.create(),
Region.US_EAST_1.id(),
new ObjectMapper(),
Duration.ofMillis(1000L));
BedrockTitanChatModel chatModel = new BedrockTitanChatModel(titanApi,
BedrockTitanChatOptions.builder()
.withTemperature(0.6f)
.withTopP(0.8f)
.withMaxTokenCount(100)
.build());
ChatResponse response = chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> response = chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
低レベル TitanChatBedrockApi クライアント
TitanChatBedrockApi [GitHub] (英語) は、AWS Bedrock Bedrock Titan 形 [Amazon] 上にある軽量の Java クライアントを提供します。
次のクラス図は、TitanChatBedrockApi インターフェースと構成要素を示しています。
クライアントは、同期レスポンス (例: chatCompletion()
) とストリーミングレスポンス (例: chatCompletionStream()
) の両方の amazon.titan-text-lite-v1
モデルと amazon.titan-text-express-v1
モデルをサポートします。
API をプログラムで使用する方法の簡単なスニペットを次に示します。
TitanChatBedrockApi titanBedrockApi = new TitanChatBedrockApi(TitanChatCompletionModel.TITAN_TEXT_EXPRESS_V1.id(),
Region.EU_CENTRAL_1.id(), Duration.ofMillis(1000L));
TitanChatRequest titanChatRequest = TitanChatRequest.builder("Give me the names of 3 famous pirates?")
.withTemperature(0.5f)
.withTopP(0.9f)
.withMaxTokenCount(100)
.withStopSequences(List.of("|"))
.build();
TitanChatResponse response = titanBedrockApi.chatCompletion(titanChatRequest);
Flux<TitanChatResponseChunk> response = titanBedrockApi.chatCompletionStream(titanChatRequest);
List<TitanChatResponseChunk> results = response.collectList().block();
詳細については、TitanChatBedrockApi [GitHub] (英語) の JavaDoc を参照してください。