Llama チャット
Meta ’ s Llama チャット (英語) は、大規模な言語モデルの Llama コレクションの一部です。70 億から 700 億の範囲のパラメータースケールを持つ対話ベースのアプリケーションに優れています。Llama Chat は、公開データセットと 100 万を超える人間によるアノテーションを活用して、コンテキストを認識した対話を提供します。
公開データソースからの 2 兆個のトークンでトレーニングされた Llama-Chat は、洞察力のある会話のための広範な知識を提供します。1,000 時間を超えるレッドチームおよびアノテーション付けを含む厳格なテストにより、パフォーマンスと安全性の両方が保証され、AI 主導の対話にとって信頼できる選択肢となっています。
AWS Llama モデルページ [Amazon] および Amazon Bedrock ユーザーガイド には、AWS ホストモデルの使用方法に関する詳細情報が含まれています。
前提条件
API アクセスの設定については、Spring Amazon Bedrock に関する AI ドキュメントを参照してください。
自動構成
spring-ai-bedrock-ai-spring-boot-starter
依存関係をプロジェクトの Maven pom.xml
ファイルに追加します。
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>
または、Gradle build.gradle
ビルドファイルに保存します。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。 |
Llama チャットサポートを有効にする
デフォルトでは、Bedrock Llama モデルは無効になっています。これを有効にするには、spring.ai.bedrock.llama.chat.enabled
プロパティを true
に設定します。環境変数のエクスポートは、この構成プロパティを設定する 1 つの方法です。
export SPRING_AI_BEDROCK_LLAMA_CHAT_ENABLED=true
チャットのプロパティ
プレフィックス spring.ai.bedrock.aws
は、AWS Bedrock への接続を設定するためのプロパティプレフィックスです。
プロパティ | 説明 | デフォルト |
---|---|---|
spring.ai.bedrock.aws.region | 使用する AWS リージョン。 | 米国東部 -1 |
spring.ai.bedrock.aws.timeout | 使用する AWS タイムアウト。 | 5 分 |
spring.ai.bedrock.aws.access-key | AWS アクセスキー。 | - |
spring.ai.bedrock.aws.secret-key | AWS の秘密鍵。 | - |
プレフィックス spring.ai.bedrock.llama.chat
は、Llama のチャットモデル実装を構成するプロパティプレフィックスです。
プロパティ | 説明 | デフォルト |
---|---|---|
spring.ai.bedrock.llama.chat.enabled | Llama のサポートを有効または無効にする | false |
spring.ai.bedrock.llama.chat.model | 使用するモデル ID (下記を参照) | meta.llama3-70b-instruct-v1:0 |
spring.ai.bedrock.llama.chat.options.temperature | 出力のランダム性を制御します。値の範囲は [0.0,1.0] 以上です。値が 1.0 に近いほど、より多様なレスポンスが生成されますが、値が 0.0 に近いほど、通常はモデルからの驚くべきレスポンスが少なくなります。この値は、モデルの呼び出し中にバックエンドによって使用されるデフォルトを指定します。 | 0.7 |
spring.ai.bedrock.llama.chat.options.top-p | サンプリング時に考慮するトークンの最大累積確率。このモデルは、Top-k サンプリングと核サンプリングを組み合わせて使用します。nucleus サンプリングでは、確率の合計が少なくとも topP であるトークンの最小セットが考慮されます。 | AWS Bedrock のデフォルト |
spring.ai.bedrock.llama.chat.options.max-gen-len | 生成されたレスポンスで使用するトークンの最大数を指定します。生成されたテキストが maxGenLen を超えると、モデルはレスポンスを切り捨てます。 | 300 |
他のモデル ID については、LlamaChatBedrockApi#LlamaChatModel [GitHub] (英語) を参照してください。サポートされているもう 1 つの値は meta.llama2-13b-chat-v1
です。モデル ID 値は基本モデル ID に関する AWS Bedrock ドキュメント [Amazon] にもあります。
spring.ai.bedrock.llama.chat.options というプレフィックスが付いたすべてのプロパティは、リクエスト固有のランタイムオプションを Prompt 呼び出しに追加することで実行時にオーバーライドできます。 |
ランタイムオプション
BedrockLlChatOptions.java [GitHub] (英語) は、温度、topK、topP などのモデル構成を提供します。
起動時に、BedrockLlamaChatModel(api, options)
コンストラクターまたは spring.ai.bedrock.llama.chat.options.*
プロパティを使用してデフォルトのオプションを構成できます。
実行時に、新しいリクエスト固有のオプションを Prompt
呼び出しに追加することで、デフォルトのオプションをオーバーライドできます。たとえば、特定のリクエストのデフォルトの温度をオーバーライドするには、次のようにします。
ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates.",
BedrockLlamaChatOptions.builder()
.withTemperature(0.4)
.build()
));
モデル固有の BedrockLlamaChatOptions [GitHub] (英語) に加えて、ChatOptionsBuilder#builder() [GitHub] (英語) で作成されたポータブル ChatOptions [GitHub] (英語) インスタンスを使用できます。 |
サンプルコントローラー
新しい Spring Boot プロジェクトを作成し、spring-ai-bedrock-ai-spring-boot-starter
を pom (または gradle) の依存関係に追加します。
src/main/resources
ディレクトリに application.properties
ファイルを追加して、Anthropic チャットモデルを有効にして構成します。
spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=1000ms
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}
spring.ai.bedrock.llama.chat.enabled=true
spring.ai.bedrock.llama.chat.options.temperature=0.8
regions 、access-key 、secret-key を AWS 認証情報に置き換えます。 |
これにより、クラスに挿入できる BedrockLlamaChatModel
実装が作成されます。以下は、テキスト生成にチャットモデルを使用する単純な @Controller
クラスの例です。
@RestController
public class ChatController {
private final BedrockLlamaChatModel chatModel;
@Autowired
public ChatController(BedrockLlamaChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return chatModel.stream(prompt);
}
}
手動構成
BedrockLlamaChatModel [GitHub] (英語) は ChatModel
および StreamingChatModel
を実装し、低レベル LlamaChatBedrockApi クライアントを使用して Bedrock Anthropic サービスに接続します。
spring-ai-bedrock
依存関係をプロジェクトの Maven pom.xml
ファイルに追加します。
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock</artifactId>
</dependency>
または、Gradle build.gradle
ビルドファイルに保存します。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。 |
次に、BedrockLlamaChatModel [GitHub] (英語) を作成し、テキスト生成に使用します。
LlamaChatBedrockApi api = new LlamaChatBedrockApi(LlamaChatModel.LLAMA2_70B_CHAT_V1.id(),
EnvironmentVariableCredentialsProvider.create(),
Region.US_EAST_1.id(),
new ObjectMapper(),
Duration.ofMillis(1000L));
BedrockLlamaChatModel chatModel = new BedrockLlamaChatModel(api,
BedrockLlamaChatOptions.builder()
.withTemperature(0.5f)
.withMaxGenLen(100)
.withTopP(0.9f).build());
ChatResponse response = chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> response = chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
低レベル LlamaChatBedrockApi クライアント
LlamaChatBedrockApi [GitHub] (英語) は、AWS Bedrock Meta Llama 2 および Llama 2 チャットモデル [Amazon] 上で軽量の Java クライアントを提供します。
次のクラス図は、LlamaChatBedrockApi インターフェースと構成要素を示しています。
LlamaChatBedrockApi は、同期 (例: chatCompletion()
) およびストリーミング (例: chatCompletionStream()
) レスポンスの両方に対して meta.llama3-8b-instruct-v1:0
、meta.llama3-70b-instruct-v1:0
、meta.llama2-13b-chat-v1
、meta.llama2-70b-chat-v1
モデルをサポートします。
API をプログラムで使用する方法の簡単なスニペットを次に示します。
LlamaChatBedrockApi llamaChatApi = new LlamaChatBedrockApi(
LlamaChatModel.LLAMA3_70B_INSTRUCT_V1.id(),
Region.US_EAST_1.id(),
Duration.ofMillis(1000L));
LlamaChatRequest request = LlamaChatRequest.builder("Hello, my name is")
.withTemperature(0.9f)
.withTopP(0.9f)
.withMaxGenLen(20)
.build();
LlamaChatResponse response = llamaChatApi.chatCompletion(request);
// Streaming response
Flux<LlamaChatResponse> responseStream = llamaChatApi.chatCompletionStream(request);
List<LlamaChatResponse> responses = responseStream.collectList().block();
詳細については、LlamaChatBedrockApi.java [GitHub] (英語) の JavaDoc を参照してください。