Llama チャット

Meta ’ s Llama チャット (英語) は、大規模な言語モデルの Llama コレクションの一部です。70 億から 700 億の範囲のパラメータースケールを持つ対話ベースのアプリケーションに優れています。Llama Chat は、公開データセットと 100 万を超える人間によるアノテーションを活用して、コンテキストを認識した対話を提供します。

公開データソースからの 2 兆個のトークンでトレーニングされた Llama-Chat は、洞察力のある会話のための広範な知識を提供します。1,000 時間を超えるレッドチームおよびアノテーション付けを含む厳格なテストにより、パフォーマンスと安全性の両方が保証され、AI 主導の対話にとって信頼できる選択肢となっています。

AWS Llama モデルページ [Amazon] および Amazon Bedrock ユーザーガイド には、AWS ホストモデルの使用方法に関する詳細情報が含まれています。

前提条件

API アクセスの設定については、Spring Amazon Bedrock に関する AI ドキュメントを参照してください。

リポジトリと BOM の追加

Spring AI アーティファクトは、Spring マイルストーンおよびスナップショットリポジトリで公開されます。これらのリポジトリをビルドシステムに追加するには、リポジトリセクションを参照してください。

依存関係の管理を支援するために、Spring AI は BOM (部品表) を提供し、一貫したバージョンの Spring AI がプロジェクト全体で使用されるようにします。Spring AI BOM をビルドシステムに追加するには、"依存関係管理" セクションを参照してください。

自動構成

spring-ai-bedrock-ai-spring-boot-starter 依存関係をプロジェクトの Maven pom.xml ファイルに追加します。

<dependency>
  <groupId>org.springframework.ai</groupId>
  <artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>

または、Gradle build.gradle ビルドファイルに保存します。

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。

Llama チャットサポートを有効にする

デフォルトでは、Bedrock Llama モデルは無効になっています。これを有効にするには、spring.ai.bedrock.llama.chat.enabled プロパティを true に設定します。環境変数のエクスポートは、この構成プロパティを設定する 1 つの方法です。

export SPRING_AI_BEDROCK_LLAMA_CHAT_ENABLED=true

チャットのプロパティ

プレフィックス spring.ai.bedrock.aws は、AWS Bedrock への接続を設定するためのプロパティプレフィックスです。

プロパティ 説明 デフォルト

spring.ai.bedrock.aws.region

使用する AWS リージョン。

米国東部 -1

spring.ai.bedrock.aws.timeout

使用する AWS タイムアウト。

5 分

spring.ai.bedrock.aws.access-key

AWS アクセスキー。

-

spring.ai.bedrock.aws.secret-key

AWS の秘密鍵。

-

プレフィックス spring.ai.bedrock.llama.chat は、Llama のチャットモデル実装を構成するプロパティプレフィックスです。

プロパティ 説明 デフォルト

spring.ai.bedrock.llama.chat.enabled

Llama のサポートを有効または無効にする

false

spring.ai.bedrock.llama.chat.model

使用するモデル ID (下記を参照)

meta.llama3-70b-instruct-v1:0

spring.ai.bedrock.llama.chat.options.temperature

出力のランダム性を制御します。値の範囲は [0.0,1.0] 以上です。値が 1.0 に近いほど、より多様なレスポンスが生成されますが、値が 0.0 に近いほど、通常はモデルからの驚くべきレスポンスが少なくなります。この値は、モデルの呼び出し中にバックエンドによって使用されるデフォルトを指定します。

0.7

spring.ai.bedrock.llama.chat.options.top-p

サンプリング時に考慮するトークンの最大累積確率。このモデルは、Top-k サンプリングと核サンプリングを組み合わせて使用します。nucleus サンプリングでは、確率の合計が少なくとも topP であるトークンの最小セットが考慮されます。

AWS Bedrock のデフォルト

spring.ai.bedrock.llama.chat.options.max-gen-len

生成されたレスポンスで使用するトークンの最大数を指定します。生成されたテキストが maxGenLen を超えると、モデルはレスポンスを切り捨てます。

300

他のモデル ID については、LlamaChatBedrockApi#LlamaChatModel [GitHub] (英語) を参照してください。サポートされているもう 1 つの値は meta.llama2-13b-chat-v1 です。モデル ID 値は基本モデル ID に関する AWS Bedrock ドキュメント [Amazon] にもあります。

spring.ai.bedrock.llama.chat.options というプレフィックスが付いたすべてのプロパティは、リクエスト固有のランタイムオプションを Prompt 呼び出しに追加することで実行時にオーバーライドできます。

ランタイムオプション

BedrockLlChatOptions.java [GitHub] (英語) は、温度、topK、topP などのモデル構成を提供します。

起動時に、BedrockLlamaChatModel(api, options) コンストラクターまたは spring.ai.bedrock.llama.chat.options.* プロパティを使用してデフォルトのオプションを構成できます。

実行時に、新しいリクエスト固有のオプションを Prompt 呼び出しに追加することで、デフォルトのオプションをオーバーライドできます。たとえば、特定のリクエストのデフォルトの温度をオーバーライドするには、次のようにします。

ChatResponse response = chatModel.call(
    new Prompt(
        "Generate the names of 5 famous pirates.",
        BedrockLlamaChatOptions.builder()
            .withTemperature(0.4)
        .build()
    ));
モデル固有の BedrockLlamaChatOptions [GitHub] (英語) に加えて、ChatOptionsBuilder#builder() [GitHub] (英語) で作成されたポータブル ChatOptions [GitHub] (英語) インスタンスを使用できます。

サンプルコントローラー

新しい Spring Boot プロジェクトを作成し、spring-ai-bedrock-ai-spring-boot-starter を pom (または gradle) の依存関係に追加します。

src/main/resources ディレクトリに application.properties ファイルを追加して、Anthropic チャットモデルを有効にして構成します。

spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=1000ms
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}

spring.ai.bedrock.llama.chat.enabled=true
spring.ai.bedrock.llama.chat.options.temperature=0.8
regionsaccess-keysecret-key を AWS 認証情報に置き換えます。

これにより、クラスに挿入できる BedrockLlamaChatModel 実装が作成されます。以下は、テキスト生成にチャットモデルを使用する単純な @Controller クラスの例です。

@RestController
public class ChatController {

    private final BedrockLlamaChatModel chatModel;

    @Autowired
    public ChatController(BedrockLlamaChatModel chatModel) {
        this.chatModel = chatModel;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", chatModel.call(message));
    }

    @GetMapping("/ai/generateStream")
	public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        Prompt prompt = new Prompt(new UserMessage(message));
        return chatModel.stream(prompt);
    }
}

手動構成

BedrockLlamaChatModel [GitHub] (英語) は ChatModel および StreamingChatModel を実装し、低レベル LlamaChatBedrockApi クライアントを使用して Bedrock Anthropic サービスに接続します。

spring-ai-bedrock 依存関係をプロジェクトの Maven pom.xml ファイルに追加します。

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-bedrock</artifactId>
</dependency>

または、Gradle build.gradle ビルドファイルに保存します。

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock'
}
Spring AI BOM をビルドファイルに追加するには、"依存関係管理" セクションを参照してください。

次に、BedrockLlamaChatModel [GitHub] (英語) を作成し、テキスト生成に使用します。

LlamaChatBedrockApi api = new LlamaChatBedrockApi(LlamaChatModel.LLAMA2_70B_CHAT_V1.id(),
	EnvironmentVariableCredentialsProvider.create(),
	Region.US_EAST_1.id(),
	new ObjectMapper(),
	Duration.ofMillis(1000L));

BedrockLlamaChatModel chatModel = new BedrockLlamaChatModel(api,
    BedrockLlamaChatOptions.builder()
        .withTemperature(0.5f)
        .withMaxGenLen(100)
        .withTopP(0.9f).build());

ChatResponse response = chatModel.call(
    new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> response = chatModel.stream(
    new Prompt("Generate the names of 5 famous pirates."));

低レベル LlamaChatBedrockApi クライアント

LlamaChatBedrockApi [GitHub] (英語) は、AWS Bedrock Meta Llama 2 および Llama 2 チャットモデル [Amazon] 上で軽量の Java クライアントを提供します。

次のクラス図は、LlamaChatBedrockApi インターフェースと構成要素を示しています。

LlamaChatBedrockApi Class Diagram

LlamaChatBedrockApi は、同期 (例: chatCompletion()) およびストリーミング (例: chatCompletionStream()) レスポンスの両方に対して meta.llama3-8b-instruct-v1:0meta.llama3-70b-instruct-v1:0meta.llama2-13b-chat-v1meta.llama2-70b-chat-v1 モデルをサポートします。

API をプログラムで使用する方法の簡単なスニペットを次に示します。

LlamaChatBedrockApi llamaChatApi = new LlamaChatBedrockApi(
        LlamaChatModel.LLAMA3_70B_INSTRUCT_V1.id(),
        Region.US_EAST_1.id(),
        Duration.ofMillis(1000L));

LlamaChatRequest request = LlamaChatRequest.builder("Hello, my name is")
		.withTemperature(0.9f)
		.withTopP(0.9f)
		.withMaxGenLen(20)
		.build();

LlamaChatResponse response = llamaChatApi.chatCompletion(request);

// Streaming response
Flux<LlamaChatResponse> responseStream = llamaChatApi.chatCompletionStream(request);
List<LlamaChatResponse> responses = responseStream.collectList().block();

詳細については、LlamaChatBedrockApi.java [GitHub] (英語) の JavaDoc を参照してください。