クラス OllamaChatModel

java.lang.ObjectSE
org.springframework.ai.ollama.OllamaChatModel
実装されたすべてのインターフェース:
ChatModelStreamingChatModelModel<Prompt,ChatResponse>StreamingModel<Prompt,ChatResponse>

public class OllamaChatModel extends ObjectSE implements ChatModel
Ollama 向けの ChatModel 実装。Ollama は、開発者が大規模な言語モデルを実行し、ローカルで埋め込みを生成することを可能にします。[Ollama AI Library] (...) および Hugging Face で利用可能なオープンソースモデルをサポートしています。利用可能なモデルに関する最新情報は、Ollama の公式 Web サイトを参照してください。
導入:
1.0.0
作成者:
Christian Tzolov, luocongqiu, Thomas Vitale, Jihoon Kim, Alexandros Pappas, Ilayaperumal Gopinathan
  • コンストラクターの詳細

  • メソッドの詳細

    • builder

      public static OllamaChatModel.Builder builder()
    • call

      public ChatResponse call(Prompt prompt)
      インターフェースからコピーされた説明: Model
      AI モデルへのメソッド呼び出しを実行します。
      次で指定:
      インターフェース ChatModelcall 
      次で指定:
      インターフェース Model<Prompt,ChatResponse>call 
      パラメーター:
      prompt - AI モデルに送信されるリクエストオブジェクト
      戻り値:
      AI モデルからのレスポンス
    • stream

      public reactor.core.publisher.Flux<ChatResponse> stream(Prompt prompt)
      インターフェースからコピーされた説明: StreamingModel
      AI モデルへのメソッド呼び出しを実行します。
      次で指定:
      インターフェース ChatModelstream 
      次で指定:
      インターフェース StreamingChatModelstream 
      次で指定:
      インターフェース StreamingModel<Prompt,ChatResponse>stream 
      パラメーター:
      prompt - AI モデルに送信されるリクエストオブジェクト
      戻り値:
      AI モデルからのストリーミングレスポンス
    • getDefaultOptions

      public ChatOptions getDefaultOptions()
      次で指定:
      インターフェース ChatModelgetDefaultOptions 
    • setObservationConvention

      public void setObservationConvention(ChatModelObservationConvention observationConvention)
      観測データを報告するために提供された規則を使用する
      パラメーター:
      observationConvention - 提供された規約