骆驼聊天

Meta 的 Llama Chat 是大型语言模型 Llama 集合的一部分。 它在参数规模从 70 亿到 700 亿不等的基于对话的应用程序中表现出色。 利用公共数据集和超过 100 万条人工注释,Llama Chat 提供上下文感知对话。spring-doc.cadn.net.cn

Llama-Chat 使用来自公共数据源的 2 万亿个令牌进行训练,为有洞察力的对话提供了广泛的知识。 严格的测试,包括超过 1,000 小时的红队和注释,确保了性能和安全性,使其成为 AI 驱动对话的可靠选择。spring-doc.cadn.net.cn

AWS Llama 模型页面Amazon Bedrock 用户指南包含有关如何使用 AWS 托管模型的详细信息。spring-doc.cadn.net.cn

先决条件

添加存储库和 BOM

Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。请参阅 Repositories 部分,将这些存储库添加到您的构建系统中。spring-doc.cadn.net.cn

为了帮助进行依赖项管理,Spring AI 提供了一个 BOM(物料清单),以确保在整个项目中使用一致的 Spring AI 版本。请参阅依赖项管理部分,将 Spring AI BOM 添加到您的构建系统中。spring-doc.cadn.net.cn

自动配置

添加spring-ai-bedrock-ai-spring-boot-starter依赖项添加到项目的 Mavenpom.xml文件:spring-doc.cadn.net.cn

<dependency>
  <groupId>org.springframework.ai</groupId>
  <artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>

或发送到您的 Gradlebuild.gradlebuild 文件。spring-doc.cadn.net.cn

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。

启用 Llama Chat 支持

默认情况下,Bedrock Llama 模型处于禁用状态。 要启用它,请将spring.ai.bedrock.llama.chat.enabledproperty 设置为true. 导出环境变量是设置此配置属性的一种方法:spring-doc.cadn.net.cn

export SPRING_AI_BEDROCK_LLAMA_CHAT_ENABLED=true

聊天属性

前缀spring.ai.bedrock.aws是用于配置与 AWS Bedrock 的连接的属性前缀。spring-doc.cadn.net.cn

财产 描述 违约

spring.ai.bedrock.aws.regionspring-doc.cadn.net.cn

要使用的 AWS 区域。spring-doc.cadn.net.cn

us-east-1 (美国东部-1)spring-doc.cadn.net.cn

spring.ai.bedrock.aws.timeoutspring-doc.cadn.net.cn

要使用的 AWS 超时。spring-doc.cadn.net.cn

5 分钟spring-doc.cadn.net.cn

spring.ai.bedrock.aws.access-keyspring-doc.cadn.net.cn

AWS 访问密钥。spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

spring.ai.bedrock.aws.secret-keyspring-doc.cadn.net.cn

AWS 密钥。spring-doc.cadn.net.cn

-spring-doc.cadn.net.cn

前缀spring.ai.bedrock.llama.chat是为 Llama 配置聊天模型实现的属性前缀。spring-doc.cadn.net.cn

财产 描述 违约

spring.ai.bedrock.llama.chat.enabledspring-doc.cadn.net.cn

启用或禁用对 Llama 的支持spring-doc.cadn.net.cn

spring-doc.cadn.net.cn

spring.ai.bedrock.llama.chat.modelspring-doc.cadn.net.cn

要使用的模型 ID(见下文)spring-doc.cadn.net.cn

元.llama3-70b-instruct-v1:0spring-doc.cadn.net.cn

spring.ai.bedrock.llama.chat.options.temperaturespring-doc.cadn.net.cn

控制输出的随机性。值的范围可以超过 [0.0,1.0] 和 [0.0,1.0]。接近 1.0 的值将产生变化较大的响应,而接近 0.0 的值通常会导致来自模型的响应不那么令人惊讶。此值指定后端在调用模型时使用的 default。spring-doc.cadn.net.cn

0.7spring-doc.cadn.net.cn

spring.ai.bedrock.llama.chat.options.top-pspring-doc.cadn.net.cn

采样时要考虑的 token 的最大累积概率。该模型使用 Top-k 和原子核采样的组合。Nucleus 采样考虑概率和至少为 topP 的最小标记集。spring-doc.cadn.net.cn

AWS Bedrock 默认spring-doc.cadn.net.cn

spring.ai.bedrock.llama.chat.options.max gen-lenspring-doc.cadn.net.cn

指定要在生成的响应中使用的最大令牌数。一旦生成的文本超过 maxGenLen,模型就会截断响应。spring-doc.cadn.net.cn

300spring-doc.cadn.net.cn

查看 LlamaChatBedrockApi#LlamaChatModel 以获取其他模型 ID。支持的另一个值是meta.llama2-13b-chat-v1. 模型 ID 值也可以在 AWS Bedrock 文档中找到基本模型 IDspring-doc.cadn.net.cn

所有前缀为spring.ai.bedrock.llama.chat.options可以通过将特定于请求的运行时选项添加到Prompt叫。

运行时选项

BedrockLlChatOptions.java 提供模型配置,如 temperature、topK、topP 等。spring-doc.cadn.net.cn

启动时,可以使用BedrockLlamaChatModel(api, options)constructor 或spring.ai.bedrock.llama.chat.options.*性能。spring-doc.cadn.net.cn

在运行时,您可以通过向Prompt叫。 例如,要覆盖特定请求的默认温度:spring-doc.cadn.net.cn

ChatResponse response = chatModel.call(
    new Prompt(
        "Generate the names of 5 famous pirates.",
        BedrockLlamaChatOptions.builder()
            .withTemperature(0.4)
        .build()
    ));
除了特定于模型的 BedrockLlamaChatOptions 之外,您还可以使用通过 ChatOptionsBuilder#builder() 创建的可移植 ChatOptions 实例。

Samples控制器

创建一个新的 Spring Boot 项目并添加spring-ai-bedrock-ai-spring-boot-starter添加到您的 POM(或 Gradle)依赖项中。spring-doc.cadn.net.cn

添加application.properties文件中的src/main/resources目录中,以启用和配置 Anthropic 聊天模型:spring-doc.cadn.net.cn

spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=1000ms
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}

spring.ai.bedrock.llama.chat.enabled=true
spring.ai.bedrock.llama.chat.options.temperature=0.8
regions,access-keysecret-key替换为您的 AWS 凭证。

这将创建一个BedrockLlamaChatModel实现,您可以将其注入到您的类中。 下面是一个简单的示例@Controller使用 Chat 模型生成文本的类。spring-doc.cadn.net.cn

@RestController
public class ChatController {

    private final BedrockLlamaChatModel chatModel;

    @Autowired
    public ChatController(BedrockLlamaChatModel chatModel) {
        this.chatModel = chatModel;
    }

    @GetMapping("/ai/generate")
    public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        return Map.of("generation", this.chatModel.call(message));
    }

    @GetMapping("/ai/generateStream")
	public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
        Prompt prompt = new Prompt(new UserMessage(message));
        return this.chatModel.stream(prompt);
    }
}

手动配置

BedrockLlamaChatModel 实现了ChatModelStreamingChatModel并使用 Low-level LlamaChatBedrockApi Client 连接到 Bedrock Anthropic 服务。spring-doc.cadn.net.cn

添加spring-ai-bedrock依赖项添加到项目的 Mavenpom.xml文件:spring-doc.cadn.net.cn

<dependency>
    <groupId>org.springframework.ai</groupId>
    <artifactId>spring-ai-bedrock</artifactId>
</dependency>

或发送到您的 Gradlebuild.gradlebuild 文件。spring-doc.cadn.net.cn

dependencies {
    implementation 'org.springframework.ai:spring-ai-bedrock'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。

接下来,创建一个 BedrockLlamaChatModel 并将其用于文本生成:spring-doc.cadn.net.cn

LlamaChatBedrockApi api = new LlamaChatBedrockApi(LlamaChatModel.LLAMA2_70B_CHAT_V1.id(),
	EnvironmentVariableCredentialsProvider.create(),
	Region.US_EAST_1.id(),
	new ObjectMapper(),
	Duration.ofMillis(1000L));

BedrockLlamaChatModel chatModel = new BedrockLlamaChatModel(this.api,
    BedrockLlamaChatOptions.builder()
        .withTemperature(0.5)
        .withMaxGenLen(100)
        .withTopP(0.9).build());

ChatResponse response = this.chatModel.call(
    new Prompt("Generate the names of 5 famous pirates."));

// Or with streaming responses
Flux<ChatResponse> response = this.chatModel.stream(
    new Prompt("Generate the names of 5 famous pirates."));

低级 LlamaChatBedrockApi 客户端

LlamaChatBedrockApi 是基于 AWS Bedrock Meta Llama 2 和 Llama 2 Chat 模型构建的轻量级 Java 客户端。spring-doc.cadn.net.cn

以下类图说明了 LlamaChatBedrockApi 接口和构建块:spring-doc.cadn.net.cn

LlamaChatBedrockApi 类图

LlamaChatBedrockApi 支持meta.llama3-8b-instruct-v1:0,meta.llama3-70b-instruct-v1:0,meta.llama2-13b-chat-v1meta.llama2-70b-chat-v1同步模型(例如chatCompletion()) 和流式处理(例如chatCompletionStream()) 响应。spring-doc.cadn.net.cn

以下是如何以编程方式使用 api 的简单代码段:spring-doc.cadn.net.cn

LlamaChatBedrockApi llamaChatApi = new LlamaChatBedrockApi(
        LlamaChatModel.LLAMA3_70B_INSTRUCT_V1.id(),
        Region.US_EAST_1.id(),
        Duration.ofMillis(1000L));

LlamaChatRequest request = LlamaChatRequest.builder("Hello, my name is")
		.withTemperature(0.9)
		.withTopP(0.9)
		.withMaxGenLen(20)
		.build();

LlamaChatResponse response = this.llamaChatApi.chatCompletion(this.request);

// Streaming response
Flux<LlamaChatResponse> responseStream = this.llamaChatApi.chatCompletionStream(this.request);
List<LlamaChatResponse> responses = this.responseStream.collectList().block();

有关详细信息,请遵循 LlamaChatBedrockApi.java 的 JavaDoc。spring-doc.cadn.net.cn