骆驼聊天
Meta 的 Llama Chat 是大型语言模型 Llama 集合的一部分。 它在参数规模从 70 亿到 700 亿不等的基于对话的应用程序中表现出色。 利用公共数据集和超过 100 万条人工注释,Llama Chat 提供上下文感知对话。
Llama-Chat 使用来自公共数据源的 2 万亿个令牌进行训练,为有洞察力的对话提供了广泛的知识。 严格的测试,包括超过 1,000 小时的红队和注释,确保了性能和安全性,使其成为 AI 驱动对话的可靠选择。
AWS Llama 模型页面和 Amazon Bedrock 用户指南包含有关如何使用 AWS 托管模型的详细信息。
先决条件
请参阅 Amazon Bedrock 上的 Spring AI 文档以设置 API 访问。
添加存储库和 BOM
Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。请参阅 Repositories 部分,将这些存储库添加到您的构建系统中。
为了帮助进行依赖项管理,Spring AI 提供了一个 BOM(物料清单),以确保在整个项目中使用一致的 Spring AI 版本。请参阅依赖项管理部分,将 Spring AI BOM 添加到您的构建系统中。
自动配置
添加spring-ai-bedrock-ai-spring-boot-starter
依赖项添加到项目的 Mavenpom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>
或发送到您的 Gradlebuild.gradle
build 文件。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。 |
启用 Llama Chat 支持
默认情况下,Bedrock Llama 模型处于禁用状态。
要启用它,请将spring.ai.bedrock.llama.chat.enabled
property 设置为true
.
导出环境变量是设置此配置属性的一种方法:
export SPRING_AI_BEDROCK_LLAMA_CHAT_ENABLED=true
聊天属性
前缀spring.ai.bedrock.aws
是用于配置与 AWS Bedrock 的连接的属性前缀。
财产 | 描述 | 违约 |
---|---|---|
spring.ai.bedrock.aws.region |
要使用的 AWS 区域。 |
us-east-1 (美国东部-1) |
spring.ai.bedrock.aws.timeout |
要使用的 AWS 超时。 |
5 分钟 |
spring.ai.bedrock.aws.access-key |
AWS 访问密钥。 |
- |
spring.ai.bedrock.aws.secret-key |
AWS 密钥。 |
- |
前缀spring.ai.bedrock.llama.chat
是为 Llama 配置聊天模型实现的属性前缀。
财产 | 描述 | 违约 |
---|---|---|
spring.ai.bedrock.llama.chat.enabled |
启用或禁用对 Llama 的支持 |
假 |
spring.ai.bedrock.llama.chat.model |
要使用的模型 ID(见下文) |
元.llama3-70b-instruct-v1:0 |
spring.ai.bedrock.llama.chat.options.temperature |
控制输出的随机性。值的范围可以超过 [0.0,1.0] 和 [0.0,1.0]。接近 1.0 的值将产生变化较大的响应,而接近 0.0 的值通常会导致来自模型的响应不那么令人惊讶。此值指定后端在调用模型时使用的 default。 |
0.7 |
spring.ai.bedrock.llama.chat.options.top-p |
采样时要考虑的 token 的最大累积概率。该模型使用 Top-k 和原子核采样的组合。Nucleus 采样考虑概率和至少为 topP 的最小标记集。 |
AWS Bedrock 默认 |
spring.ai.bedrock.llama.chat.options.max gen-len |
指定要在生成的响应中使用的最大令牌数。一旦生成的文本超过 maxGenLen,模型就会截断响应。 |
300 |
查看 LlamaChatBedrockApi#LlamaChatModel 以获取其他模型 ID。支持的另一个值是meta.llama2-13b-chat-v1
.
模型 ID 值也可以在 AWS Bedrock 文档中找到基本模型 ID。
所有前缀为spring.ai.bedrock.llama.chat.options 可以通过将特定于请求的运行时选项添加到Prompt 叫。 |
运行时选项
BedrockLlChatOptions.java 提供模型配置,如 temperature、topK、topP 等。
启动时,可以使用BedrockLlamaChatModel(api, options)
constructor 或spring.ai.bedrock.llama.chat.options.*
性能。
在运行时,您可以通过向Prompt
叫。
例如,要覆盖特定请求的默认温度:
ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates.",
BedrockLlamaChatOptions.builder()
.withTemperature(0.4)
.build()
));
除了特定于模型的 BedrockLlamaChatOptions 之外,您还可以使用通过 ChatOptionsBuilder#builder() 创建的可移植 ChatOptions 实例。 |
Samples控制器
创建一个新的 Spring Boot 项目并添加spring-ai-bedrock-ai-spring-boot-starter
添加到您的 POM(或 Gradle)依赖项中。
添加application.properties
文件中的src/main/resources
目录中,以启用和配置 Anthropic 聊天模型:
spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=1000ms
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}
spring.ai.bedrock.llama.chat.enabled=true
spring.ai.bedrock.llama.chat.options.temperature=0.8
将regions ,access-key 和secret-key 替换为您的 AWS 凭证。 |
这将创建一个BedrockLlamaChatModel
实现,您可以将其注入到您的类中。
下面是一个简单的示例@Controller
使用 Chat 模型生成文本的类。
@RestController
public class ChatController {
private final BedrockLlamaChatModel chatModel;
@Autowired
public ChatController(BedrockLlamaChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", this.chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return this.chatModel.stream(prompt);
}
}
手动配置
BedrockLlamaChatModel 实现了ChatModel
和StreamingChatModel
并使用 Low-level LlamaChatBedrockApi Client 连接到 Bedrock Anthropic 服务。
添加spring-ai-bedrock
依赖项添加到项目的 Mavenpom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock</artifactId>
</dependency>
或发送到您的 Gradlebuild.gradle
build 文件。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。 |
接下来,创建一个 BedrockLlamaChatModel 并将其用于文本生成:
LlamaChatBedrockApi api = new LlamaChatBedrockApi(LlamaChatModel.LLAMA2_70B_CHAT_V1.id(),
EnvironmentVariableCredentialsProvider.create(),
Region.US_EAST_1.id(),
new ObjectMapper(),
Duration.ofMillis(1000L));
BedrockLlamaChatModel chatModel = new BedrockLlamaChatModel(this.api,
BedrockLlamaChatOptions.builder()
.withTemperature(0.5)
.withMaxGenLen(100)
.withTopP(0.9).build());
ChatResponse response = this.chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> response = this.chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
低级 LlamaChatBedrockApi 客户端
LlamaChatBedrockApi 是基于 AWS Bedrock Meta Llama 2 和 Llama 2 Chat 模型构建的轻量级 Java 客户端。
以下类图说明了 LlamaChatBedrockApi 接口和构建块:

LlamaChatBedrockApi 支持meta.llama3-8b-instruct-v1:0
,meta.llama3-70b-instruct-v1:0
,meta.llama2-13b-chat-v1
和meta.llama2-70b-chat-v1
同步模型(例如chatCompletion()
) 和流式处理(例如chatCompletionStream()
) 响应。
以下是如何以编程方式使用 api 的简单代码段:
LlamaChatBedrockApi llamaChatApi = new LlamaChatBedrockApi(
LlamaChatModel.LLAMA3_70B_INSTRUCT_V1.id(),
Region.US_EAST_1.id(),
Duration.ofMillis(1000L));
LlamaChatRequest request = LlamaChatRequest.builder("Hello, my name is")
.withTemperature(0.9)
.withTopP(0.9)
.withMaxGenLen(20)
.build();
LlamaChatResponse response = this.llamaChatApi.chatCompletion(this.request);
// Streaming response
Flux<LlamaChatResponse> responseStream = this.llamaChatApi.chatCompletionStream(this.request);
List<LlamaChatResponse> responses = this.responseStream.collectList().block();
有关详细信息,请遵循 LlamaChatBedrockApi.java 的 JavaDoc。