Bedrock Anthropic 2 聊天
Anthropic 2 聊天 API 已弃用,取而代之的是新的 Anthropic Claude 3 消息 API。 对于新项目,请使用 Anthropic Claude 3 消息 API。 |
Anthropic 的 Claude 是一款 AI 助手,基于 Anthropic 对训练有用、诚实和无害的 AI 系统的研究。 Claude 模型具有以下高级功能
-
200k 代币上下文窗口:Claude 拥有 200,000 的慷慨代币容量,非常适合处理技术文档、代码库和文学作品等应用程序中的大量信息。
-
支持的任务: Claude 的多功能性涵盖摘要、问答、趋势预测和文档比较等任务,支持从对话到内容生成的广泛应用。
-
AI 安全功能: 基于 Anthropic 的安全研究,Claude 在其互动中优先考虑有用、诚实和无害,从而降低品牌风险并确保负责任的 AI 行为。
AWS Bedrock Anthropic 模型页面和 Amazon Bedrock 用户指南包含有关如何使用 AWS 托管模型的详细信息。
Anthropic 的 Claude 2 和 3 模型也可以直接在 Anthropic 自己的云平台上使用。 Spring AI 提供了专用的 Anthropic Claude 客户端来访问它。 |
先决条件
请参阅 Amazon Bedrock 上的 Spring AI 文档以设置 API 访问。
添加存储库和 BOM
Spring AI 工件发布在 Spring Milestone 和 Snapshot 存储库中。请参阅 Repositories 部分,将这些存储库添加到您的构建系统中。
为了帮助进行依赖项管理,Spring AI 提供了一个 BOM(物料清单),以确保在整个项目中使用一致的 Spring AI 版本。请参阅依赖项管理部分,将 Spring AI BOM 添加到您的构建系统中。
自动配置
添加spring-ai-bedrock-ai-spring-boot-starter
依赖项添加到项目的 Mavenpom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock-ai-spring-boot-starter</artifactId>
</dependency>
或发送到您的 Gradlebuild.gradle
build 文件。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock-ai-spring-boot-starter'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。 |
启用 Anthropic Chat
默认情况下,Anthropic 模型处于禁用状态。
要启用它,请将spring.ai.bedrock.anthropic.chat.enabled
property 设置为true
.
导出环境变量是设置此配置属性的一种方法:
export SPRING_AI_BEDROCK_ANTHROPIC_CHAT_ENABLED=true
聊天属性
前缀spring.ai.bedrock.aws
是用于配置与 AWS Bedrock 的连接的属性前缀。
财产 | 描述 | 违约 |
---|---|---|
spring.ai.bedrock.aws.region |
要使用的 AWS 区域。 |
us-east-1 (美国东部-1) |
spring.ai.bedrock.aws.timeout |
要使用的 AWS 超时。 |
5 分钟 |
spring.ai.bedrock.aws.access-key |
AWS 访问密钥。 |
- |
spring.ai.bedrock.aws.secret-key |
AWS 密钥。 |
- |
前缀spring.ai.bedrock.anthropic.chat
是为 Claude 配置聊天模型实现的属性前缀。
财产 | 描述 | 违约 |
---|---|---|
spring.ai.bedrock.anthropic.chat.enabled |
启用 Bedrock Anthropic 聊天模型。默认禁用 |
假 |
spring.ai.bedrock.anthropic.chat.model |
要使用的模型 ID。有关支持的模型,请参阅 AnthropicChatModel。 |
anthropic.claude-v2 |
spring.ai.bedrock.anthropic.chat.options.temperature |
控制输出的随机性。值的范围可以超过 [0.0,1.0] |
0.8 |
spring.ai.bedrock.anthropic.chat.options.topP |
采样时要考虑的 token 的最大累积概率。 |
AWS Bedrock 默认 |
spring.ai.bedrock.anthropic.chat.options.topK |
指定生成式用于生成下一个令牌的令牌选择数。 |
AWS Bedrock 默认 |
spring.ai.bedrock.anthropic.chat.options.stopSequences |
配置生成式识别的最多四个序列。在停止序列之后,生成停止生成更多标记。返回的文本不包含停止序列。 |
10 |
spring.ai.bedrock.anthropic.chat.options.anthropicVersion |
要使用的生成版本。 |
基岩-2023-05-31 |
spring.ai.bedrock.anthropic.chat.options.maxTokensToSample |
指定要在生成的响应中使用的最大令牌数。请注意,模型可能会在达到此最大值之前停止。此参数仅指定要生成的 Token 的绝对最大数量。我们建议将令牌数限制为 4,000 个,以获得最佳性能。 |
500 |
查看 AnthropicChatModel 以获取其他模型 ID。
支持的值为:anthropic.claude-instant-v1
,anthropic.claude-v2
和anthropic.claude-v2:1
.
模型 ID 值也可以在 AWS Bedrock 文档中找到基本模型 ID。
所有前缀为spring.ai.bedrock.anthropic.chat.options 可以通过将特定于请求的运行时选项添加到Prompt 叫。 |
运行时选项
AnthropicChatOptions.java 提供模型配置,例如 temperature、topK、topP 等。
启动时,可以使用BedrockAnthropicChatModel(api, options)
constructor 或spring.ai.bedrock.anthropic.chat.options.*
性能。
在运行时,您可以通过向Prompt
叫。
例如,要覆盖特定请求的默认温度:
ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates.",
AnthropicChatOptions.builder()
.withTemperature(0.4)
.build()
));
除了特定于模型的 AnthropicChatOptions 之外,您还可以使用通过 ChatOptionsBuilder#builder() 创建的可移植 ChatOptions 实例。 |
Samples控制器
创建一个新的 Spring Boot 项目并添加spring-ai-bedrock-ai-spring-boot-starter
添加到您的 POM(或 Gradle)依赖项中。
添加application.properties
文件中的src/main/resources
目录中,以启用和配置 Anthropic 聊天模型:
spring.ai.bedrock.aws.region=eu-central-1
spring.ai.bedrock.aws.timeout=1000ms
spring.ai.bedrock.aws.access-key=${AWS_ACCESS_KEY_ID}
spring.ai.bedrock.aws.secret-key=${AWS_SECRET_ACCESS_KEY}
spring.ai.bedrock.anthropic.chat.enabled=true
spring.ai.bedrock.anthropic.chat.options.temperature=0.8
spring.ai.bedrock.anthropic.chat.options.top-k=15
将regions ,access-key 和secret-key 替换为您的 AWS 凭证。 |
这将创建一个BedrockAnthropicChatModel
实现,您可以将其注入到您的类中。
下面是一个简单的示例@Controller
使用 Chat 模型生成文本的类。
@RestController
public class ChatController {
private final BedrockAnthropicChatModel chatModel;
@Autowired
public ChatController(BedrockAnthropicChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", this.chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
Prompt prompt = new Prompt(new UserMessage(message));
return this.chatModel.stream(prompt);
}
}
手动配置
BedrockAnthropicChatModel 实现了ChatModel
和StreamingChatModel
并使用低级 AnthropicChatBedrockApi 客户端连接到 Bedrock Anthropic 服务。
添加spring-ai-bedrock
依赖项添加到项目的 Mavenpom.xml
文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-bedrock</artifactId>
</dependency>
或发送到您的 Gradlebuild.gradle
build 文件。
dependencies {
implementation 'org.springframework.ai:spring-ai-bedrock'
}
请参阅 Dependency Management 部分,将 Spring AI BOM 添加到您的构建文件中。 |
接下来,创建一个 BedrockAnthropicChatModel 并将其用于文本生成:
AnthropicChatBedrockApi anthropicApi = new AnthropicChatBedrockApi(
AnthropicChatBedrockApi.AnthropicModel.CLAUDE_V2.id(),
EnvironmentVariableCredentialsProvider.create(),
Region.US_EAST_1.id(),
new ObjectMapper(),
Duration.ofMillis(1000L));
BedrockAnthropicChatModel chatModel = new BedrockAnthropicChatModel(this.anthropicApi,
AnthropicChatOptions.builder()
.withTemperature(0.6)
.withTopK(10)
.withTopP(0.8)
.withMaxTokensToSample(100)
.withAnthropicVersion(AnthropicChatBedrockApi.DEFAULT_ANTHROPIC_VERSION)
.build());
ChatResponse response = this.chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> response = this.chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
低级 AnthropicChatBedrockApi 客户端
AnthropicChatBedrockApi 提供的是基于 AWS Bedrock Anthropic Claude 模型的轻量级 Java 客户端。
以下类图说明了 AnthropicChatBedrockApi 接口和构建块:

客户端支持anthropic.claude-instant-v1
,anthropic.claude-v2
和anthropic.claude-v2:1
同步模型(例如chatCompletion()
) 和流式处理(例如chatCompletionStream()
) 响应。
以下是如何以编程方式使用 api 的简单代码段:
AnthropicChatBedrockApi anthropicChatApi = new AnthropicChatBedrockApi(
AnthropicModel.CLAUDE_V2.id(), Region.US_EAST_1.id(), Duration.ofMillis(1000L));
AnthropicChatRequest request = AnthropicChatRequest
.builder(String.format(AnthropicChatBedrockApi.PROMPT_TEMPLATE, "Name 3 famous pirates"))
.withTemperature(0.8)
.withMaxTokensToSample(300)
.withTopK(10)
.build();
// Sync request
AnthropicChatResponse response = this.anthropicChatApi.chatCompletion(this.request);
// Streaming request
Flux<AnthropicChatResponse> responseStream = this.anthropicChatApi.chatCompletionStream(this.request);
List<AnthropicChatResponse> responses = this.responseStream.collectList().block();
有关详细信息,请遵循 AnthropicChatBedrockApi.java 的 JavaDoc。