AWS Bedrock
简介
Mistral AI 的开放和商业模型可以在 AWS Bedrock 云平台上作为完全托管的端点部署。AWS Bedrock 是一种无服务器服务,因此您无需管理任何基础设施。
截至今天,以下模型可用
- Mistral Large (24.07, 24.02)
- Mistral Small (24.02)
- Mixtral 8x7B
- Mistral 7B
更多详细信息,请访问模型页面。
入门
以下部分概述了在 AWS Bedrock 平台上部署和查询 Mistral 模型的步骤。
需要以下各项
- 有权访问支持 AWS Bedrock 服务并提供您选择的模型访问权限的区域中的 AWS 账户:请参阅AWS 文档,了解每个区域的模型可用性。
- 具有足够权限的 AWS IAM 主体(用户、角色),更多详细信息请参阅AWS 文档。
- 设置了相关 AWS SDK 组件的本地代码环境,即
请求访问模型
按照AWS 文档中的说明解锁访问您选择的 Mistral 模型。
查询模型
AWS Bedrock 模型可通过 Converse API 访问。
在运行以下示例之前,请务必
- 正确配置您的开发环境的身份验证凭据。AWS 文档提供了关于所需步骤的详细解释。
- 创建一个带有
boto3
包(版本 >=1.34.131
)的 Python 虚拟环境。 - 设置以下环境变量
AWS_REGION
:部署模型的区域(例如us-west-2
),AWS_BEDROCK_MODEL_ID
:模型 ID(例如mistral.mistral-large-2407-v1:0
)。
- Python
- AWS CLI
import boto3
import os
region = os.environ.get("AWS_REGION")
model_id = os.environ.get("AWS_BEDROCK_MODEL_ID")
bedrock_client = boto3.client(service_name='bedrock-runtime', region_name=region)
user_msg = "Who is the best French painter? Answer in one short sentence."
messages = [{"role": "user", "content": [{"text": user_msg}]}]
temperature = 0.0
max_tokens = 1024
params = {"modelId": model_id,
"messages": messages,
"inferenceConfig": {"temperature": temperature,
"maxTokens": max_tokens}}
resp = bedrock_client.converse(**params)
print(resp["output"]["message"]["content"][0]["text"])
aws bedrock-runtime converse \
--region $AWS_REGION \
--model-id $AWS_BEDROCK_MODEL_ID \
--messages '[{"role": "user", "content": [{"text": "Who is the best French painter? Answer in one short sentence."}]}]'
进一步了解
有关更多详细信息和示例,请参阅以下资源