Amazon Bedrock入門|インフラエンジニアのための生成AI活用とLLMのAWS組み込み方

現場実践|Amazon Bedrock入門
Amazon Bedrock入門|インフラエンジニアのための生成AI活用とLLMのAWS組み込み方
「AWSで生成AIを使いたい」「LambdaにAIを組み込むにはどうすればいい?」——Amazon Bedrockの主要モデル・Claude・Titan・LlamaのAPI呼び出し方法・実際のユースケースを解説します。
💡 Amazon Bedrockはモデルの管理なしにClaude・Llama等のFMモデルをAWS内から直接呼び出せるサービス。LambdaやECSのバックエンドにAIを組み込む最も手軽な方法です。
1. Amazon Bedrockの主要モデル
| モデル | 提供元 | 強み | 用途 |
|---|---|---|---|
| Claude 3.5 Sonnet/Haiku | Anthropic | 高品質・多言語対応・コード生成に強い | 文章生成・コード支援・分析 |
| Titan Text Express | Amazon | AWSネイティブ・低コスト | テキスト生成・要約 |
| Llama 3 | Meta | OSSで制限が少ない | チャットボット・コンテンツ生成 |
| Stable Diffusion | Stability AI | 画像生成 | アイキャッチ画像・商品画像生成 |
2. PythonからBedrockのClaude APIを呼び出す
import boto3
import json
bedrock = boto3.client("bedrock-runtime", region_name="us-east-1")
def invoke_claude(prompt: str) -> str:
body = {
"anthropic_version": "bedrock-2023-05-31",
"max_tokens": 1000,
"messages": [
{"role": "user", "content": prompt}
]
}
response = bedrock.invoke_model(
modelId="anthropic.claude-3-5-sonnet-20241022-v2:0",
body=json.dumps(body),
contentType="application/json"
)
result = json.loads(response["body"].read())
return result["content"][0]["text"]
# 使用例
response = invoke_claude("AWSのVPC設計のベストプラクティスを3つ教えてください")
print(response)3. インフラ業務でのBedrockの実用的なユースケース
- CloudWatchアラームの自動解析:アラームのメッセージをBedrockに渡して「考えられる原因と対処法」を自動生成してSlackに投稿する
- ドキュメント自動生成:Terraformコードを渡してBedrockに「このコードが作るインフラの説明書」を自動生成させる
- ログ異常の自然言語説明:エラーログをBedrockに渡して「これは何の問題か・解決策は何か」を自動生成してオペレーターへの通知に活用する
📌 この記事のポイント
- Amazon BedrockはClaude・Llama・Titanを管理なしでAWS内から呼び出せるサービス。LambdaにAIを組み込める
- boto3のbedrock-runtimeクライアントでinvoke_modelを呼び出すだけでClaudeを使ったAIが実装できる
- CloudWatchアラームの自動解析・Terraformドキュメント自動生成・ログの自然言語説明がインフラでの実用ユースケース
キャリアの疑問、一緒に解決しませんか?
Route Bloomでは、インフラ系ITエンジニアを目指す方への個別サポートを行っています。2026年7月からフリーランス講師として本格始動予定です。
ABOUT ME




