本日の主なトピック #
- Amazon ECR プルスルーキャッシュのOCIリファラー対応: イメージ署名やSBOMなどの関連データを自動で検出・同期し、セキュリティ管理を簡素化。
- Amazon SageMaker HyperPod の柔軟なインスタンスグループ: 複数インスタンスタイプとサブネットを単一グループで管理し、可用性向上と運用負荷軽減を実現。
¥3,520 Amazonで見る
AWS運用入門 改訂第2版 押さえておきたいAWSの基本と運用ノウハウ [AWS深掘りガイド] 単行本(ソフトカバー) – 2025/7/11
Amazon ECRのプルスルーキャッシュがリファラーの検出と同期に対応 #
投稿日: 2026年04月17日
何ができるようになったのか #
Amazon Elastic Container Registry (Amazon ECR) のプルスルーキャッシュ機能において、OCIリファラー(イメージ署名、SBOM、アテステーションなど)の自動検出と同期がサポートされました。これにより、アップストリームのリポジトリにある関連アーティファクトが、ECRのプライベートリポジトリへ自動的にキャッシュされます。
何が嬉しいのか #
イメージの署名検証やSBOM(ソフトウェア部品構成表)の取得を伴うワークフローが、プルスルーキャッシュリポジトリでもシームレスに動作するようになります。クライアント側で個別にアップストリームから取得するといった回避策が不要になり、セキュリティガバナンスの維持が容易になります。
これまでとどう変わるのか #
- これまで: プルスルーキャッシュルールが適用されたリポジトリに対してリファラーの一覧を要求しても、ECRはアップストリームからの同期や返却を行いませんでした。そのため、署名やSBOMが必要な場合は手動で取得・管理する必要がありました。
- これから: リファラーAPIのリクエスト時にECRが自動的にアップストリームを確認し、関連するアーティファクトをプライベートリポジトリにキャッシュして提供します。
具体的なユースケース #
- セキュリティスキャン: 外部リポジトリのイメージを利用する際、そのイメージに付随するSBOMを自動取得して脆弱性管理ツールと連携させる。
- イメージ整合性の検証: 実行環境(Amazon EKSなど)でのイメージデプロイ時に、プルスルーキャッシュ経由で取得した署名を用いて自動検証を行う。
OCIリファラーとは、あるコンテナイメージに関連付けられた別のオブジェクト(署名やメタデータなど)を指すOCI(Open Container Initiative)標準の仕様です。 主な特徴は以下の通りです。
- イメージそのものを変更することなく、追加のメタデータを紐付けることができる。
- Notation や Cosign といったツールによるデジタル署名の保存に利用される。
- SBOM (Software Bill of Materials) の配布にも広く用いられている。
Amazon SageMaker HyperPod が柔軟なインスタンスグループをサポート #
投稿日: 2026年04月17日
何ができるようになったのか #
Amazon SageMaker HyperPod において、単一のインスタンスグループ内で複数のインスタンスタイプと複数のサブネットを指定できる「柔軟なインスタンスグループ(Flexible instance groups)」がサポートされました。これにより、容量の可用性、コスト最適化、サブネット利用効率の向上のために複数のインスタンスタイプやアベイラビリティゾーン(AZ)を跨ぐ構成が容易になります。
何が嬉しいのか #
容量不足の際に、優先度の高いインスタンスタイプから順に自動でフォールバックが行われるため、ユーザーが手動でリトライしたり、複数のインスタンスグループを個別に管理したりする必要がなくなります。運用オーバーヘッドが大幅に削減され、特に大規模なトレーニングや推論ワークロードの安定性が向上します。
これまでとどう変わるのか #
- これまで: インスタンスタイプやAZの組み合わせごとに個別のインスタンスグループを作成し、管理する必要がありました。そのため、スケーリング、パッチ適用、モニタリングなどの運用が複雑化し、容量不足時の対応も手動で行う必要がありました。
- これから:
InstanceRequirementsパラメータを使用してインスタンスタイプの優先リストを定義し、複数のサブネットを1つのグループに登録できます。Karpenter を使用した自動スケーリングでも、単一の柔軟なインスタンスグループを参照するだけで最適なプロビジョニングが可能になります。
具体的なユースケース #
- 大規模言語モデル (LLM) のトレーニング: 単一のサブネットが枯渇しないよう複数のサブネットに分散配置しつつ、第一希望のGPUインスタンスが確保できない場合に代替のインスタンスタイプで即座に学習を開始する。
- 推論クラスターの自動スケーリング: Karpenter を活用し、ポッドの要求に応じて最適なインスタンスタイプとAZを柔軟に選択してプロビジョニングする。
SageMaker HyperPod は、大規模な機械学習モデルのトレーニング(分散学習)や推論に最適化された、レジリエンスの高いインフラストラクチャサービスです。 主な特徴は以下の通りです。
- クラスター内のインスタンスのヘルスチェックを自動で行い、障害発生時に自動で置き換えを行う。
- Amazon EKS などのオーケストレーターと連携し、大規模な計算資源を効率的に管理できる。
- 深層学習フレームワークに最適化されたネットワーク設定が事前に行われている。