AWSの基礎力をつけるためにAWS What’s Newを毎日目を通す事を始めました。 最初は日本語訳されたものを見ていたのですが、1週間ほど遅れて訳されるようなので、英語の情報を訳して整理することにしました。
本情報が役立つ人もいるかなと思い公開します。 個人的な理解なので、実際の情報は原典をあたってください。
¥3,520 Amazonで見る
AWS運用入門 改訂第2版 押さえておきたいAWSの基本と運用ノウハウ [AWS深掘りガイド] 単行本(ソフトカバー) – 2025/7/11
Amazon Aurora が PostgreSQL 17.6、16.10、15.14、14.19、13.22 のマイナーバージョンをサポート開始 #
投稿日: Nov 26, 2025
何ができるようになったのか #
Amazon Aurora PostgreSQL 互換エディションが、PostgreSQL のマイナーバージョン 17.6、16.10、15.14、14.19、13.22 のサポートを開始しました。これにより、PostgreSQL コミュニティの製品改善とバグ修正、および Aurora 固有の機能強化が利用可能になります。
特に、以下の新機能と改善が含まれます。
- Dynamic Data Masking (DDM) (16.10 および 17.6 のみ): ロールベースのポリシーに基づき、クエリ時に動的に列値をマスクすることで、個人を特定できる情報などの機密データを保護します。実際の保存データは変更されません。
- 共有計画キャッシュ: データベースのパフォーマンスを向上させます。
- パフォーマンスおよびリカバリ目標時間 (RTO) の改善: システムの可用性と回復力を高めます。
- グローバルデータベースのスイッチオーバーの改善: グローバルデータベース環境での運用がよりスムーズになります。
何が嬉しいのか #
最新のPostgreSQLの機能とセキュリティ修正を利用できるため、アプリケーションのパフォーマンス、セキュリティ、信頼性が向上します。特にDDMは、機密データ保護の要件が厳しい規制環境において大きな利点をもたらします。また、パフォーマンスとRTOの改善により、ビジネス継続性が強化され、運用負荷が軽減されます。
これまでとどう変わるのか #
- これまで: 古いバージョンのPostgreSQLを使用している場合、最新の機能やセキュリティ修正、パフォーマンス改善の恩恵を受けられませんでした。DDMのような高度なデータ保護機能も利用できませんでした。
- これから: 最新のマイナーバージョンにアップグレードすることで、コミュニティの最新の機能強化やバグ修正、Aurora固有の改善(DDM、共有計画キャッシュ、RTO改善、グローバルデータベーススイッチオーバーの改善)を享受できるようになります。
具体的なユースケース #
- 金融機関や医療機関: DDMを活用して、個人情報などの機密データをデータベースレベルで動的にマスクし、コンプライアンス要件を満たしながらデータセキュリティを強化します。
- 高負荷なトランザクション処理を行うシステム: 共有計画キャッシュとパフォーマンス改善により、データベースの応答速度とスループットを向上させます。
- グローバルに展開するアプリケーション: グローバルデータベースのスイッチオーバーの改善により、災害復旧やリージョン間のデータ移行をより迅速かつ信頼性高く実行できます。
Amazon Bedrock でリザーブドサービス階層 (Reserved Service Tier) が利用可能に #
投稿日: Nov 26, 2025
何ができるようになったのか #
Amazon Bedrock で、推論ワークロードのコストを削減できる新しいリザーブドサービス階層が導入されました。これにより、特定のベースモデル(Anthropic Claude 2.1、Claude 2.0、Claude Instant、Cohere Command、Embed-english、Embed-multilingual)に対して、コミットメント期間を設けることで割引料金が適用されます。
この新機能は、現在、米国東部(バージニア北部)、米国西部(オレゴン)、アジアパシフィック(シンガポール)、アジアパシフィック(東京)、欧州(フランクフルト)、および欧州(アイルランド)の AWS リージョンで利用可能です。
何が嬉しいのか #
リザーブドサービス階層を利用することで、予測可能な推論ワークロードを持つユーザーは、大幅なコスト削減を実現できます。特に、大規模な言語モデル(LLM)の利用が継続的かつ安定している場合、運用コストを最適化し、予算管理を容易にすることができます。
これまでとどう変わるのか #
- これまで: Amazon Bedrock の利用はオンデマンド料金が主であり、使用量に応じた課金でした。大規模なワークロードの場合、コストが変動しやすく、最適化が難しい側面がありました。
- これから: リザーブドサービス階層を導入することで、一定量の利用をコミットすることにより、より低い単価で Bedrock サービスを利用できるようになります。これにより、コスト効率が向上し、長期的な利用計画が立てやすくなります。
具体的なユースケース #
- エンタープライズ企業: 大規模な顧客サポートシステムやコンテンツ生成システムで、Anthropic Claude や Cohere Command などのモデルを継続的に利用する場合、リザーブドサービス階層を契約することで大幅なコスト削減が期待できます。
- 研究機関: LLM を用いた大規模なデータ分析やシミュレーションを頻繁に実行する場合、予測可能なコストで安定したリソースを確保できます。
- スタートアップ企業: サービス開始後の成長を見込み、将来的な利用量に対するコストを事前に最適化することで、効率的な事業運営を目指せます。
Amazon Kinesis Video Streams がウォームストレージ階層を導入 #
投稿日: Nov 27, 2025
何ができるようになったのか #
Amazon Kinesis Video Streams が、低コストなウォームストレージ階層を導入しました。これにより、メディアストリームをリアルタイム処理するアプリケーションは、必要に応じて数分以内にメディアフラグメントを取得できるようになります。この新しいストレージ階層は、低頻度のアクセスパターンや、リアルタイム処理が必要ないが迅速なデータアクセスが求められるユースケースに最適です。
ウォームストレージ階層は、現在、米国東部(バージニア北部)、米国西部(オレゴン)、欧州(フランクフルト)、アジアパシフィック(東京)、およびアジアパシフィック(シドニー)の AWS リージョンで利用可能です。
何が嬉しいのか #
ウォームストレージ階層の導入により、Kinesis Video Streams のコスト効率が向上します。特に、ライブストリーミングデータの一部をアーカイブとして長期間保存しつつ、必要に応じて迅速にアクセスしたい場合に、以前よりも大幅にストレージコストを削減できます。これにより、より多くのデータを保存し、より柔軟なデータ利用が可能になります。
これまでとどう変わるのか #
- これまで: Kinesis Video Streams は、リアルタイム処理に特化した高価なホットストレージが中心でした。そのため、低頻度アクセスやアーカイブ用途での利用コストが高くなりがちでした。
- これから: ウォームストレージ階層が追加されたことで、リアルタイム処理が不要なデータや、アクセス頻度の低いデータに対して、より低コストで迅速なアクセス(数分以内)が可能なストレージを選択できるようになりました。これにより、ストレージ戦略の柔軟性が増し、総コストを最適化できます。
具体的なユースケース #
- 監視カメラの映像アーカイブ: 多数の監視カメラからの映像を長期保存し、異常発生時のみ過去数日間の映像を迅速にレビューする必要がある場合。ウォームストレージを利用することで、アーカイブコストを抑えつつ、必要な時にすぐに映像を取得できます。
- ドライブレコーダーの映像記録: 車両のドライブレコーダー映像をクラウドにアップロードし、事故発生時など特定のイベント発生時にのみ関連映像を検索・取得する場合。
- IoTデバイスからのデータ収集: IoTデバイスから送られてくる大量のビデオデータを保存し、特定の期間のデータを分析目的で後から取得する場合。
Amazon S3 のメタデータ機能が 22 の AWS リージョンに拡大 #
投稿日: Nov 27, 2025
何ができるようになったのか #
Amazon S3 は、オブジェクトのカスタムメタデータを最大 22 の AWS リージョンに自動的にレプリケートできるようになりました。これにより、データレプリケーション機能が大幅に強化され、カスタムメタデータとオブジェクトデータの一貫性が向上します。
以前は、オブジェクトレプリケーションの際にオブジェクトデータはレプリケートされていましたが、カスタムメタデータは別途管理する必要がありました。今回の更新により、この手動での管理作業が不要になります。
何が嬉しいのか #
この機能拡張により、グローバルに分散した S3 バケット間でデータを扱う際の運用複雑性が軽減され、データの一貫性と信頼性が向上します。特に、マルチリージョンアーキテクチャを持つアプリケーションや、災害対策、コンプライアンス要件の厳しい環境において、データ管理の効率化とコスト削減に貢献します。開発者はメタデータの一貫性を確保するためのカスタムロジックを記述する必要がなくなります。
これまでとどう変わるのか #
- これまで: Amazon S3 のオブジェクトレプリケーションでは、オブジェクトデータは自動的にレプリケートされましたが、ユーザーが追加したカスタムメタデータは自動レプリケーションの対象外でした。そのため、カスタムメタデータを手動で同期するか、複雑なカスタムロジックを実装する必要がありました。
- これから: 今回の機能拡張により、S3 オブジェクトのカスタムメタデータも自動的にレプリケートされるようになります。これにより、オブジェクトとその関連メタデータが常に同期され、データの一貫性が保証されるとともに、運用上の手間とエラーのリスクが大幅に削減されます。
具体的なユースケース #
- グローバルデータレイク: 世界中のユーザーが利用するデータレイクにおいて、各オブジェクトに付与された分類情報やタグなどのカスタムメタデータを自動的に同期し、一貫したデータカタログを維持します。
- 災害対策 (DR) 戦略: プライマリリージョンからセカンダリリージョンへのデータレプリケーションにおいて、オブジェクトデータだけでなく、重要なカスタムメタデータも確実に複製し、迅速なフェイルオーバーと復旧を可能にします。
- コンテンツ配信ネットワーク (CDN): 画像や動画などのアセットに、キャッシュポリシーや有効期限などのカスタムメタデータを付与している場合、それらのメタデータもエッジロケーションにレプリケートされ、一貫したコンテンツ配信を実現します。
Amazon SageMaker HyperPod がプログラムによるノード再起動と交換をサポート #
投稿日: Nov 27, 2025
何ができるようになったのか #
Amazon SageMaker HyperPod は、機械学習 (ML) ワークロードのための分散トレーニングインフラストラクチャであり、プログラムによるノードの再起動と交換の機能をサポートするようになりました。この機能により、開発者は HyperPod クラスタ内の個々のノードの状態をより詳細に制御できるようになり、ハードウェア障害やソフトウェアの不具合が発生した場合でも、トレーニングジョブの中断を最小限に抑えることができます。
この機能は、API コールを通じて利用でき、特定のノードの再起動または新しいインスタンスへの交換をトリガーすることが可能です。
何が嬉しいのか #
この新機能により、SageMaker HyperPod を利用する ML 開発者は、大規模な分散トレーニングにおいて、より高い信頼性と回復力を得ることができます。ノード障害が発生しても、自動または手動で迅速にノードを再起動または交換できるため、貴重なトレーニング時間を節約し、MLモデル開発の効率を高めることができます。これにより、システムのダウンタイムが減少し、研究開発のサイクルが短縮されます。
これまでとどう変わるのか #
- これまで: HyperPod クラスタ内でノード障害が発生した場合、そのノードの復旧は自動化されていましたが、開発者がプログラムを通じて明示的に介入し、ノードの再起動や交換を制御する直接的な方法は限られていました。これにより、障害発生時の対応が受け身になりがちでした。
- これから: プログラムによるノードの再起動と交換機能が追加されたことで、開発者は自身のアプリケーションロジックや監視システムと連携して、ノードの状態に基づいて動的にアクションを起こせるようになります。これにより、より高度な障害復旧戦略を実装し、トレーニングの中断を最小限に抑えることが可能になります。
具体的なユースケース #
- ハードウェア障害の自動復旧: 分散トレーニング中に特定の GPU インスタンスに一時的なハードウェア障害が発生した場合、監視システムがこれを検知し、自動的に該当ノードの再起動をトリガーしてトレーニングを続行します。
- ソフトウェアのデッドロックからの回復: 複数のノード間でソフトウェアのデッドロックが発生し、トレーニングが停止した場合、開発者は影響を受けるノードをプログラムで再起動し、トレーニングプロセスをリセットして再開できます。
- パフォーマンス低下ノードの交換: 特定のノードのパフォーマンスが著しく低下していることを検知した場合、そのノードを新しいインスタンスに交換することで、トレーニング全体の効率を維持します。
AWS Glue が Apache Iceberg v3 と削除ベクターおよび行レベル履歴のサポートを強化 #
投稿日: Nov 27, 2025
何ができるようになったのか #
AWS Glue は、データのトランザクション処理と管理を強化するため、Apache Iceberg v3 のサポートを導入しました。これにより、削除ベクターと行レベル履歴の機能が利用可能になり、データレイクハウス環境におけるデータ管理の柔軟性と効率が大幅に向上します。
- 削除ベクター (Deletion Vectors): 行の削除を物理的にデータを書き換えることなく追跡できるため、更新や削除の操作が高速化され、ストレージコストが削減されます。
- 行レベル履歴 (Row-Level Lineage): 各行の変更履歴を詳細に追跡できるため、データの監査、トラブルシューティング、およびデータ品質の維持が容易になります。
この機能は、AWS Glue の最新バージョンで利用可能であり、Apache Iceberg を使用するデータレイクハウスアーキテクチャに大きなメリットをもたらします。
何が嬉しいのか #
Apache Iceberg v3 のサポートと削除ベクター、行レベル履歴の機能強化により、データレイクハウスの運用がより効率的かつ信頼性の高いものになります。特に、頻繁に更新や削除が行われるデータセット(例:CDC データ、GDPR に対応するためのデータ削除)を扱う際に、パフォーマンスの向上とコンプライアンスの強化が期待できます。データ変更の透明性が高まることで、データガバナンスとデータ品質管理も改善されます。
これまでとどう変わるのか #
- これまで: Apache Iceberg を使用してデータレイクハウスを構築する場合、削除や更新操作は完全なデータの書き換えを伴うことが多く、リソース消費と処理時間が大きくなる傾向がありました。また、行レベルでの詳細な変更履歴を追跡するのは困難でした。
- これから: 削除ベクターの導入により、物理的な書き換えなしに行の削除を効率的に処理できるようになり、更新・削除操作のパフォーマンスが向上します。行レベル履歴によって、各データ行のライフサイクル全体を詳細に監査・分析することが可能になり、データ品質とコンプライアンスが強化されます。
具体的なユースケース #
- 変更データキャプチャ (CDC) の実装: データベースからの変更データを効率的にデータレイクに反映させ、削除や更新操作を削除ベクターを使って高速化します。
- GDPR や CCPA などのデータプライバシー規制への対応: 特定のデータ主体に関する情報を削除する必要がある場合、削除ベクターを使用して効率的に行をマークし、行レベル履歴で削除プロセスを監査します。
- データ品質の監視とトラブルシューティング: データセット内の特定の行がどのように変更されたかを追跡し、データエラーの原因を特定したり、データパイプラインの品質を検証したりします。
AWS Knowledge Center がトピックベースの検索と改善された UI を提供 #
投稿日: Nov 27, 2025
何ができるようになったのか #
AWS Knowledge Center は、ユーザーが関連する情報をより迅速かつ容易に見つけられるように、トピックベースの検索機能と改善されたユーザーインターフェース (UI) を導入しました。これにより、AWS サービスに関する情報、トラブルシューティングのヒント、ベストプラクティスなどを探す際のユーザーエクスペリエンスが大幅に向上します。
新しい検索機能では、特定の AWS サービスだけでなく、関連するトピックやカテゴリに基づいて情報を絞り込むことが可能になり、ユーザーはより的確な検索結果を得ることができます。
何が嬉しいのか #
この改善により、AWS の利用者は必要な情報をより効率的に見つけられるようになり、問題解決にかかる時間や学習コストを削減できます。特に、広範なサービスを持つ AWS 環境において、特定のユースケースや問題に特化した情報を素早く見つけ出すことができるため、生産性の向上に貢献します。
これまでとどう変わるのか #
- これまで: AWS Knowledge Center の検索は、キーワードやサービス名による一般的な検索が中心でした。そのため、特定のトピックや複合的な問題に関する情報を探す際に、多数の検索結果の中から手動でフィルタリングする必要がある場合がありました。
- これから: トピックベースの検索機能が追加されたことで、ユーザーはより精度の高い検索を実行できるようになります。例えば、「EC2 のネットワークパフォーマンス」や「Lambda のコールドスタート最適化」といった具体的なトピックで直接検索できるため、情報収集の効率が大幅に向上します。改善された UI も、情報の視認性と操作性を高めます。
具体的なユースケース #
- 新しい AWS サービスを学習する際: 特定のサービスに関する包括的な情報だけでなく、そのサービスが関わる特定のトピック(例: セキュリティ、コスト最適化)に絞って情報を探索できます。
- トラブルシューティング: 発生している問題に関連するエラーメッセージや状況をトピックとして検索し、迅速に解決策を見つけます。
- ベストプラクティスの調査: 特定のアーキテクチャパターンやユースケースにおけるベストプラクティスを、トピックフィルタリングを活用して効率的に探し出します。
Amazon SageMaker AI で柔軟なトレーニング計画と推論計画が利用可能に #
投稿日: Nov 27, 2025
何ができるようになったのか #
Amazon SageMaker AI は、機械学習 (ML) モデルのトレーニングと推論において、より柔軟な計画オプションを提供するようになりました。これにより、開発者は自身のワークロードの特定の要件に合わせて、トレーニングジョブと推論エンドポイントのリソース割り当てやスケジューリングを細かく制御できるようになります。
この新機能には、以下の側面が含まれます。
- 柔軟なトレーニング計画: トレーニングジョブのリソース(インスタンスタイプ、数など)を動的に調整したり、スケジュールされた停止・再開を管理したりする機能。
- 柔軟な推論計画: 推論エンドポイントのスケーリングポリシー(例えば、時間帯に応じたオートスケーリング設定)をより細かく定義し、アイドル時のリソースを最適化する機能。
何が嬉しいのか #
この機能強化により、ML開発者は SageMaker AI を利用する際のコスト効率とリソース利用率を大幅に向上させることができます。特に、変動するワークロードや、リソースが限定される環境において、必要に応じてリソースを調整することで、運用コストを削減し、同時に高いパフォーマンスを維持することが可能になります。これにより、MLプロジェクトの全体的な TCO (Total Cost of Ownership) が削減され、より多くの実験が可能になります。
これまでとどう変わるのか #
- これまで: SageMaker でのトレーニングや推論は、設定されたリソースプロビジョニングに依存しており、実行中にリソースを動的に調整する柔軟性は限られていました。これにより、リソースの過剰プロビジョニングや、アイドル時間中の無駄なコスト発生が生じることがありました。
- これから: 柔軟な計画オプションにより、開発者はトレーニングジョブを一時停止して後で再開したり、推論エンドポイントのトラフィックパターンに合わせてリソースを自動的に増減させたりすることができます。これにより、リソース利用が最適化され、コストが削減されるとともに、モデルのデプロイと運用がより効率的になります。
具体的なユースケース #
- コスト最適化されたトレーニング: 大規模なモデルトレーニングを深夜や週末などのオフピーク時間に集中させ、それ以外の時間帯はリソースを縮小または停止することで、コストを削減します。
- 変動する推論負荷への対応: オンライン推論エンドポイントに対し、日中のピーク時にはより多くのインスタンスを割り当て、夜間には最小限のリソースに自動的にスケールダウンするように設定し、応答性能とコスト効率を両立させます。
- 実験的なトレーニングの管理: 複数の異なるモデルやハイパーパラメータ設定でトレーニングを行う際、各実験のリソース割り当てを柔軟に調整し、効率的なリソース共有を実現します。
AWS Marketplace で AWS API Management Portal (AMP) Server の提供を開始 #
投稿日: Nov 27, 2025
何ができるようになったのか #
AWS Marketplace で AWS API Management Portal (AMP) Server が提供開始されました。これは、企業が API を効率的に管理、公開、監視するための包括的なソリューションを提供します。AMP Server は、API のライフサイクル全体をサポートし、API のディスカバリー、バージョン管理、セキュリティ、および分析を簡素化します。
このソリューションは、AWS のインフラストラクチャ上で動作し、AWS のサービス(Amazon API Gateway、AWS Lambda など)とシームレスに統合されるように設計されています。
何が嬉しいのか #
AMP Server の利用により、企業は API エコシステムをより効果的に管理し、開発者ポータルを通じて内部および外部のパートナーに対して API を安全に公開できます。これにより、API の採用が促進され、イノベーションが加速します。また、API の利用状況やパフォーマンスに関する詳細なインサイトを得ることで、ビジネス上の意思決定を改善し、運用上の課題を事前に特定できるようになります。
これまでとどう変わるのか #
- これまで: 企業は API 管理のために、自社でツールを開発するか、サードパーティのソリューションを導入する必要があり、統合や運用に手間がかかることがありました。特に、AWS 環境との深い統合を実現するには、追加のカスタマイズが必要となる場合がありました。
- これから: AWS Marketplace から直接 AMP Server を導入することで、AWS のエコシステムに深く統合された API 管理ソリューションを迅速に利用できます。これにより、API のライフサイクル管理が簡素化され、開発者はより迅速に API を構築、デプロイ、公開できるようになります。
具体的なユースケース #
- マイクロサービスアーキテクチャの管理: 複数のマイクロサービスで構成されるアプリケーションにおいて、API Gateway を介して公開される多数の API を一元的に管理し、ガバナンスとセキュリティを強化します。
- パートナーエコシステムの構築: 外部パートナーや開発者向けに、専用の開発者ポータルを通じて API を公開し、ドキュメント、SDK、認証情報などを提供することで、パートナー連携を促進します。
- API の収益化: AWS Marketplace を通じて API を提供し、従量課金モデルやサブスクリプションモデルで収益化を目指す企業。AMP Server は、そのための管理機能を提供します。