メインコンテンツへスキップ

【AWSデイリーアップデート 43件】Amazon Bedrockに新モデル、EC2高性能インスタンス、S3オブジェクトサイズ50TB対応、AWS SupportのAI強化など

· loading · loading ·
kiitosu
著者
kiitosu
画像処理やデバイスドライバ、データ基盤構築からWebバックエンドまで、多様な領域に携わってきました。地図解析や地図アプリケーションの仕組みにも経験があり、幅広い技術を活かした開発に取り組んでいます。休日は草野球とランニングを楽しんでいます。
目次

AWSの基礎力をつけるためにAWS What’s Newを毎日目を通す事を始めました。 最初は日本語訳されたものを見ていたのですが、1週間ほど遅れて訳されるようなので、英語の情報を訳して整理することにしました。

本情報が役立つ人もいるかなと思い公開します。 個人的な理解なので、実際の情報は原典をあたってください。



Amazon Bedrock AgentCoreにPolicy(プレビュー)、Evaluations(プレビュー)などが追加
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Bedrock AgentCoreに、Policy(プレビュー)とEvaluations(プレビュー)という新しい機能が導入されました。これにより、チームはエージェントの展開を組織全体で自信を持ってスケールするための制御と品質保証を得ることができ、エージェントをプロトタイプから本番環境のソリューションへと変革できます。

何が嬉しいのか
#

  • Policy: AgentCore Gatewayと統合し、すべてのツール呼び出しをリアルタイムでインターセプトすることで、エージェントが定義された境界内に留まることを保証します。自然言語でポリシーを作成でき、これが自動的にAWSのオープンソースポリシー言語であるCedarに変換されるため、カスタムコードを書くことなくルールの設定、理解、監査が可能です。
  • Evaluations: 開発者は、実際の振る舞いに基づいてエージェントのパフォーマンスをテストし、継続的に監視することで、品質を向上させ、広範囲な顧客への影響が出る前に問題を捉えることができます。有用性、ツール選択、正確性などの一般的な品質側面に対する13の組み込み評価ツールや、カスタムのモデルベースのスコアリングシステムを作成できます。
  • その他の新機能: AgentCore Memoryにはエピソード記憶が追加され、エージェントが経験から学習・適応できるようになりました。AgentCore Runtimeは双方向ストリーミングをサポートし、より自然な会話を実現します。AgentCore Identityはマルチテナント環境での認証ルールを強化します。

これまでとどう変わるのか
#

  • これまで: エージェントの品質保証やガバナンスを確立するには、多大な労力とカスタムインフラが必要でした。
  • これから: AgentCoreの新しい機能により、ポリシー設定、パフォーマンス評価、継続的な監視が容易になり、エージェントを本番環境へスケールさせる際の障壁が大幅に低減されます。

具体的なユースケース
#

  • 開発、コンプライアンス、セキュリティチームが連携し、自然言語でエージェントのガードレールを設定する。
  • 顧客対応エージェントの応答の正確性や有用性を継続的に評価し、サービス品質を維持・向上させる。
  • 音声対話エージェントにおいて、ユーザーが会話の途中で割り込んでも自然に応答できるようにする。
  • マルチテナントSaaSアプリケーションで、テナントごとに異なるアクセス権限をエージェントに適用する。

Amazon Bedrock、新たに18のフルマネージドオープンウェイトモデルを追加
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Bedrockは、生成AIアプリケーションとエージェントを本番スケールで構築するためのプラットフォームです。この度、Amazon Bedrockのモデル提供に、過去最大となる18のフルマネージドオープンウェイトモデルが追加されました。

何が嬉しいのか
#

Amazon Bedrockは、主要なAI企業からの幅広いモデル選択肢を統一されたAPIを通じて提供するため、アプリケーションの書き換えやインフラの変更なしに、新しいモデルの評価、切り替え、採用が可能です。今回の拡張により、さらに多様な最新のオープンウェイトモデルを自社のアプリケーションで容易に利用できるようになります。

これまでとどう変わるのか
#

  • これまで: 様々なオープンウェイトモデルを利用するには、それぞれ個別の設定や管理が必要でした。
  • これから: Google, MiniMax AI, Mistral AI, Moonshot AI, NVIDIA, OpenAI, Qwenといった主要プロバイダーの18種類の新しいモデルが、フルマネージドサービスとしてAmazon Bedrockから直接利用可能になります。

具体的なユースケース
#

  • Google: Gemma 3 4B, Gemma 3 12B, Gemma 3 27B
  • MiniMax AI: MiniMax M2
  • Mistral AI: Mistral Large 3, Ministral 3 3B, Ministral 3 8B, Ministral 3 14B, Magistral Small 1.2, Voxtral Mini 1.0, Voxtral Small 1.0
  • Moonshot AI: Kimi K2 Thinking
  • NVIDIA: NVIDIA Nemotron Nano 2 9B, NVIDIA Nemotron Nano 2 VL 12B
  • OpenAI: gpt-oss-safeguard-20b, gpt-oss-safeguard-120b
  • Qwen: Qwen3-Next-80B-A3B, Qwen3-VL-235B-A22B

利用可能なAWSリージョンの完全なリストについては、ドキュメントを参照してください。


Amazon CloudWatch、運用・セキュリティ・コンプライアンスデータの統合管理と分析を開始
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon CloudWatchは、AWS環境およびサードパーティソース全体の運用、セキュリティ、コンプライアンスデータを統合するための新しいデータ管理および分析機能を提供開始しました。これにより、DevOpsチーム、セキュリティアナリスト、コンプライアンス担当者は、すべてのデータに単一の場所でアクセスできるようになります。

何が嬉しいのか
#

  • データストアの統合: 複数のデータストアや複雑なETLパイプラインを維持する必要がなくなり、データ管理が簡素化されます。
  • 柔軟なインサイト: CloudWatch内でネイティブに、またはApache Iceberg互換ツールを使用して、データからインサイトを得る場所と方法の柔軟性が向上します。
  • 容易なデータ収集: AWS Organization全体の有効化や、Crowdstrike、Okta、Palo Alto Networksなどのサードパーティソース用のマネージドコレクターにより、より多くのログを簡単に集約できます。
  • 追加ストレージ料金なし: マネージドAmazon S3テーブルでデータを利用可能にでき、追加のストレージ料金はかかりません。Amazon SageMaker Unified Studio, Amazon Quick Suite, Amazon Athena, Amazon Redshiftなど、任意のApache Iceberg互換分析ツールでデータをクエリできます。

これまでとどう変わるのか
#

  • これまで: 運用、セキュリティ、コンプライアンスに関するデータは、それぞれ別の場所に保存され、分析するには複雑なETLパイプラインが必要でした。
  • これから: CloudWatchが単一の統合データストアとして機能し、AWSアカウントやリージョンを越えて、さらにはサードパーティのソースからのデータも一元的に収集、集約、分析できるようになります。

具体的なユースケース
#

  • 地理的な境界やビジネスユニットに合わせて、複数のAWSアカウントやリージョンからログを収集・集約する。
  • AWS CloudTrail, Amazon VPC, Amazon WAFなどのAWSソースからのログと、OktaやCrowdstrikeなどのサードパーティセキュリティ製品からのログを統合して分析する。
  • 収集したログをOpen Cybersecurity Schema Framework (OCSF)などの標準フォーマットに変換し、セキュリティ分析を効率化する。
  • CloudWatchに集約したデータをAmazon SageMakerやAmazon QuickSightで可視化・分析し、ビジネスインサイトを抽出する。

Amazon EC2 M4 Max Macインスタンス(プレビュー)の発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Web Servicesは、最新のMac Studioハードウェアを搭載したAmazon EC2 M4 Max Macインスタンスのプレビューを発表しました。これは次世代のEC2 Macインスタンスであり、Apple開発者が最も要求の厳しいビルドおよびテストワークロードをAWSに移行できるようにします。

何が嬉しいのか
#

  • 高性能: M4 Max Macインスタンスは、Apple M4 Max Mac Studioコンピュータ上に構築されており、16コアCPU、40コアGPU、16コアNeural Engine、128GBのユニファイドメモリを搭載しています。
  • 性能向上: EC2 M4 Pro Macインスタンスと比較して、M4 MaxインスタンスはGPUコアが2倍、ユニファイドメモリが2.5倍以上あり、より高いパフォーマンスを提供します。
  • 選択肢の拡大: これにより、顧客は特定のワークロード要件に合わせてインスタンスの能力を一致させる選択肢が増え、AWS上のAppleシリコンMacハードウェアの選択肢がさらに広がります。
  • 高速ネットワークとストレージ: AWS Nitro Systemを搭載し、最大10Gbpsのネットワーク帯域幅と8GbpsのAmazon Elastic Block Store(Amazon EBS)ストレージ帯域幅を提供します。

これまでとどう変わるのか
#

  • これまで: EC2 M4 Pro Macインスタンスが提供されていましたが、より高いGPU性能やメモリを必要とするワークロードには限界がありました。
  • これから: M4 Maxインスタンスの登場により、グラフィックス多用型のアプリケーションや、大規模なビルド・テストなど、これまで以上に要求の厳しいワークロードをクラウド上で効率的に実行できるようになります。

具体的なユースケース
#

  • iOS, macOS, iPadOS, tvOS, watchOS, visionOS, SafariなどのAppleプラットフォーム向けアプリケーションのビルドとテスト。
  • 大規模で複雑なアプリケーションのCI/CDパイプラインの実行。
  • 高いグラフィックス性能を必要とするアプリケーションのテストやレンダリング。
  • メモリを大量に消費する開発ワークロードの実行。

NVIDIA GB300 NVL72を搭載したAmazon EC2 P6e-GB300 UltraServersが一般提供開始
#

投稿日: 2025年12月02日

何ができるようになったのか
#

本日、AWSはAmazon Elastic Compute Cloud (Amazon EC2) P6e-GB300 UltraServersの一般提供を発表しました。このサーバーはNVIDIA GB300 NVL72によって高速化されています。

何が嬉しいのか
#

P6e-GB300 UltraServersは、P6e-GB200と比較して、GPUメモリが1.5倍、FP4コンピューティング(スパース性なし)が1.5倍向上しています。これにより、顧客はより高いコンテキストを必要とし、推論やエージェント型AIのような新しい推論技術を実装するアプリケーションのために、本番環境で最も強力なモデルのパフォーマンスを最適化できます。

これまでとどう変わるのか
#

  • これまで: P6e-GB200が提供されていましたが、さらに高性能なモデルや大規模なコンテキストを扱うには限界がありました。
  • これから: P6e-GB300 UltraServersの登場により、より多くのGPUメモリと高い計算能力を活用し、最先端のAIモデルのトレーニングや推論をより効率的に実行できるようになります。

具体的なユースケース
#

  • 大規模言語モデル(LLM)のトレーニングとファインチューニング。
  • 複雑な推論や複数のステップを要するエージェント型AIアプリケーションの開発。
  • 膨大なコンテキストウィンドウを必要とする生成AIモデルの実行。
  • 科学技術計算やその他のハイパフォーマンスコンピューティング(HPC)ワークロード。

P6e-GB300 UltraServersの利用を開始するには、AWSの営業担当者にお問い合わせください。


より速く、低コストの生成AIトレーニングを実現するAmazon EC2 Trn3 UltraServersを発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、第4世代AIチップであるTrainium3を搭載したAmazon Elastic Compute Cloud (Amazon EC2) Trn3 UltraServersの一般提供を発表しました。Trainium3は、次世代のエージェント型、推論、ビデオ生成アプリケーションに最高のトークンエコノミクスを提供するために専用設計された、AWS初の3nm AIチップです。

何が嬉しいのか
#

  • 大幅なパフォーマンス向上: Trn3は、Trn2 UltraServersと比較して、最大4.4倍高いパフォーマンス、3.9倍高いメモリ帯域幅、4倍優れた電力性能比を実現します。
  • 高密度・高性能: 各Trainium3チップは、2.52ペタフロップス(PFLOPs)のFP8コンピューティングを提供し、Trainium2に比べてメモリ容量が1.5倍、帯域幅が1.7倍に増加しています。
  • 大規模スケーリング: Trn3 UltraServersは最大144個のTrainium3チップまでスケールアップでき、EC2 UltraClusters 3.0で数十万チップ規模までスケール可能です。
  • コスト効率: フロンティアスケールのモデルのトレーニングとサービングにおいて、最高の価格性能比を提供します。Amazon Bedrockでは、Trainium3は最速のアクセラレータであり、Trainium2よりも最大3倍高速なパフォーマンスを実現します。

これまでとどう変わるのか
#

  • これまで: Trainium2は高性能なAIトレーニングを提供していましたが、次世代モデルの要求にはさらなる性能向上が求められていました。
  • これから: Trainium3を搭載したTrn3 UltraServersは、メモリとコンピューティングのバランスが改善され、リアルタイム、マルチモーダル、推論タスクに対応。強化学習、専門家混合(MoE)、推論、ロングコンテキストアーキテクチャを含むモデルのトレーニングとサービングにおいて、大幅な性能向上とコスト削減を実現します。

具体的なユースケース
#

  • 大規模な言語モデルやビデオ生成モデルの高速なトレーニング。
  • リアルタイムでの応答が求められるマルチモーダルAIアプリケーションの開発。
  • 複雑な推論を行うエージェント型AIシステムの構築。
  • AWS Neuron SDKとネイティブPyTorch統合を活用し、モデルコードを変更することなくパフォーマンスを最大限に引き出す。

Amazon EC2 メモリ最適化X8iインスタンス(プレビュー)の発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Web Servicesは、次世代のメモリ最適化インスタンスであるAmazon EC2 X8iのプレビューを発表しました。X8iインスタンスは、カスタムIntel Xeon 6プロセッサを搭載し、クラウド上の同等のIntelプロセッサの中で最高のパフォーマンスと最速のメモリを提供します。

何が嬉しいのか
#

  • 大幅な性能向上: X8iインスタンスは、前世代のX2iインスタンスと比較して、メモリ容量が1.5倍(最大6TB)、メモリ帯域幅が最大3.4倍向上しています。
  • SAPワークロードに最適: X8iインスタンスはSAP認定を受ける予定で、X2iインスタンスと比較してSAPSが46%向上し、ミッションクリティカルなSAPワークロードに最適です。
  • 全体的なパフォーマンス向上: X2iインスタンスよりも35%高いパフォーマンスを提供し、一部のワークロードではさらに高いゲインを実現します。

これまでとどう変わるのか
#

  • これまで: X2iインスタンスがメモリ集約型ワークロード向けに提供されていましたが、さらに大容量のメモリと高い帯域幅が求められるケースがありました。
  • これから: X8iインスタンスの登場により、より大規模なインメモリデータベースや分析、従来のデータベース、EDA(Electronic Design Automation)などのメモリを大量に消費するワークロードを、より高いパフォーマンスで実行できるようになります。

具体的なユースケース
#

  • SAP HANAなどの大規模インメモリデータベースの実行。
  • 大規模なデータセットに対するリアルタイム分析。
  • OracleやSQL Serverなどの大規模な従来のデータベースの運用。
  • 半導体設計などに用いられるEDAワークロードの高速化。

Amazon EMR Serverless、Apache Sparkワークロードのローカルストレージプロビジョニングを不要に
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon EMR Serverlessは、Apache Sparkワークロードのローカルストレージプロビジョニングを不要にするサーバーレスストレージを提供するようになりました。これにより、データ処理コストを最大20%削減し、ディスク容量の制約によるジョブの失敗を防ぎます。

何が嬉しいのか
#

  • コスト削減: シャッフルなどの中間データ操作はEMR Serverlessが自動的に処理し、ローカルストレージの料金はかかりません。ジョブが消費するコンピューティングリソースとメモリリソースに対してのみ料金を支払います。ワーカーがアイドル状態のときに一時データを保持するためにアクティブにしておく必要がなくなり、コストが削減されます。
  • 運用の簡素化: アプリケーションごとにローカルディスクの種類とサイズを設定する必要がなくなります。
  • 信頼性の向上: ディスク容量不足によるジョブの失敗がなくなります。サーバーレスストレージは、コンピューティングからストレージを切り離し、データを転送中および保存時にジョブレベルの分離で暗号化する、フルマネージドで自動スケーリングするストレージに中間データ操作をオフロードします。

これまでとどう変わるのか
#

  • これまで: Sparkジョブを実行する際、シャッフルなどの中間データを処理するために、ワーカーノードのローカルディスクのサイズと種類を慎重に見積もり、プロビジョニングする必要がありました。ディスクが不足するとジョブが失敗するリスクがありました。
  • これから: EMR Serverlessが中間データ用のストレージを自動的に管理するため、ローカルストレージのプロビジョニングが一切不要になります。開発者はデータ処理ロジックに集中でき、コスト効率と信頼性が向上します。

具体的なユースケース
#

  • 数百万の顧客インタラクションを処理するレコメンデーションエンジンなど、動的リソース割り当てを使用するジョブ。初期段階では大規模なデータセットを高い並列処理で処理し、データが集約されるにつれて処理が狭まるようなジョブに特に有効です。
  • データ量や処理内容の変動が大きく、適切なディスクサイズの見積もりが困難なバッチ処理ジョブ。
  • 運用を簡素化し、インフラ管理のオーバーヘッドを削減したいと考えているデータエンジニアリングチーム。

Amazon FSx for NetApp ONTAPがAmazon S3アクセスをサポート
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon FSx for NetApp ONTAPファイルシステムにAmazon S3アクセスポイントをアタッチできるようになりました。これにより、ファイルデータをあたかもS3にあるかのようにアクセスできます。この新機能により、FSx for NetApp ONTAP内のファイルデータは、ファイルシステム内に残り続けながらも、S3と連携する広範なAI、ML、分析サービスやアプリケーションで簡単に利用可能になります。

何が嬉しいのか
#

  • データ活用の拡大: FSx for NetApp ONTAPに保存されているファイルデータを、コードを変更することなく、Amazon Bedrockによる生成AIアプリケーションの拡張、Amazon SageMakerによるMLモデルのトレーニング、Amazon Glueや他のパートナーソリューションによる分析など、S3ベースのサービスで直接利用できるようになります。
  • シームレスな移行とモダナイゼーション: オンプレミスのNetApp ONTAPや他のNASアプライアンスに依存するアプリケーションを、データ管理方法を変更することなくAWSに移行できます。移行後、S3アクセスポイントを通じてデータをクラウドネイティブアプリケーションで活用し、イノベーションを加速できます。
  • 簡素化されたアクセス管理: S3アクセスポイントは、異なるアプリケーションやユーザーがデータにアクセスする方法を制御し、簡素化するエンドポイントです。これにより、ファイルデータへのアクセス管理が容易になります。

これまでとどう変わるのか
#

  • これまで: FSx for NetApp ONTAP上のファイルデータをS3ベースのサービスで利用するには、データをS3にコピーまたは移動する必要があり、手間とコストがかかりました。
  • これから: S3アクセスポイントをアタッチするだけで、FSx for NetApp ONTAP上のデータを直接S3オブジェクトとして扱うことができます。これにより、データの移動が不要になり、AI/MLや分析ワークロードとの連携が劇的に簡素化されます。

具体的なユースケース
#

  • FSx for NetApp ONTAPに保存された企業データを、Amazon Bedrockでファインチューニングする基盤モデルのデータソースとして使用する。
  • ファイルベースのデータセットを移動させることなく、Amazon SageMakerで直接機械学習モデルをトレーニングする。
  • 既存のファイル共有データを、S3をデータソースとするクラウドネイティブなETLジョブ(Amazon Glueなど)で処理する。
  • オンプレミスから移行したファイルデータを、S3 APIを使用するモダンなウェブアプリケーションからアクセスする。

Amazon Nova 2 Omni(プレビュー)の紹介
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazonは、マルチモーダルな推論と画像生成のためのオールインワンモデル「Amazon Nova 2 Omni」を発表しました。これは、テキスト、画像、ビデオ、音声の入力をサポートし、テキストと画像の両方の出力を生成する、業界初の推論モデルです。これにより、マルチモーダル理解、自然言語による画像生成・編集、音声の文字起こしが可能になります。

何が嬉しいのか
#

  • 複雑さの解消: 従来のアプローチでは、異なる入出力タイプをサポートする様々な特化モデルを組み合わせる必要がありましたが、Nova 2 Omniは複数のAIモデルを管理する複雑さを解消します。
  • 開発の加速とコスト削減: アプリケーション開発を加速させると同時に、複雑さとコストを削減します。
  • 多様な機能: 100万トークンのコンテキストウィンドウ、200以上の言語でのテキスト処理、10言語での音声入力をサポートします。自然言語を使用して高品質な画像を生成・編集でき、キャラクターの一貫性、画像内へのテキストレンダリング、オブジェクトや背景の変更も可能です。
  • 高度な音声理解: ネイティブな推論能力により、複数話者の会話を文字起こし、翻訳、要約する優れた音声理解を提供します。
  • 柔軟な制御: 深度と予算に応じた柔軟な推論制御により、開発者はさまざまなユースケースで最適なパフォーマンス、精度、コスト管理を確保できます。

これまでとどう変わるのか
#

  • これまで: マーケティングコンテンツの作成、顧客サポートの通話の文字起こし、ビデオ分析など、多様なタスクにはそれぞれ専門のモデルが必要で、それらを連携させる手間がありました。
  • これから: Nova 2 Omniという単一のモデルで、テキスト、画像、ビデオ、音声を統合的に扱うことができ、アプリケーション開発が大幅に簡素化・効率化されます。

具体的なユースケース
#

  • マーケティングキャンペーン用の画像付きコンテンツの自動生成。
  • 顧客サポートセンターでの通話内容をリアルタイムで文字起こしし、要約を作成。
  • 監視カメラの映像を分析し、特定のイベントを検出してテキストで報告。
  • 製品マニュアルに、説明文と連動した図や画像を自動で挿入。
  • 多言語での会議を録音し、各言語に翻訳された議事録を自動生成。

リアルタイム対話AIのためのAmazon Nova 2 Sonicを発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazonは、自然でリアルタイムな対話AIのための音声-音声モデル「Amazon Nova 2 Sonic」の提供を発表しました。これは、音声ベースの対話AIにおいて業界をリードする品質と価格を提供します。背景ノイズやユーザーの話し方に強い、クラス最高のストリーミング音声理解、効率的な対話処理、そして複数の言語をネイティブに話せる表現力豊かな音声生成(ポリグロット音声)を提供します。

何が嬉しいのか
#

  • 高品質・低価格: 業界をリードする品質と価格で、高度な音声対話AIを構築できます。
  • 機能拡張: ポルトガル語とヒンディー語の言語サポート拡大、同じ声で複数言語をネイティブに話すポリグロット音声、会話の「間」の感度を開発者が設定できるターンテーキング制御などの新機能が追加されました。
  • 柔軟な対話: 同じセッション内で音声とテキストをシームレスに切り替えるクロスモーダル対話、会話の流れを中断せずに複数ステップのタスクをサポートする非同期ツール呼び出し、長時間の対話のための100万トークンのコンテキストウィンドウが追加されました。
  • 容易な統合: Amazon Bedrockの双方向ストリーミングAPIを使用してリアルタイム音声システムに直接統合できるほか、Amazon ConnectやVonage, Twilio, AudioCodesなどの主要なテレフォニープロバイダー、LiveKitやPipecatなどのオープンソースフレームワークともシームレスに統合できます。

これまでとどう変わるのか
#

  • これまで: 初代のNova Sonicモデルがありましたが、言語サポートや対話制御の柔軟性に制限がありました。
  • これから: Nova 2 Sonicは、より多くの言語をサポートし、開発者が対話のタイミングを細かく制御できるようになりました。また、音声とテキストのハイブリッドな対話や、より複雑なタスクの実行が可能になり、対話AIの応用範囲が大きく広がります。

具体的なユースケース
#

  • 多言語対応のカスタマーサービス用音声ボットの構築。
  • ユーザーが話している途中でも割り込んで応答できる、より自然な音声アシスタントの開発。
  • 音声コマンドで予約を取り、その確認をテキストメッセージで送信するなど、音声とテキストを組み合わせたアプリケーション。
  • 長時間にわたる一貫した対話が必要な、教育やトレーニング用のAIチューター。

Amazon Nova Forge: Novaを使って独自のフロンティアモデルを構築
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Novaを使用して独自のフロンティアモデルを構築するための新サービス「Nova Forge」の一般提供が開始されました。Nova Forgeを使用すると、事前トレーニング、中間トレーニング、または事後トレーニングの各段階で、初期のNovaチェックポイントからSageMaker AIでモデル開発を開始できます。

何が嬉しいのか
#

  • 独自のモデル構築: 組織独自の専有知識を深く理解し、専門知識を反映したモデルを構築できます。Amazon Novaがキュレーションしたデータと専有データを組み合わせてモデルをトレーニングできます。
  • 高度なカスタマイズ: 環境内の報酬関数を使用して強化学習ファインチューニング(RFT)を実行したり、組み込みの責任あるAIツールキットを使用してカスタムの安全ガードレールを実装したりするなど、Nova Forge独自のモデル開発機能を利用できます。
  • 汎用能力の維持: 壊滅的忘却のようなリスクを最小限に抑えながら、推論などの汎用能力を維持します。
  • 早期アクセス: Nova Forgeの顧客は、Nova 2 ProやNova 2 Omniを含む新しいNovaモデルへの早期アクセスが可能です。

これまでとどう変わるのか
#

  • これまで: 既存の基盤モデルをファインチューニングする手法が主でしたが、モデルの根本的な部分にまで手を入れたり、組織独自のデータを大規模に組み込んだりすることは困難でした。
  • これから: Nova Forgeを利用することで、AmazonのフロンティアモデルであるNovaの初期段階から開発に着手でき、より深く組織に特化した、高性能で安全な独自モデルを構築することが可能になります。

具体的なユースケース
#

  • 金融機関が、独自の市場分析データと手法を組み込んだ、専門的な金融アドバイスモデルを構築する。
  • 製薬会社が、社内の研究開発データを活用して、創薬プロセスを加速させるための専門モデルを開発する。
  • 法律事務所が、過去の判例や法的文書を学習させ、高度な法的調査や文書作成を支援するモデルを作成する。
  • 特定の企業文化や製品知識を反映した、社内向けの高度なチャットボットやナレッジマネジメントシステムを構築する。

Amazon OpenSearch Service、GPUアクセラレーションと自動最適化ベクトルインデックスを追加
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon OpenSearch Serviceで、GPUアクセラレーションを使用して10億規模のベクトルデータベースを1時間以内に構築し、ベクトルインデックスを自動で最適化して検索品質、速度、コストの最適なトレードオフを実現できるようになりました。

何が嬉しいのか
#

  • 構築時間の大幅短縮: これまで大規模なベクトルインデックスの構築には数日かかっていましたが、GPUアクセラレーションにより、最大10倍高速に、4分の1のインデックス作成コストで最適化されたインデックスを構築できます。
  • 専門家不要の自動最適化: サーバーレスの自動最適化ジョブを実行し、最適化の推奨事項を生成できます。検索のレイテンシと再現率の要件を指定するだけで、ジョブがインデックス設定(k-NNアルゴリズム、量子化、エンジン設定)を自動的に評価します。
  • コスト効率の高いGPU利用: サーバーレスGPUはドメインやコレクションを動的にアクティブ化して高速化するため、速度向上の恩恵を受けるときにのみ課金されます。GPUインスタンスを管理する必要はありません。
  • イノベーションの加速: 大規模で最適化されたベクトルデータベースを構築する時間と労力を簡素化・短縮することで、チームはより迅速にイノベーションを進めることができます。

これまでとどう変わるのか
#

  • これまで: 大規模なベクトルインデックスの構築には数日かかり、その最適化には専門家による数週間の手動チューニングが必要でした。この時間、コスト、労力がイノベーションの速度を低下させていました。
  • これから: GPUアクセラレーションと自動最適化機能により、誰でも迅速かつコスト効率よく、大規模で高性能なベクトルデータベースを構築できるようになります。手動でのチューニング作業が不要になり、開発者はAIアプリケーションの開発に集中できます。

具体的なユースケース
#

  • 数十億の商品やドキュメントを持つeコマースサイトでのセマンティック検索機能の実装。
  • 大規模なユーザー行動データに基づいたリアルタイム推薦エンジンの構築。
  • 膨大な知識ベースを検索して回答を生成する、高度なエージェントシステムの開発。
  • 類似画像検索や、マルチモーダル検索アプリケーションの基盤となるベクトルデータベースの構築。

Amazon RDS for SQL Server、CPU最適化と新世代インスタンスで最大55%の価格削減を実現
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon RDS for SQL Serverは、M7iおよびR7iインスタンスファミリーのサポートを開始し、CPU最適化機能(Optimize CPU)を導入しました。これにより、同等の前世代インスタンスと比較して最大55%の価格削減が可能になります。Optimize CPUは、同時マルチスレッディング(SMT)構成を最適化し、商用ソフトウェアの料金を削減します。

何が嬉しいのか
#

  • 大幅なコスト削減: M7iおよびR7iインスタンスにアップグレードすることで、コストを削減できます。Optimize CPUは、物理CPUコア数を維持したままvCPU数を半減させることで、SQL Serverのライセンス料金を50%削減します。
  • 追加のコスト削減: メモリやI/O集約型のデータベースワークロードの場合、アクティブな物理CPUコアの数を微調整することで、さらなるコスト削減が可能です。
  • Multi-AZでのメリット: 特に2Xlarge以上のインスタンスやMulti-AZ配置を使用している場合に大きな節約が見込めます。RDSは、ほとんどの利用において単一のアクティブノードに対してのみSQL Serverソフトウェア料金を削減するように最適化します。

これまでとどう変わるのか
#

  • これまで: SQL ServerのライセンスコストはvCPU数に基づいており、パフォーマンスを上げるためにインスタンスサイズを大きくすると、ライセンスコストも比例して増加していました。
  • これから: Optimize CPU機能により、SMTを無効にしてvCPU数を物理コア数と同じにすることができます。これにより、ほぼ同等のパフォーマンスを維持しつつ、vCPU数に基づくライセンスコストを大幅に削減できます。特に最新のM7i/R7iインスタンスと組み合わせることで、コストパフォーマンスが劇的に向上します。

具体的なユースケース
#

  • 現在6世代目のインスタンスを利用しており、コスト削減のために最新のM7iまたはR7iインスタンスへアップグレードを検討している。
  • データベースのワークロードがCPU性能よりもメモリ容量やI/O速度に依存しており、CPUコア数を最適化してライセンスコストを削減したい。
  • Multi-AZ構成で高可用性を確保しつつ、スタンバイインスタンスのライセンスコストを最小限に抑えたい。
  • 大規模なインスタンス(2Xlarge以上)を使用して、パフォーマンスとコスト効率の両立を図りたい。

Amazon RDS for SQL ServerがDeveloper Editionをサポート
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Relational Database Service (Amazon RDS) for SQL Serverで、Microsoft SQL Server 2022 Developer Editionが利用可能になりました。SQL Server Developer Editionは、Enterprise Editionの全機能を含む無料のエディションで、本番以外のあらゆる環境で使用できます。

何が嬉しいのか
#

  • コスト削減: これまで開発・テスト環境用にRDS for SQL Serverインスタンスを作成する際、Standard EditionまたはEnterprise Editionを使用する必要があり、本番以外の利用でもライセンスコストが発生していました。今後は無料のDeveloper Editionを使用することで、開発・テスト用インスタンスのコストを削減できます。
  • 本番環境との一貫性: Enterprise Editionの全機能が含まれているため、本番環境のデータベース構成との一貫性を保ちながら、アプリケーションの構築、テスト、デモンストレーションを行うことができます。
  • RDSのフル機能を利用可能: 自動バックアップ、自動ソフトウェアアップデート、モニタリング、暗号化といったAmazon RDS for SQL Serverの機能は、Developer Editionでも開発・テスト目的で利用できます。

これまでとどう変わるのか
#

  • これまで: 開発・テスト環境であっても、有料のSQL Serverライセンス(StandardまたはEnterprise)が必要でした。
  • これから: 無料のDeveloper Editionを選択できるようになり、非本番環境におけるデータベースのライセンスコストが不要になります。これにより、開発サイクルのコストを大幅に抑えることが可能になります。

具体的なユースケース
#

  • 新規アプリケーションの開発フェーズにおけるデータベースとして利用する。
  • 本番環境にデプロイする前の、機能テストやパフォーマンステスト用のデータベースとして利用する。
  • 顧客への製品デモンストレーション用の環境として利用する。
Microsoft SQL Server Developer Editionのライセンスは、その使用を開発およびテスト目的に厳しく制限しています。本番環境や、エンドユーザーに直接サービスを提供する商業目的で使用することはできません。

Amazon S3、最大オブジェクトサイズを50TBに引き上げ
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon S3は、最大オブジェクトサイズを従来の5TBから10倍の50TBに引き上げました。これにより、高解像度のビデオ、地震データファイル、AIトレーニングデータセットなどの大きなオブジェクトの処理が簡素化されます。

何が嬉しいのか
#

  • 巨大なファイルのシンプルな管理: これまで分割してアップロード・管理する必要があった巨大なファイルを、単一のオブジェクトとして扱えるようになります。これにより、データの管理と処理が大幅に簡素化されます。
  • 全S3機能との互換性: 50TBのオブジェクトは、すべてのS3ストレージクラスに保存でき、S3のすべての機能(ライフサイクル管理、レプリケーションなど)で使用できます。
  • パフォーマンスの最適化: AWS SDKの最新のAWS Common Runtime (CRT)とS3 Transfer Managerを使用することで、大きなオブジェクトのアップロードおよびダウンロードのパフォーマンスを最適化できます。

これまでとどう変わるのか
#

  • これまで: 5TBを超えるファイルは、S3にアップロードする前に複数のパートに分割する必要があり、管理が複雑でした。
  • これから: 最大50TBまでの単一ファイルをそのままオブジェクトとしてS3に保存できるようになり、大規模なデータセットを扱う際のワークフローが簡素化されます。

具体的なユースケース
#

  • 放送局や制作会社が、8Kや16Kといった超高解像度のマスタービデオファイルを単一のオブジェクトとしてアーカイブする。
  • 石油・ガス探査企業が、1つの地震探査から得られる数十テラバイトのデータを単一のファイルとして保存・分析する。
  • AI/ML研究者が、大規模な画像や動画のデータセットを1つのオブジェクトとしてS3に格納し、モデルのトレーニングに利用する。
  • ゲノム研究機関が、個人の全ゲノムシーケンスデータを単一のファイルとして管理する。

Amazon S3 Storage Lens、パフォーマンスメトリクス、数十億プレフィックスのサポート、S3テーブルへのエクスポートを追加
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon S3 Storage Lensに3つの新機能が追加され、S3ストレージの使用状況とアプリケーションのパフォーマンスに関するより深い洞察が得られるようになりました。

  1. パフォーマンスメトリクス: アプリケーションがS3データとどのように相互作用しているかについての洞察を提供します。
  2. 数十億プレフィックスの分析: バケット内の数十億のプレフィックスに対する分析を可能にします。
  3. S3テーブルへの直接エクスポート: クエリと分析を容易にするために、メトリクスを直接S3テーブルにエクスポートできます。

何が嬉しいのか
#

  • パフォーマンスの最適化: 新しいパフォーマンスメトリクスにより、非効率なリクエスト(小さすぎて不要なネットワークオーバーヘッドを生むリクエストなど)を特定できます。また、クロスリージョンリクエスト数を可視化したり、頻繁にアクセスされるオブジェクトの小さなサブセットを特定してキャッシュや高性能ストレージへの移行を検討したりできます。
  • 詳細なプレフィックス分析: これまで最小サイズと深度のしきい値を満たす最大のプレフィックスに限定されていた分析が、バケット内のすべてのプレフィックスに拡張され、ストレージ使用状況の全体像を把握できます。
  • 容易なデータ分析: メトリクスをマネージドS3テーブルに直接エクスポートできるようになったため、Amazon QuickSightなどのAWS分析サービスで即座にクエリを実行したり、他のAWSサービスデータと結合してより深い洞察を得たりすることが可能になります。

これまでとどう変わるのか
#

  • これまで: S3のパフォーマンスに関する洞察は限定的で、プレフィックスレベルの分析も大規模なものには対応していませんでした。また、分析のためにはデータを別途加工・ロードする必要がありました。
  • これから: S3 Storage Lens内で直接、詳細なパフォーマンスメトリクスを確認できるようになり、ストレージの使われ方をより深く理解できます。また、すべてのプレフィックスを分析対象にでき、その結果をS3テーブルに直接出力してシームレスな分析が可能になります。

具体的なユースケース
#

  • 小さなファイルを大量に読み書きしているアプリケーションを特定し、リクエストをまとめることでパフォーマンスとコストを改善する。
  • 意図しないクロスリージョンアクセスを発見し、アプリケーションの配置を見直してレイテンシを削減する。
  • 特定のプレフィックス配下のオブジェクトが急増している原因を調査し、ストレージコストを最適化する。
  • S3 Storage LensのメトリクスとAWS Cost and Usage Reportのデータを結合し、特定のアプリケーションやチームごとの詳細なコスト分析を行う。

Amazon S3 Vectors、プレビュー版の40倍のスケールで一般提供開始
#

投稿日: 2025年12月02日

何ができるようになったのか
#

ベクトルをネイティブに保存・クエリできる初のクラウドオブジェクトストレージであるAmazon S3 Vectorsが、一般提供を開始しました。S3 Vectorsは、AIエージェント、推論、RAG(Retrieval Augmented Generation)、セマンティック検索のために、数十億ベクトル規模で専用設計された、コスト最適化されたベクトルストレージを提供します。

何が嬉しいのか
#

  • 大幅なコスト削減: ベクトルのアップロード、保存、クエリにかかる総コストを最大90%削減します。
  • 大規模なスケーラビリティ: 1インデックスあたり最大20億のベクトルを保存・クエリでき、1ベクトルバケットあたり10,000のベクトルインデックスまで弾力的にスケールできます。
  • 高性能: 頻繁でないクエリは1秒未満で結果を返し、より頻繁なクエリではレイテンシが約100ミリ秒以下になります。インデックスへの単一ベクトル更新のストリーミング時に毎秒1,000ベクトルの書き込みスループットを達成できます。
  • 高度なセキュリティと管理: 新しいベクトルバケットタイプを提供し、サーバーサイド暗号化(SSE-S3またはSSE-KMS)でデータを保護します。ベクトルインデックスごとに専用の顧客管理キーを設定でき、マルチテナントアプリケーションの構築や規制要件への対応が容易になります。
  • AWSサービスとの統合: Amazon Bedrock Knowledge Basesと統合し、RAGに大規模なベクトルデータセットを使用するコストを削減します。また、Amazon OpenSearch Serviceと連携し、ハイブリッド検索ワークロードのコストを最適化できます。

これまでとどう変わるのか
#

  • これまで: ベクトルデータを保存・検索するには、専用のベクトルデータベースを別途プロビジョニングし、管理する必要があり、コストと運用負荷がかかっていました。
  • これから: S3にネイティブにベクトルを保存・クエリできるようになり、インフラのプロビジョニングが不要になります。S3の耐久性、可用性、弾力性をそのまま活用しながら、ベクトル検索を低コストで実現できます。

具体的なユースケース
#

  • 大規模なドキュメントコーパスをベクトル化し、RAGアプリケーションの知識ベースとして低コストで利用する。
  • 数十億の商品画像から類似商品を検索するセマンティック検索システムを構築する。
  • AIエージェントが過去の対話やコンテキストを長期記憶としてベクトル形式で保存し、検索する。
  • マルチテナントSaaSアプリケーションで、テナントごとにベクトルデータを安全に分離して管理する。

Amazon EMR向けApache Sparkアップグレードエージェントを発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、Amazon EMR on EC2およびEMR ServerlessのApache Sparkバージョンのアップグレードを加速する新機能「Apache Sparkアップグレードエージェント」を発表しました。このエージェントは、通常数ヶ月かかる複雑なアップグレードプロセスを、自動化されたコード分析と変換を通じて数週間のプロジェクトに短縮します。

何が嬉しいのか
#

  • アップグレードの高速化: エンジニアがAPIの変更を分析し、コンフリクトを解決し、アプリケーションを検証するために費やしていた多大なリソースを削減します。
  • 自然言語による対話: エンジニアは、コードの変更を完全に制御しながら、自然言語でアップグレード要件を表現できる対話型インターフェースを利用できます。
  • 自動化された分析と提案: PySparkおよびScalaアプリケーション全体のAPI変更と動作変更を自動的に識別します。エージェントは既存のコードを分析し、具体的な変更を提案するため、エンジニアは実装前にレビューして承認できます。
  • 品質の維持: データ品質の検証を通じて機能的な正しさを検証し、アップグレードプロセス全体でデータ処理の正確性を維持します。

これまでとどう変わるのか
#

  • これまで: Sparkのアップグレードは、手作業でのコード分析、非互換性の修正、広範なテストが必要で、時間とコストのかかる手動プロセスでした。
  • これから: Apache Sparkアップグレードエージェントが、APIの変更点の特定からコードの修正提案、検証までを自動化します。これにより、アップグレードにかかる期間が劇的に短縮され、エンジニアはより価値の高い作業に集中できます。

具体的なユースケース
#

  • 古いSpark 2.4で稼働しているETLパイプラインを、最新のSpark 3.5に迅速にアップグレードして、パフォーマンス向上と新機能の恩恵を受ける。
  • 複数の開発チームが所有する多数のSparkアプリケーションを、一貫した方法で効率的にアップグレードする。
  • SageMaker Unified Studioや好みのIDEから直接、対話形式でアップグレードプロセスを開始し、提案されたコード変更を確認しながら安全に適用する。

Amazon API GatewayがMCPプロキシサポートを追加
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon API Gatewayが、Model Context Protocol (MCP) プロキシをサポートするようになりました。これにより、既存のREST APIをMCP互換のエンドポイントに変換できます。この新機能により、組織は自社のAPIをAIエージェントやMCPクライアントからアクセス可能にすることができます。

何が嬉しいのか
#

  • 既存APIのAIエージェント対応: Amazon Bedrock AgentCoreのGatewayサービスと統合することで、アプリケーションの変更や追加インフラの管理なしに、既存のREST APIを安全にエージェント互換のツールに変換できます。
  • インテリジェントなツール発見: セマンティック検索を通じて、AIエージェントがプロンプトのコンテキストに最も一致する最適なREST APIを検索し、選択できるようになります。
  • 包括的なセキュリティ: デュアル認証により、包括的なセキュリティを提供します。受信リクエストに対してはエージェントのIDを検証し、送信呼び出しに対してはREST APIへの安全な接続を管理します。

これまでとどう変わるのか
#

  • これまで: 既存のREST APIをAIエージェントから利用可能にするには、API自体を改修したり、プロトコル変換のための中間層を独自に開発・管理したりする必要がありました。
  • これから: API GatewayのMCPプロキシ機能を使うことで、既存のREST APIを一切変更することなく、AIエージェントやMCPクライアントと通信できるようになります。セキュリティとツールの発見可能性も組み込みで提供されます。

具体的なユースケース
#

  • 社内の在庫確認REST APIを、顧客からの問い合わせに答えるAIエージェントのツールとして公開する。
  • 航空券予約システムのAPIを、旅行プランを提案するAIエージェントから利用できるようにする。
  • 複数のマイクロサービスとして構築された既存の社内システム群を、MCPプロキシを介して統合し、単一のAIエージェントから呼び出せるようにする。
  • 開発者が持つ様々なAPIを、Bedrock AgentCore Gatewayに登録し、AIエージェントが自律的に最適なAPIを見つけてタスクを実行できるようにする。

AWS AI Factoriesの紹介
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、顧客自身のデータセンターに迅速に展開可能な、高性能なAWS AIインフラストラクチャ「AWS AI Factories」の提供を開始しました。これは、最新のAWS TrainiumアクセラレータとNVIDIA GPU、専用の低遅延ネットワーキング、高性能ストレージ、およびAWS AIサービスを組み合わせたものです。

何が嬉しいのか
#

  • 導入期間の大幅短縮: 独立して構築する場合と比較して、AIの構築期間を数ヶ月から数年単位で短縮します。AWSの約20年にわたるクラウドリーダーシップの専門知識を活用し、通常AIイニシアチブを遅らせる調達、セットアップ、最適化の複雑さを排除します。
  • デジタル主権の要件を満たす: 政府や企業が、厳格なデータレジデンシー要件やデジタル主権の要件を満たすのに役立ちます。あなた、または指定された信頼できるコミュニティ専用に構築された専用環境として動作し、完全な分離と運用上の独立性を保証します。
  • AWSのフル活用: AWSの広範なサービスセットと統合しながら、Amazon BedrockやAmazon SageMakerのような統合されたAWS AIサービスを通じて、主要な基盤モデルに即座にアクセスできます。インフラはAWSが展開・管理するため、顧客は既に確保しているデータセンターのスペースと電力容量を提供するだけです。
  • イノベーションへの集中: インフラの複雑さではなく、イノベーションに集中できます。AWSが展開のタイムラインを加速させます。

これまでとどう変わるのか
#

  • これまで: オンプレミスや自社データセンターで高性能なAIインフラを構築するには、ハードウェアの選定・調達、ネットワーク構築、ソフトウェアのセットアップと最適化など、多大な時間と専門知識、コストが必要でした。
  • これから: 顧客は自社のデータセンター施設を提供するだけで、AWSがパブリッククラウドリージョンで利用可能なものと同じ先進技術を持つ専用のAIインフラを迅速に展開・管理してくれます。

具体的なユースケース
#

  • データ主権や厳しいセキュリティ要件を持つ政府機関が、国内のデータセンターで大規模言語モデルをトレーニング・展開する。
  • 金融機関や医療機関など、機密性の高い専有データを使って、隔離された安全な環境でAIアプリケーションを構築する。
  • 自社でデータセンターは保有しているが、最新のAIハードウェアを迅速に導入し、市場投入までの時間を短縮したいと考えている大企業。
  • 特定の国や地域に閉じた、信頼できるパートナー企業間で共有するAI開発プラットフォームを構築する。

Amazon EC2 汎用M8aznインスタンス(プレビュー)の発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

本日より、新しい汎用の高周波・高ネットワークAmazon Elastic Compute Cloud (Amazon EC2) M8aznインスタンスがプレビューで利用可能になりました。これらのインスタンスは、第5世代AMD EPYC(旧コードネームTurin)プロセッサを搭載し、クラウドで最高の最大CPU周波数である5GHzを提供します。

何が嬉しいのか
#

  • 卓越したパフォーマンス: M8aznインスタンスは、前世代のM5znインスタンスと比較して最大2倍のコンピューティングパフォーマンスを提供します。また、M8aインスタンスよりも24%高いパフォーマンスを実現します。
  • 高周波数: クラウドで最高の最大5GHzのCPU周波数を誇り、レイテンシに敏感なアプリケーションに最適です。
  • AWS Nitro System搭載: AWSが設計したハードウェアとソフトウェアの革新的なコレクションであるAWS Nitro System上に構築されており、分離されたマルチテナンシー、プライベートネットワーキング、高速なローカルストレージを備えた、効率的で柔軟かつ安全なクラウドサービスを提供します。

これまでとどう変わるのか
#

  • これまで: M5znインスタンスなどが高い周波数を提供していましたが、M8aznはそれをさらに上回るパフォーマンスと周波数を実現します。
  • これから: 第5世代AMD EPYCプロセッサの能力を最大限に活用し、これまで以上に高いシングルスレッド性能とコンピューティング能力を必要とするワークロードを、クラウド上で効率的に実行できるようになります。

具体的なユースケース
#

  • ゲーミング: リアルタイムでの高い処理能力が求められるオンラインゲームのサーバー。
  • ハイパフォーマンスコンピューティング(HPC): 高速な計算が必要な科学技術計算。
  • 高頻度取引(HFT): 金融市場でのミリ秒単位の取引を実行するシステム。
  • CI/CD: 大規模なソフトウェアのビルドやテストを高速化するパイプライン。
  • シミュレーションモデリング: 自動車、航空宇宙、エネルギー、通信業界での複雑なシミュレーション。

AWS、EC2 C8ineインスタンスのプレビューを開始
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、カスタム第6世代Intel Xeonスケーラブルプロセッサ(Granite Rapids)と最新のAWS Nitro v6カードを搭載したAmazon EC2 C8ineインスタンスのプレビューを開始しました。これらのインスタンスは、データプレーンのパケット処理ワークロード専用に設計されています。

何が嬉しいのか
#

  • パケット処理性能の大幅向上: C8ineインスタンスは、前世代のC6inインスタンスと比較して、vCPUあたりのパケットパフォーマンスが最大2.5倍向上します。
  • ネットワーク帯域幅の向上: インターネットゲートウェイを介したネットワーク帯域幅が最大2倍、Elastic Network Interface(ENI)の数が最大3倍に増加します。
  • 小サイズパケットに最適: 小さいパケットサイズで高いパフォーマンスを必要とするパケット処理ワークロードに最適です。

これまでとどう変わるのか
#

  • これまで: C6inインスタンスなどがネットワーク最適化インスタンスとして提供されていましたが、特に小さなパケットを大量に処理するワークロードでは、さらなるパフォーマンスが求められていました。
  • これから: C8ineインスタンスは、最新のIntelプロセッサとNitro v6カードの能力を組み合わせることで、vCPUあたりのパケット処理能力を大幅に向上させ、ネットワーク仮想アプライアンスなどの性能を新たなレベルに引き上げます。

具体的なユースケース
#

  • セキュリティ仮想アプライアンス(次世代ファイアウォール、侵入検知・防止システムなど)。
  • 高性能なロードバランサー。
  • DDoS攻撃からの保護システム。
  • 通信事業者の5G UPF(User Plane Function)アプリケーション。

AWS Security Agent (プレビュー): プロアクティブなアプリセキュリティのためのAIエージェント
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、開発ライフサイクル全体を通じてアプリケーションをプロアクティブに保護する、AI搭載エージェント「AWS Security Agent」のプレビューを発表しました。このエージェントは、組織の要件に合わせた自動セキュリティレビューを実施し、コンテキストを意識した侵入テストを提供します。

何が嬉しいのか
#

  • 早期の脆弱性対策: 設計からデプロイまでセキュリティを継続的に検証することで、開発の早い段階ですべての環境にわたる脆弱性を防ぐのに役立ちます。
  • 一貫したポリシー適用: セキュリティチームは、承認済みの暗号化ライブラリや認証フレームワークなどの組織のセキュリティ要件を一度定義するだけです。エージェントは、定義された標準に対してアーキテクチャドキュメントとコードを評価し、違反が検出された際に具体的なガイダンスを提供します。
  • 侵入テストの変革: 定期的なボトルネックであった侵入テストを、オンデマンドの機能に変えます。エージェントがアプリケーションのコンテキストを把握し、高度な攻撃チェーンを実行して脆弱性を発見・検証するため、リスクへの暴露を劇的に削減します。
  • 開発速度との両立: 開発の速度に合わせてセキュリティレビューをスケールさせることができます。

これまでとどう変わるのか
#

  • これまで: セキュリティレビューや侵入テストは、手動で行われることが多く、時間がかかり、開発サイクルのボトルネックになることがありました。また、チームごとにセキュリティ基準の適用にばらつきが生じる可能性がありました。
  • これから: AWS Security Agentが、セキュリティ要件の検証と侵入テストを自動化・継続化します。これにより、セキュリティ担当者は手動のレビューから解放され、より戦略的な業務に集中でき、開発チームは迅速かつ安全にアプリケーションをリリースできるようになります。

具体的なユースケース
#

  • CI/CDパイプラインにAWS Security Agentを組み込み、コードがコミットされるたびに自動でセキュリティレビューを実行する。
  • 新機能のアーキテクチャ設計書をエージェントに評価させ、設計段階でセキュリティ上の欠陥を特定する。
  • デプロイ前に、アプリケーションに対して自動化されたコンテキストアウェアな侵入テストを実行し、未知の脆弱性を発見する。
  • 複数の開発チームにまたがる大規模プロジェクトで、一貫したセキュリティ基準が適用されていることを継続的に監視・強制する。

AWSサポートの変革:信頼できる人間の専門知識とAIを活用した運用
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSサポートは、そのサポートポートフォリオを変革し、インテリジェントで経験重視の3つのプラン(Business Support+, Enterprise Support, Unified Operations)に簡素化しました。各プランは、AIの速度と精度をAWSエンジニアの専門知識と組み合わせています。

何が嬉しいのか
#

  • エンジニアリング負担の軽減: 各プランは、より速い応答時間、プロアクティブなガイダンス、よりスマートな運用を追加し、エンジニアリングの負担を軽減します。
  • 信頼性と回復力の強化: AIによるインサイトと人間の判断を組み合わせることで、システムの信頼性と回復力を強化します。
  • 合理化されたクラウド運用: クラウド運用がより効率的かつ合理化されます。

これまでとどう変わるのか
#

  • これまで: 複数のサポートプランが存在し、それぞれ異なるサービスレベルが提供されていました。
  • これから: サポートプランが3つに簡素化され、AIの力が全面的に導入されます。
    • Business Support+: 24時間365日のAI支援を提供し、重大な問題に対しては30分以内にAWSのエキスパートと直接エンゲージメントできます(従来の2倍の速さ)。
    • Enterprise Support: これに加えて、専任のテクニカルアカウントマネージャー(TAM)が生成AIのインサイトと人間の判断を組み合わせて戦略的な運用ガイダンスを提供します。また、追加費用なしでAWS Security Incident Responseが含まれます。
    • Unified Operations: ミッションクリティカルなワークロード向けに設計された最上位プラン。専任のエキスパートからなるグローバルチームが、アーキテクチャレビュー、ガイド付きテスト、プロアクティブな最適化、重大なインシデントに対する5分間のコンテキスト固有の応答時間を提供します。

具体的なユースケース
#

  • Business Support+: 重要なアプリケーションで問題が発生した際、AIによる迅速な初期対応と、必要に応じて30分以内に専門家からのサポートを受ける。
  • Enterprise Support: 専任TAMから、コスト、効率性、回復力に関する戦略的なアドバイスを、AIの分析結果に基づいて受ける。また、セキュリティアラートの調査とトリアージを自動化する。
  • Unified Operations: ミッションクリティカルなシステムで重大な障害が発生した際、5分以内に状況を理解したエキスパートチームから具体的な対応支援を受ける。
  • AWS DevOps Agent連携: 調査中にワンクリックでAWSサポートに連携し、AWSのエキスパートが即座にコンテキストを把握して、より迅速な解決を図る。

Amazon Bedrock AgentCore Runtimeが双方向ストリーミングをサポート
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Bedrock AgentCore Runtimeが双方向ストリーミングをサポートしました。これにより、エージェントが聞きながら同時に応答し、会話の途中の割り込みや文脈の変更を処理する、リアルタイムな会話が可能になります。この機能は、対話全体で文脈が保持される継続的な双方向通信を可能にすることで、会話の摩擦を排除します。

何が嬉しいのか
#

  • 自然な会話体験: ユーザーはエージェントの応答を待つことなく、明確化や訂正を行うことができます。これにより、特に音声アプリケーションにおいて、途切れ途切れで不自然に感じられた対話が、よりスムーズで自然になります。
  • 開発労力の削減: AgentCore Runtimeに組み込まれているため、リアルタイムストリーミング機能を構築するために必要だった数ヶ月のエンジニアリング作業が不要になります。開発者は複雑なストリーミングインフラの管理ではなく、革新的なエージェント体験の構築に集中できます。
  • 応答性の向上: 音声エージェントだけでなく、テキストベースの対話においても、応答性が向上し、よりスムーズなやり取りが可能になります。

これまでとどう変わるのか
#

  • これまで: 従来のエージェントでは、ユーザーはエージェントが応答し終わるのを待ってから次の発話をする必要があり、会話の流れが途切れてしまいました。
  • これから: 双方向ストリーミングにより、ユーザーが会話の途中で割り込んだり、話題を変えたりしても、エージェントは文脈を維持しながら柔軟に応答できます。これにより、人間同士の会話に近い、自然な対話が実現します。

具体的なユースケース
#

  • 顧客が問い合わせの途中で言い間違えを訂正したり、追加情報を提供したりしても、スムーズに対応できるコールセンターの音声ボット。
  • ユーザーが「あ、やっぱり明日の天気も教えて」のように、会話の途中でリクエストを変更しても、即座に応答できるスマートスピーカーやバーチャルアシスタント。
  • リアルタイムでのチャットサポートにおいて、ユーザーの入力中にエージェントが先読みして回答候補を提示するなど、応答速度を向上させたテキストベースのチャットボット。
  • 複雑な問題を解決するための対話型トラブルシューティングツールで、ユーザーからのフィードバックに即座に反応し、次のステップを提示するエージェント。

Amazon Nova Act(GA)で本番UIワークフローを自動化するエージェントを構築
#

投稿日: 2025年12月02日

何ができるようになったのか
#

開発者が本番UIワークフローを自動化するための高信頼性エージェントのフリートを構築・管理するための新しいAWSサービス「Amazon Nova Act」の一般提供が開始されました。Nova Actは、カスタムのNova 2 Liteモデルを搭載しており、比類のないコスト効率、最短の価値実現時間、大規模な実装の容易さで高い信頼性を提供します。

何が嬉しいのか
#

  • 高信頼性のUI自動化: ブラウザでの反復的なUIワークフローを確実に完了させ、APIやツール(例:PDFへの書き込み)を実行し、適切な場合には人間のスーパーバイザーにエスカレーションできます。
  • 柔軟なワークフロー定義: 企業全体の反復的なプロセスを自動化する必要がある開発者は、自然言語の柔軟性と、より決定論的なPythonコードを組み合わせたワークフローを定義できます。
  • 迅速な開発とデプロイ: オンラインプレイグラウンドで迅速にプロトタイピングを開始し、Nova Act IDE拡張機能を使用してスクリプトを改良・デバッグし、わずか数ステップでAWSにデプロイできます。

これまでとどう変わるのか
#

  • これまで: UIの自動化は、画面の変更に弱いセレクタベースのツールに依存することが多く、信頼性の低いものでした。また、構築やメンテナンスに専門的な知識が必要でした。
  • これから: Nova Actは、AIモデルの力でUIの意図を理解し、より堅牢で信頼性の高い自動化を実現します。自然言語とコードを組み合わせることで、開発者は複雑なワークフローを直感的かつ効率的に構築できます。

具体的なユースケース
#

  • 顧客からの注文情報をウェブベースの社内システムに自動で入力する。
  • 複数のウェブサイトから定期的に情報を収集し、レポートを生成してPDFとして保存する。
  • ソフトウェアのUIテストを自動化し、ボタンのクリックやフォームへの入力などをエージェントに実行させる。
  • 複雑な例外処理が発生した場合、自動的に人間の担当者に通知し、作業を引き継いでもらう。

Amazon CloudWatch GenAI オブザーバビリティがAmazon AgentCore Evaluationsをサポート
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon CloudWatchは、AgentCore Evaluationsを通じてAIエージェントの品質評価を自動化できるようになりました。この新機能により、開発者は実際のインタラクションに基づいてエージェントのパフォーマンスを継続的に監視・改善し、品質問題が顧客に影響を与える前に特定・対処することができます。

何が嬉しいのか
#

  • 継続的な品質監視: 有用性、ツール選択、応答の正確性など、重要な品質側面をカバーする13の事前構築済み評価ツールを利用できます。また、カスタムのモデルベースのスコアリングシステムもサポートしています。
  • 統合されたダッシュボード: CloudWatchダッシュボードで、統一された品質メトリクスとエージェントのテレメトリにアクセスできます。エンドツーエンドのトレース機能により、評価メトリクスをプロンプトやログと関連付けることができます。
  • 既存機能とのシームレスな統合: Application Signals、Alarms、Sensitive Data Protection、Logs Insightsなど、CloudWatchの既存機能とシームレスに統合されます。
  • 開発の加速: チームがカスタムの評価インフラを構築・維持する必要がなくなるため、高品質なAIエージェントのデプロイが加速します。CloudWatch GenAIオブザーバビリティコンソールのAgentCoreセクションを通じて、エージェントフリート全体を監視できます。

これまでとどう変わるのか
#

  • これまで: AIエージェントの品質を評価し、継続的に監視するには、独自のテストハーネスや評価基盤を構築・維持する必要があり、多大な労力がかかりました。
  • これから: CloudWatchとAgentCore Evaluationsが統合されたことで、エージェントの品質評価が自動化され、標準化されます。開発者は、使い慣れたCloudWatchの画面から、エージェントのパフォーマンスと品質を一元的に監視・分析できるようになります。

具体的なユースケース
#

  • カスタマーサポート用AIエージェントの応答が、本当に役立つものになっているか(有用性)を継続的にスコアリングする。
  • 複数のAPIを呼び出すエージェントが、状況に応じて最適なツールを正しく選択できているかを監視する。
  • RAG(Retrieval-Augmented Generation)アプリケーションで、エージェントが生成する回答の正確性を、ユーザーからのフィードバックや正解データと照らし合わせて評価する。
  • エージェントのパフォーマンスが低下した際にCloudWatchアラームを発報させ、開発者に即座に通知する。

新しいコンピューティング最適化Amazon EC2 C8aインスタンスの発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、新しいコンピューティング最適化Amazon EC2 C8aインスタンスの一般提供を発表しました。C8aインスタンスは、最大周波数4.5GHzの第5世代AMD EPYCプロセッサ(旧コードネームTurin)を搭載しています。

何が嬉しいのか
#

  • パフォーマンスの大幅向上: C7aインスタンスと比較して、最大30%高いパフォーマンスと最大19%優れた価格性能比を提供します。
  • メモリ帯域幅の向上: C7aインスタンスと比較してメモリ帯域幅が33%向上しており、レイテンシに敏感なワークロードに最適です。
  • Javaアプリケーションの高速化: Amazon EC2 C7aインスタンスと比較して、GroovyJVMで最大57%高速であり、Javaベースのアプリケーションの応答時間を改善します。
  • 豊富なサイズ選択: 2つのベアメタルサイズを含む12のサイズを提供し、顧客はワークロード要件に正確に合わせることができます。

これまでとどう変わるのか
#

  • これまで: C7aインスタンスが高いコンピューティング性能を提供していましたが、C8aはそれをさらに上回るパフォーマンスと価格性能比を実現します。
  • これから: 最新のAMD EPYCプロセッサの能力により、バッチ処理や分散分析など、高い計算能力を要求されるワークロードを、より高速かつコスト効率よく実行できます。

具体的なユースケース
#

  • 大規模なデータセットに対するバッチ処理ジョブ。
  • SparkやHadoopなどを使用した分散分析プラットフォーム。
  • 科学技術計算や金融モデリングなどのハイパフォーマンスコンピューティング(HPC)。
  • 低レイテンシが要求される広告配信サーバー。
  • 大規模なマルチプレイヤーオンラインゲームのバックエンドサーバー。
  • 高解像度ビデオのエンコーディング処理。

最大35%の割引が可能なデータベースSavings Plansを発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

本日、AWSは新しい柔軟な料金モデル「データベースSavings Plans」を発表しました。これは、1年間の契約期間で一定量の使用量($/時間で測定)を約束する代わりに、最大35%の割引を受けることができるものです。前払いは不要です。

何が嬉しいのか
#

  • 大幅なコスト削減: 一定のデータベース利用が見込まれる場合、オンデマンド料金と比較してコストを大幅に削減できます。
  • 高い柔軟性: データベースSavings Plansは、サポートされているエンジン、インスタンスファミリー、サイズ、デプロイオプション、AWSリージョンに関係なく、対象となるサーバーレスおよびプロビジョニングされたインスタンスの使用量に自動的に適用されます。
  • モダナイゼーションを促進: 例えば、Aurora db.r7gとdb.r8gインスタンスを切り替えたり、ワークロードをEU(アイルランド)からUS(オハイオ)に移行したり、Amazon RDS for OracleからAmazon Aurora PostgreSQLへ、あるいはRDSからAmazon DynamoDBへモダナイズしたりしても、引き続き割引価格の恩恵を受けることができます。

これまでとどう変わるのか
#

  • これまで: データベースのコストを削減するには、主にリザーブドインスタンスが利用されていましたが、これは特定のインスタンスタイプやリージョンに縛られるなど、柔軟性に欠ける面がありました。
  • これから: データベースSavings Plansの登場により、エンジン、インスタンスタイプ、リージョンを自由に変更しながら、幅広いAWSデータベースサービスにわたって自動的に割引を適用できるようになります。これにより、アーキテクチャの変更やモダナイゼーションをより柔軟かつ低コストで進めることが可能になります。

具体的なユースケース
#

  • 対象サービス:
    • Amazon Aurora
    • Amazon RDS
    • Amazon DynamoDB
    • Amazon ElastiCache
    • Amazon DocumentDB (MongoDB互換)
    • Amazon Neptune
    • Amazon Keyspaces (Apache Cassandra用)
    • Amazon Timestream
    • AWS Database Migration Service (DMS)
  • 複数のデータベースサービスを組み合わせて利用しており、全体のコストを最適化したい。
  • アプリケーションの要件変更に伴い、将来的にデータベースのインスタンスタイプやリージョンを変更する可能性がある。
  • オンプレミスのデータベースからAWSのマネージドデータベースへの移行を計画しており、移行後のコストを抑えたい。

運用卓越性のためのフロンティアエージェント、AWS DevOps Agent(プレビュー)の紹介
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、インシデントを解決し、プロアクティブに防止するフロンティアエージェント「AWS DevOps Agent」のプレビューを開始しました。このエージェントは、AWS、マルチクラウド、ハイブリッド環境におけるアプリケーションの信頼性とパフォーマンスを継続的に向上させます。

何が嬉しいのか
#

  • 経験豊富なエンジニアのように調査: AWS DevOps Agentは、リソースとその関係を学習し、可観測性ツール、ランブック、コードリポジトリ、CI/CDパイプラインと連携します。テレメトリ、コード、デプロイメントデータを相互に関連付けてアプリケーションリソース間の関係を理解し、経験豊富なDevOpsエンジニアのようにインシデントを調査し、運用上の改善点を特定します。
  • 迅速なインシデント解決: インシデントを自律的にトリアージし、チームを迅速な解決に導くことで、平均解決時間(MTTR)を短縮します。午前2時であろうとピーク時であろうと、アラートが入った瞬間に調査を開始し、アプリケーションを最適なパフォーマンスに迅速に復旧させます。
  • プロアクティブな改善提案: 過去のインシデント全体のパターンを分析し、可観測性、インフラ最適化、デプロイメントパイプラインの強化といった主要分野を強化するための実用的な推奨事項を提供します。
  • 既存ワークフローの維持: ワークフローを変更することなく、運用データやツールに眠っている未開拓の洞察にアクセスするのに役立ちます。

これまでとどう変わるのか
#

  • これまで: インシデント対応は、エンジニアが手動で様々なツールから情報を収集・分析し、根本原因を特定するという、時間と労力のかかるプロセスでした。また、根本的な改善策を見出すのは困難な場合がありました。
  • これから: AWS DevOps Agentが、アラート受信から調査、トリアージ、解決策のガイドまでを自律的に行います。これにより、インシデント対応が大幅に迅速化され、エンジニアの負担が軽減されます。さらに、過去のデータからプロアクティブな改善提案を行うことで、将来のインシデント発生を未然に防ぎます。

具体的なユースケース
#

  • 深夜に発生した本番環境のアラートに対し、DevOps Agentが自動で初期調査を行い、影響範囲と原因の仮説を特定して、オンコール担当者にエスカレーションする。
  • 頻発する特定のエラーについて、Agentが過去のインシデントを横断的に分析し、「特定のライブラリのバージョンアップ」や「関連するメトリクスの監視強化」といった具体的な改善策を提案する。
  • 新しいアプリケーションをデプロイする際に、Agentが既存の運用パターンを学習し、最適な監視設定やアラート閾値を自動で推奨する。

Amazon GuardDuty拡張脅威検出がAmazon EC2とAmazon ECSをサポート
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、Amazon GuardDuty拡張脅威検出(Extended Threat Detection)のさらなる機能強化を発表しました。これにより、Amazon EC2インスタンスや、AWS FargateまたはAmazon EC2上で実行されているAmazon Elastic Container Service (Amazon ECS) クラスターを標的とする多段階攻撃を検出する新機能が追加されます。

何が嬉しいのか
#

  • 高度な攻撃の検出: GuardDuty拡張脅威検出は、AIと機械学習アルゴリズムを使用してセキュリティシグナルを自動的に関連付け、重大な脅威を検出します。ネットワークアクティビティ、プロセスランタイムの振る舞い、マルウェアの実行、AWS APIアクティビティなど、複数のセキュリティシグナルを長期間にわたって分析し、見過ごされがちな巧妙な攻撃パターンを検出します。
  • 調査時間の短縮: 新たに導入された2つの重大な検出結果(AttackSequence:EC2/CompromisedInstanceGroupAttackSequence:ECS/CompromisedCluster)は、攻撃シーケンス情報を提供します。これにより、初期分析の時間を短縮し、重大な脅威への対応により多くの時間を費やすことができ、ビジネスへの影響を最小限に抑えることができます。
  • 詳細なコンテキスト提供: 各検出結果には、詳細なサマリー、イベントのタイムライン、MITRE ATT&CK®の戦術・技術へのマッピング、および修復の推奨事項が含まれます。

これまでとどう変わるのか
#

  • これまで: 個々の不審なアクティビティは検出できても、それらが一連の攻撃キャンペーンの一部であると関連付けるには、セキュリティアナリストによる手動での詳細な調査が必要でした。
  • これから: GuardDutyが、例えば不審なプロセスの実行、その後の永続化の試み、暗号通貨マイニング活動、リバースシェルの作成といった一連の関連イベントを、単一の重大な検出結果として自動的に集約して報告します。これにより、攻撃の全体像を迅速に把握し、対応できるようになります。

具体的なユースケース
#

  • 攻撃者がEC2インスタンスに侵入し、権限昇格を行い、最終的にデータ窃取を試みるという一連の攻撃シーケンスを単一のアラートとして検出する。
  • ECSクラスター内のコンテナが侵害され、そのコンテナを踏み台にしてクラスター内の他のコンテナやホストに攻撃が横展開される動きを検知する。
  • マルウェアがEC2インスタンス上で実行され、外部のC2サーバーと通信を開始し、機密情報を外部に送信しようとする一連の流れを捉える。
GuardDuty拡張脅威検出は、追加費用なしで自動的に有効になりますが、検出の包括性は有効になっているGuardDuty保護プランに依存します。EC2インスタンスの攻撃シーケンスカバレッジと脅威分析を向上させるには、EC2のランタイムモニタリングを有効にしてください。侵害されたECSクラスターの検出を有効にするには、インフラストラクチャの種類に応じてFargateまたはEC2のランタイムモニタリングを有効にする必要があります。

AWS Lambda、複数ステップのアプリケーションとAIワークフローのためのdurable functionsを発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWS Lambdaは、durable functions(永続的関数)を発表しました。これにより、開発者はLambdaの開発体験の中で、信頼性の高い複数ステップのアプリケーションやAIワークフローを構築できます。Durable functionsは、進捗を自動的にチェックポイントし、長時間実行されるタスク中は最大1年間実行を中断し、障害から回復します。これらはすべて、追加のインフラを管理したり、カスタムの状態管理やエラーハンドリングのコードを書いたりすることなく実現できます。

何が嬉しいのか
#

  • 複雑なワークフローの簡素化: これまでカスタムの状態管理ロジックや外部のオーケストレーションサービスとの統合が必要だった、注文処理やユーザーオンボーディングのような複数ステップのアプリケーションを、Lambda内でシンプルに記述できます。
  • コスト効率: stepswaitsのような新しい操作により、進捗をチェックポイントし、実行を一時停止できます。一時停止中はコンピューティング料金が発生しません。
  • 高い信頼性: サービスが状態管理、エラー回復、長時間タスクの効率的な一時停止と再開を処理するため、開発者はコアのビジネスロジックに集中できます。障害が発生しても、最後のチェックポイントから自動的に再開されます。

これまでとどう変わるのか
#

  • これまで: 従来のLambda関数は、単一の短命なタスクの処理に優れていましたが、複数のステップにまたがる複雑なロジックを実装するには、Step Functionsなどの外部オーケストレーターと組み合わせるか、自身で状態を管理する仕組み(例:DynamoDBテーブル)を構築する必要がありました。
  • これから: Lambdaのプログラミングモデルが拡張され、関数内で直接stepswaitsといった構文を使って、複数ステップのワークフローを定義できるようになります。Lambdaが裏側で状態管理とオーケストレーションを行ってくれるため、コードがシンプルになり、開発が容易になります。

具体的なユースケース
#

  • ユーザーからの注文を受け付け、在庫を確認し、決済を処理し、発送を手配するという一連の注文処理ワークフロー。
  • 新規ユーザー登録後、ウェルカムメールを送信し、翌日にフォローアップメールを送信し、1週間後に利用状況を確認するといったオンボーディングプロセス。
  • ユーザーからのプロンプトに基づいて複数のAIモデルを呼び出し、その結果を統合して最終的な回答を生成するAI支援ワークフロー。
  • 人間の承認が必要なステップで実行を一時停止し、承認後にワークフローを再開するような業務プロセス。

新しいメモリ最適化Amazon EC2 X8aedzインスタンスの発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、第5世代AMD EPYCプロセッサ(旧コードネームTurin)を搭載した次世代のメモリ最適化インスタンス、Amazon EC2 X8aedzを発表しました。これらのインスタンスは、クラウドで最高の最大CPU周波数である5GHzを提供します。

何が嬉しいのか
#

  • 卓越したパフォーマンス: 前世代のX2ieznインスタンスと比較して、最大2倍高いコンピューティングパフォーマンスを提供します。
  • 高周波数と大容量メモリ: 5GHzという高いCPU周波数と、vCPUに対するメモリ比率が32:1という大容量メモリの組み合わせにより、特定のワークロードで高い性能を発揮します。
  • EDAワークロードに最適: 高いシングルスレッドプロセッサ性能と大きなメモリフットプリントの恩恵を受ける、電子設計自動化(EDA)ワークロードやリレーショナルデータベースに最適です。5GHzのプロセッサとローカルNVMeストレージの組み合わせにより、フロアプランニング、ロジック配置、クロックツリー合成(CTS)、ルーティングなどのメモリ集約型バックエンドEDAワークロードの処理が高速化されます。

これまでとどう変わるのか
#

  • これまで: X2ieznなどのインスタンスが高いシングルスレッド性能とメモリを提供していましたが、X8aedzは最新のプロセッサにより、それをさらに上回る性能を実現します。
  • これから: クラウド最高クラスのCPU周波数と大容量メモリ、高速なローカルストレージを組み合わせることで、EDAや特定のリレーショナルデータベースのように、高いシングルスレッド性能とメモリの両方を極度に要求する、これまでクラウドでの実行が難しかったワークロードを効率的に処理できるようになります。

具体的なユースケース
#

  • EDAワークロード:
    • 物理レイアウトや物理検証ジョブ
    • フロアプランニング、ロジック配置、クロックツリー合成(CTS)、ルーティング
    • 電源/信号整合性解析
  • リレーショナルデータベース:
    • 高いシングルスレッド性能と大きなメモリフットプリントから恩恵を受けるデータベースアプリケーション。
  • 8つのサイズ(2〜96 vCPU、64〜3,072 GiBメモリ)と2つのベアメタルバリアントがあり、最大8TBのローカルNVMe SSDストレージを利用できます。

Mistral Large 3とMinistral 3ファミリーがAmazon Bedrockで先行提供開始
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Mistral Large 3とMinistral 3ファミリーのモデルが、Amazon Bedrockで先行して利用可能になりました。これらに加え、Voxtral Mini 1.0, Voxtral Small 1.0, Magistral Small 1.2などの追加モデルも利用できます。

何が嬉しいのか
#

  • 最先端モデルへの早期アクセス: Amazon Bedrockは、これらの最先端モデルを最初に提供するプラットフォームであり、顧客はMistral AIの最新イノベーションに早期にアクセスできます。
  • Mistral Large 3: 信頼性と長いコンテキストの理解のために設計された、最先端のオープンウェイト、汎用マルチモーダルモデルです。41Bのアクティブパラメータと675Bの総パラメータを持つ粒度の細かい専門家混合(MoE)アーキテクチャを特徴としています。256Kのコンテキストウィンドウと強力なエージェント能力をサポートし、本番グレードのアシスタント、RAGシステム、複雑なエンタープライズワークフローに優れています。
  • Ministral 3ファミリー: 14B、8B、3Bのモデルで構成され、言語、ビジョン、指示の各バリアントで競争力のあるチェックポイントを提供します。これにより、開発者はカスタマイズとデプロイに適したスケールを選択できます。
    • Ministral 3 14B: ローカルデプロイメント向けの高度なマルチモーダル機能を提供します。
    • Ministral 3 8B: エッジデプロイメントとシングルGPU運用向けに、クラス最高のテキストおよびビジョン機能を提供します。
    • Ministral 3 3B: 低リソース環境向けのコンパクトなパッケージで堅牢な機能を提供します。

これまでとどう変わるのか
#

  • これまで: Mistral AIの最新モデルを利用するには、自前で環境を構築するか、他のプラットフォームでの提供を待つ必要がありました。
  • これから: Amazon Bedrockを通じて、最先端のフロンティアインテリジェンスから効率的なエッジコンピューティングまで、Mistral AIの最新モデル群にいち早く、かつフルマネージドの環境でアクセスできるようになります。

具体的なユースケース
#

  • Mistral Large 3: 長大なドキュメント(財務報告書、法律文書など)を読み込ませ、複雑な質疑応答を行うエンタープライズ向けAIアシスタントを構築する。
  • Ministral 3 14B: オンプレミスやVPC内のサーバーで、画像とテキストを組み合わせた分析タスクを実行する。
  • Ministral 3 8B: スマートカメラや産業用PCなどのエッジデバイス上で、リアルタイムの画像認識とテキスト生成を行う。
  • Ministral 3 3B: モバイルデバイスやリソースの限られたIoTデバイス上で、軽量な自然言語処理タスクを実行する。

新しいメモリ最適化Amazon EC2 X8aedzインスタンスの発表
#

投稿日: 2025年12月02日

何ができるようになったのか
#

AWSは、第5世代AMD EPYCプロセッサ(旧コードネームTurin)を搭載した次世代のメモリ最適化インスタンス、Amazon EC2 X8aedzを発表しました。これらのインスタンスは、クラウドで最高の最大CPU周波数である5GHzを提供します。

何が嬉しいのか
#

  • 卓越したパフォーマンス: 前世代のX2ieznインスタンスと比較して、最大2倍高いコンピューティングパフォーマンスを提供します。
  • 高周波数と大容量メモリ: 5GHzという高いCPU周波数と、vCPUに対するメモリ比率が32:1という大容量メモリの組み合わせにより、特定のワークロードで高い性能を発揮します。
  • EDAワークロードに最適: 高いシングルスレッドプロセッサ性能と大きなメモリフットプリントの恩恵を受ける、電子設計自動化(EDA)ワークロードやリレーショナルデータベースに最適です。5GHzのプロセッサとローカルNVMeストレージの組み合わせにより、フロアプランニング、ロジック配置、クロックツリー合成(CTS)、ルーティングなどのメモリ集約型バックエンドEDAワークロードの処理が高速化されます。

これまでとどう変わるのか
#

  • これまで: X2ieznなどのインスタンスが高いシングルスレッド性能とメモリを提供していましたが、X8aedzは最新のプロセッサにより、それをさらに上回る性能を実現します。
  • これから: クラウド最高クラスのCPU周波数と大容量メモリ、高速なローカルストレージを組み合わせることで、EDAや特定のリレーショナルデータベースのように、高いシングルスレッド性能とメモリの両方を極度に要求する、これまでクラウドでの実行が難しかったワークロードを効率的に処理できるようになります。

具体的なユースケース
#

  • EDAワークロード:
    • 物理レイアウトや物理検証ジョブ
    • フロアプランニング、ロジック配置、クロックツリー合成(CTS)、ルーティング
    • 電源/信号整合性解析
  • リレーショナルデータベース:
    • 高いシングルスレッド性能と大きなメモリフットプリントから恩恵を受けるデータベースアプリケーション。
  • 8つのサイズ(2〜96 vCPU、64〜3,072 GiBメモリ)と2つのベアメタルバリアントがあり、最大8TBのローカルNVMe SSDストレージを利用できます。

Amazon Nova 2基盤モデルがAmazon Bedrockで利用可能に
#

投稿日: 2025年12月02日

何ができるようになったのか
#

本日、AWSは次世代の汎用モデルであるAmazon Nova 2を発表しました。これらのモデルは、業界をリードする価格性能比で推論機能を提供します。Amazon Bedrockで利用可能な新しいモデルは以下の通りです。

  • Amazon Nova 2 Lite: 日常的なワークロード向けの高速で費用対効果の高い推論モデルです。
  • Amazon Nova 2 Pro (プレビュー): 非常に複雑な多段階タスク向けの、最もインテリジェントなモデルです。

何が嬉しいのか
#

  • 大幅な性能向上: Nova 2 LiteとNova 2 Pro (プレビュー) は、前世代モデルから大幅な進歩を遂げています。
  • 拡張された推論機能: 段階的な推論とタスク分解による拡張された思考をサポートし、思考強度を「低」「中」「高」の3段階で制御できるため、開発者は速度、インテリジェンス、コストのバランスを調整できます。
  • 組み込みツールと広範なコンテキスト: コードインタープリタやウェブグラウンディングなどの組み込みツールを提供し、リモートMCPツールをサポートします。また、より豊かな対話のために100万トークンのコンテキストウィンドウを提供します。

これまでとどう変わるのか
#

  • これまで: AWSの生成AIモデルは既存のものがありましたが、Nova 2は次世代の性能と価格対効果を実現し、より幅広いユースケースに対応できるようになります。特に、思考強度を制御できることで、開発者はコストと性能の最適なバランスを細かく調整できるようになります。
  • これから: 日常的なタスクから非常に複雑なタスクまで、様々なニーズに対応するモデル選択肢が提供されます。

具体的なユースケース
#

  • Amazon Nova 2 Lite:
    • カスタマーサービスチャットボット
    • ドキュメント処理
    • ビジネスプロセス自動化
  • Amazon Nova 2 Pro (プレビュー):
    • 複数のドキュメント分析
    • ビデオ推論
    • ソフトウェア移行などの複雑なエージェントタスク
Nova 2 Proは、Amazon Nova Forgeのお客様には早期アクセスとしてプレビュー提供されています。 Nova 2 Liteは、Amazon BedrockおよびAmazon SageMakerでの教師ありファインチューニング(SFT)によるカスタマイズが可能であり、Amazon SageMakerでは完全なファインチューニングも可能です。

Amazon RDS for OracleとSQL Serverが最大256 TiBのストレージをサポート
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Relational Database Service (Amazon RDS) for OracleとSQL Serverが、追加ストレージボリュームにより最大256 TiBのストレージサイズをサポートするようになりました。これは、データベースインスタンスあたりのストレージサイズが4倍に増加したことを意味します。顧客はプライマリストレージボリュームに加えて、それぞれ最大64 TiBのストレージボリュームを最大3つまで追加できます。

何が嬉しいのか
#

  • 大容量ストレージのサポート: データベースインスタンスの最大ストレージ容量が大幅に増加し、非常に大規模なデータベースを運用できるようになります。
  • 柔軟なストレージ管理: 追加ストレージボリュームは、アプリケーションのダウンタイムなしで追加、スケールアップ、または削除できるため、ワークロードの変化に応じて柔軟にストレージを調整できます。
  • コストパフォーマンスの最適化: 高性能なProvisioned IOPS SSD (io2) ボリュームと汎用 (gp3) ボリュームを組み合わせて使用することで、コストパフォーマンスを最適化できます。例えば、一貫したIOPSパフォーマンスが必要なデータはio2ボリュームに、あまりアクセスされない履歴データはgp3ボリュームに保存することで、ストレージコストを最適化できます。
  • 一時的なストレージ需要への対応: 月末のデータ処理やローカルストレージからのデータインポートなど、一時的に追加ストレージが必要な場合にボリュームを追加し、不要になったら削除することができます。

これまでとどう変わるのか
#

  • これまで: データベースインスタンスごとのストレージサイズには上限があり、それを超えるデータはシャーディングなどの複雑な設計や運用が必要でした。
  • これから: 複数のストレージボリュームを組み合わせることで、単一のデータベースインスタンスで最大256 TiBという大容量をサポートできるようになります。これにより、運用が簡素化され、より大規模なデータセットを扱うアプリケーションをRDS上で実行しやすくなります。

具体的なユースケース
#

  • 大規模なデータウェアハウスやデータレイクのバックエンドとしてRDS for Oracle/SQL Serverを利用する。
  • 規制要件により長期間保存する必要がある履歴データなど、アクセス頻度は低いが大容量のデータをコスト効率良く管理する。
  • 一時的なデータ分析やレポート作成のために、必要な期間だけストレージ容量を増やし、完了後に元に戻す。
  • パフォーマンスが重要なアクティブデータと、アーカイブ用の低コストデータでストレージタイプを使い分ける。

Amazon S3 Batch Operationsがパフォーマンスを向上
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon S3 Batch Operationsは、最大200億オブジェクトのジョブを最大10倍高速に完了できるようになり、大規模なストレージ操作を加速します。これにより、数百万のオブジェクトを処理するジョブの完了までの時間が大幅に短縮されます。

何が嬉しいのか
#

  • 処理速度の向上: 大規模なバッチ操作(例えば、数百万オブジェクトの処理)において、これまでよりも最大10倍高速にジョブが完了します。
  • 効率的なストレージ管理: ステージングバケットと本番バケット間のオブジェクトコピー、S3ライフサイクル管理のためのオブジェクトタグ付け、保存されたデータセットの内容検証のためのオブジェクトチェックサム計算など、大規模な操作を効率的に実行できます。
  • 設定不要: 追加の設定やコストなしで、前処理、ジョブ実行、完了レポート生成が最大10倍高速化されます。
  • 簡単な開始: AWSマネジメントコンソールでジョブを作成し、操作タイプやフィルタ(バケット、プレフィックス、作成日など)を指定するだけで開始できます。S3がオブジェクトリストを自動生成し、必要な権限ポリシーを持つAWS IAMロールを作成し、ジョブを開始します。

これまでとどう変わるのか
#

  • これまで: 大量のS3オブジェクトに対する一括操作は、完了までに時間がかかり、特に数百万以上のオブジェクトを扱う場合には、かなりの待ち時間が発生していました。
  • これから: パフォーマンスの向上により、データ移行、アーカイブ、コンプライアンス関連のタスクなど、大規模なバッチ処理をこれまでよりもはるかに迅速に実行できるようになります。

具体的なユースケース
#

  • 大規模なデータ移行プロジェクトで、既存のバケットから新しいバケットへ数百万のオブジェクトを高速にコピーする。
  • 規制遵守のため、特定の条件を満たすオブジェクトにタグを一括で付与し、その後のライフサイクルルールを適用する。
  • 保存されたデータセットの整合性を確認するため、数百万のオブジェクトに対してチェックサム計算を一括で実行する。
  • S3に保存された膨大なログデータに対して、特定の時間範囲やプレフィックスに基づいて一括で操作を実行し、分析の前処理を高速化する。

Amazon S3 TablesがApache Icebergテーブルの自動レプリケーションをサポート
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon S3 Tablesは、AWSリージョンおよびアカウント間でのApache Icebergテーブルの自動レプリケーションをサポートするようになりました。この新機能により、すべてのスナップショットとメタデータを含む完全なテーブル構造がレプリケートされ、グローバルな分析ワークロードにおけるクエリレイテンシの削減とデータアクセシビリティの向上が実現します。

何が嬉しいのか
#

  • グローバルなデータ分析の簡素化: リージョンやアカウントをまたいだデータ分析ワークロードにおいて、データの一貫性を保ちつつ、低いクエリレイテンシでデータにアクセスできるようになります。
  • 自動化されたデータ同期: S3 Tablesのレプリケーション機能は、宛先テーブルバケットに読み取り専用のレプリカテーブルを自動的に作成し、ソーステーブルの最新の状態にバックフィルし、新しい更新を継続的に監視してレプリカを同期させます。
  • コンプライアンスとデータ保護の強化: レプリカテーブルは、ソーステーブルとは独立したスナップショット保持ポリシーと暗号化キーで設定できるため、コンプライアンスやデータ保護の要件を満たすことができます。
  • 幅広いツールとの互換性: Amazon SageMaker Unified Studioや、Amazon Athena、Amazon Redshift、Apache Spark、DuckDBなどのIceberg互換エンジンを使用して、レプリカテーブルをクエリできます。

これまでとどう変わるのか
#

  • これまで: Apache Icebergテーブルを複数のリージョンやアカウント間で同期させるには、手動でのデータコピーやカスタムのスクリプトを記述する必要があり、複雑でエラーが発生しやすいものでした。
  • これから: S3 Tablesが自動的にこのプロセスを管理してくれるため、運用の負担が大幅に軽減され、グローバルなデータ分析環境の構築が簡素化されます。

具体的なユースケース
#

  • 地域ごとに分散したビジネスデータを一元的に分析するために、各リージョンのIcebergテーブルを中央のデータレイクに自動レプリケーションする。
  • 災害対策(DR)戦略の一環として、本番環境のIcebergテーブルを別のリージョンやアカウントに自動でバックアップし、RPO(目標復旧時点)とRTO(目標復旧時間)を改善する。
  • 開発環境やテスト環境に本番環境のデータを反映させる際に、手動でのデータ転送ではなく、S3 Tablesのレプリケーション機能を利用して常に最新のデータを供給する。
  • データ共有やコラボレーションのために、特定のIcebergテーブルをパートナー企業のアカウントに共有し、常に最新のデータを利用できるようにする。

Amazon S3 TablesがIntelligent-Tieringストレージクラスを提供開始
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon S3 TablesがIntelligent-Tieringストレージクラスを提供するようになりました。これにより、パフォーマンスへの影響や運用上のオーバーヘッドなしに、アクセスパターンに基づいてコストを最適化できます。Intelligent-Tieringは、テーブル内のデータがアクセスパターンに応じて自動的に3つの低レイテンシアクセス層間を移行し、ストレージコストを最大80%削減します。

何が嬉しいのか
#

  • コストの自動最適化: データアクセス頻度に応じてストレージ層が自動的に変更されるため、手動でライフサイクルポリシーを設定する必要がありません。これにより、ストレージコストを最大80%削減できます。
  • パフォーマンス維持: アクセス頻度が変化しても、パフォーマンスに影響を与えることなくデータが適切なストレージ層に移動します。
  • 運用オーバーヘッドの削減: S3 Tablesの自動メンテナンス操作(コンパクション、スナップショットの期限切れ、参照されていないファイルの削除など)はデータをティアアップしないため、テーブルは最適化された状態を保ちながらストレージコストを節約できます。

これまでとどう変わるのか
#

  • これまで: データレイクのテーブル(特にApache Iceberg形式)のストレージコストを最適化するには、データのアクセスパターンを分析し、手動でライフサイクルルールを設定する必要があり、手間とミスが発生しやすい状況でした。
  • これから: S3 Intelligent-TieringをS3 Tablesに適用することで、データのアクセスパターンをS3が自動で監視し、適切なストレージ層にデータを移動させてくれます。これにより、運用負担なくコストを削減しながら、データレイクの管理を簡素化できます。

具体的なユースケース
#

  • アクセス頻度が変動するログデータやイベントデータを含むデータレイク。
  • 時間の経過とともにアクセス頻度が低下するアーカイブデータ。
  • アクセスパターンが予測困難な機械学習モデルのトレーニングデータや結果。
  • 大規模なデータ分析プラットフォームにおいて、データウェアハウスのストレージコストを自動的に削減したい場合。
Intelligent-Tieringストレージクラスでは、30日間連続してアクセスされなかったデータはInfrequent Access層に自動的に移行します(Frequent Access層より40%低コスト)。さらに90日間アクセスがなかったデータはArchive Instant Access層に移行します(Infrequent Access層より68%低コスト)。

Amazon SageMaker AIがサーバーレスMLflow機能を発表し、AI開発を加速
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon SageMaker AIは、AIモデル開発タスクをサポートするために動的にスケールするサーバーレスMLflow機能を提供するようになりました。MLflowを使用することで、AI開発者はインフラのセットアップを待つことなく、実験の追跡、比較、評価を開始できます。

何が嬉しいのか
#

  • インフラ管理の不要化: MLflowインフラの管理(追跡サーバーの継続的な維持とスケーリング、複雑な容量計画の決定、データ分離のための個別のインスタンスデプロイなど)から管理者を解放します。これにより、リソースをコアのAI開発に集中させ、チームの生産性とコスト効率に影響を与えるボトルネックを解消できます。
  • 動的なスケーリング: 要求が厳しく予測不可能なモデル開発タスクに対して、MLflowが動的にスケールして高速なパフォーマンスを提供し、アイドル時にはスケールダウンします。
  • クロスアカウントコラボレーションの簡素化: リソースアクセスマネージャー(RAM)を介したクロスアカウントアクセスを設定することで、組織の境界を越えたコラボレーションを簡素化し、生産性を向上させます。
  • 既存機能とのネイティブ連携: Amazon SageMaker AIのJumpStart、Model Registry、Pipelinesといった馴染みのあるモデル開発機能とネイティブに連携します。追加費用なしで提供され、自動バージョンアップデートにより最新のMLflowを利用できます。

これまでとどう変わるのか
#

  • これまで: MLflowを運用するには、追跡サーバーのプロビジョニング、スケーリング、維持管理といったインフラのオーバーヘッドが伴いました。これにより、AI開発リソースがインフラ管理に分散され、開発の速度やコスト効率に影響を与えていました。
  • これから: SageMaker AIがサーバーレスでMLflowを提供することで、これらの運用上の負担がなくなります。AI開発者は、インフラを気にすることなく、MLモデルの実験、追跡、評価に集中でき、AI開発を大幅に加速できます。

具体的なユースケース
#

  • 大規模なハイパーパラメータチューニング実験を実行する際に、MLflowが自動的にスケールアップして大量の実験結果を追跡し、比較分析を支援する。
  • 複数のデータサイエンティストが異なるAWSアカウントでMLモデル開発を行っている際に、SageMaker AIとRAMを組み合わせて、共通のMLflowトラッキングサーバーを共有し、実験の再現性と管理を容易にする。
  • 新しいAIモデルを開発する際、SageMaker JumpStartでベースモデルを選択し、SageMaker Pipelinesでトレーニングパイプラインを構築し、そのすべての実験情報をMLflowで自動的に追跡する。

Amazon SageMaker Catalog、アセットメタデータをクエリ可能なデータセットとしてエクスポート可能に
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon SageMaker Catalogが、アセットメタデータをAmazon S3 Tablesを介してApache Icebergテーブルとしてエクスポートできるようになりました。これにより、データチームはカスタムETLインフラを構築することなく、標準SQLを使用してカタログインベントリをクエリし、「先月登録されたアセットの数」や「機密として分類されているアセット」などの質問に答えることができます。

何が嬉しいのか
#

  • SQLによる簡単な分析: SageMaker Catalogに登録されたアセットのメタデータを、Amazon Athena、SageMaker Unified Studioノートブック、AIエージェント、その他の分析ツールから標準SQLで直接クエリできるようになります。
  • インフラ構築の不要化: レポーティングのためにカスタムETLインフラを構築する必要がなくなり、運用コストと労力を削減できます。
  • 包括的なメタデータ: エクスポートされるテーブルには、リソースID、リソースタイプなどの技術メタデータ、アセット名、ビジネス説明などのビジネスメタデータ、所有者の詳細、タイムスタンプが含まれます。
  • タイムトラベルクエリに対応: データはスナップショット日付でパーティション化されるため、タイムトラベルクエリを実行して過去の時点のアセット状態を確認できます。
  • コスト管理: エクスポートされたテーブルの保持ポリシーを設定することで、ストレージコストを管理できます。

これまでとどう変わるのか
#

  • これまで: SageMaker Catalogのアセットメタデータを分析するには、専用のAPIを呼び出して情報を取得し、それを別のデータベースやデータウェアハウスにロードして分析する必要がありました。これは、特に大規模な環境では複雑で時間がかかる作業でした。
  • これから: メタデータが自動的にIcebergテーブルとしてS3にエクスポートされるため、データレイクの標準的なツール(Athenaなど)を使って直接分析が可能になります。これにより、データガバナンス、コンプライアンス監査、リソース利用状況の追跡が大幅に簡素化されます。

具体的なユースケース
#

  • データガバナンスチームが、どのチームがどの種類のMLアセット(モデル、データセットなど)を登録しているかを把握し、コンプライアンス要件への準拠状況を監査する。
  • 部門ごとのMLアセットの利用状況を把握し、リソースの最適化やコスト配分を決定する。
  • 特定の期間に作成または更新された機密データを含むアセットを特定し、セキュリティレビューをトリガーする。
  • MLプロジェクトの健全性を評価するために、ビジネス説明が欠けているアセットや、所有者が不明なアセットを特定する。

AWS Security Hubがほぼリアルタイムのリスク分析で一般提供開始
#

投稿日: 2025年12月02日

何ができるようになったのか
#

Amazon Web Services (AWS) は、AWS Security Hubの一般提供を開始しました。これは、重要なセキュリティ問題を優先順位付けし、大規模な対応を支援し、セキュリティリスクを軽減し、チームの生産性を向上させる統合されたクラウドセキュリティソリューションです。一般提供開始に伴い、Security Hubはほぼリアルタイムのリスク分析、高度なトレンド、統合された有効化と管理、複数のAWSセキュリティサービスにわたる合理化された料金設定を含むようになりました。

何が嬉しいのか
#

  • リアルタイムに近いリスク分析: Amazon GuardDuty、Amazon Inspector、AWS Security Hub CSPMからのセキュリティシグナルを相関させ、強化することで、クラウド環境のアクティブなリスクを迅速に特定し、優先順位を付けます。
  • 強化された可視化とコンテキスト: 相関付けられたセキュリティシグナルを強化された可視化とコンテキストでアクション可能な洞察に変換し、より深いリスクコンテキストを提供します。
  • 集中管理と展開: 個別のアカウントで、またはAWS Organization全体でSecurity Hubを有効にでき、集中化されたデプロイと管理が可能です。これにより、複数のコンソール間の手動相関の必要性が減り、大規模な合理化された修復が可能になります。
  • 攻撃経路の視覚化: 攻撃者が脅威、脆弱性、設定ミスを連鎖させて重要なリソースを侵害する方法を示すことで、潜在的な攻撃経路を自動的に視覚化します。

これまでとどう変わるのか
#

  • これまで: 複数のAWSセキュリティサービスからのアラートを個別に監視・分析し、それらの関連性を手動で判断する必要があり、運用負荷が高く、リアルタイムでのリスク特定が困難でした。
  • これから: Security Hubがこれらのサービスからのセキュリティシグナルを自動的に集約、相関、強化し、ほぼリアルタイムでリスク分析を提供します。これにより、セキュリティチームは最も重要なリスクに迅速に焦点を当て、対応できるようになります。

具体的なユースケース
#

  • すべてのAWSアカウントのセキュリティ状況を単一のダッシュボードで一元的に監視する。
  • Amazon GuardDutyが検出した異常なネットワークアクティビティと、Amazon Inspectorが検出したEC2インスタンスの脆弱性をSecurity Hubが関連付け、攻撃経路を自動的に視覚化し、優先順位の高い修正アクションを提案する。
  • 規制遵守のために、CIS AWS Foundations Benchmarkなどのセキュリティ標準に対する継続的な準拠状況を評価し、不適合な項目を特定して改善する。
  • チケットシステムと統合して、Security Hubで検出された高リスクのセキュリティ問題を自動的に担当チームに割り当て、迅速な対応を促す。
Reply by Email

関連記事

【AWSデイリーアップデート 49件】Amazon ConnectのAI機能強化、AWS Transformによるモダナイゼーション、AWS Marketplaceの進化
· loading · loading
【AWSデイリーアップデート】AWS CloudFormation Language ServerでIDE上のポリシーチェック、デプロイ検証!
· loading · loading
【AWSデイリーアップデート 108件】AI駆動のトラブルシューティング、マネージド署名など
· loading · loading