本日の主なトピック #
- Amazon Bedrock: コストレポートでの操作タイプの可視化強化と、Claude Opus 4.5/Haiku 4.5の予約Tier対応
- Amazon QuickSight: SPICEエンジンの容量・機能拡張と、閲覧者によるダッシュボードカスタマイズ機能
- Amazon EC2: 最新のNVIDIA GPUを搭載したG7eインスタンスの一般提供開始
- Amazon RDS: Blue/Green Deploymentsの切り替えダウンタイムを5秒未満に短縮
- Amazon EVS: VCFおよびVMware ESXソフトウェアバージョンの選択が可能に
¥3,520 Amazonで見る
AWS運用入門 改訂第2版 押さえておきたいAWSの基本と運用ノウハウ [AWS深掘りガイド] 単行本(ソフトカバー) – 2025/7/11
Amazon Bedrockのモデル使用状況に対するきめ細かな操作の可視性を追加 #
投稿日: 2026年01月15日
何ができるようになったのか #
AWS Data Exportsを使用することで、コストレポートにおいてAmazon Bedrockの操作タイプを区別できるようになりました。具体的には、「InvokeModelInference」や「InvokeModelStreamingInference」といった特定の操作タイプが表示されるようになり、従来の一般的な「Usage」というラベルから置き換わります。 この詳細な情報は、Cost and Usage Reports (CUR)、CUR 2.0、およびData Exports for FOCUSで利用可能です。
何が嬉しいのか #
FinOpsチームやコスト最適化の担当者は、Amazon Bedrockの使用状況をより詳細に追跡できるようになります。これにより、どのモデルでどのような推論操作が行われているかを正確に把握し、コスト分析と最適化をより効果的に行うことが可能になります。
これまでとどう変わるのか #
- これまで: コストレポートでは、Amazon Bedrockの使用状況は「Usage」などの一般的なラベルで表示されており、具体的な操作内容(通常の推論か、ストリーミング推論かなど)を区別することが困難でした。
- これから: 「InvokeModelInference」や「InvokeModelStreamingInference」といった詳細な操作タイプがレポートの項目(Legacy CURやCUR 2.0では
line_item_operation列、FOCUSレポートではx_Operation列)に表示されるようになり、モデルプロバイダー全体での使用パターンを正確に追跡できます。
具体的なユースケース #
- FinOpsチームが、ストリーミング推論と通常の推論のコスト比率を分析し、予算計画を立てる。
- プロジェクトごとに詳細な操作ログを基にしたコスト配賦を行う。
Amazon Bedrock Reserved TierがClaude Opus 4.5とHaiku 4.5で利用可能に #
投稿日: 2026年01月16日
何ができるようになったのか #
Amazon BedrockのReserved Tier(予約済みティア)が拡張され、AnthropicのClaude Opus 4.5およびClaude Haiku 4.5で利用可能になりました。 このティアでは、1ヶ月または3ヶ月の期間で容量を予約でき、優先的なコンピュート容量を確保できます。また、入力と出力で異なるトークン/分(TPM)の容量を割り当てることが可能です。
何が嬉しいのか #
ミッションクリティカルなアプリケーションにおいて、予測可能なパフォーマンスとサービスレベルを維持できます。また、入力と出力の容量をワークロードの特性に合わせて柔軟に設定できるため、コストをコントロールしやすくなります。予約した容量を超えた場合は、自動的に従量課金のStandard Tierにオーバーフローするため、運用が中断されることもありません。
これまでとどう変わるのか #
- これまで: これらの新しいモデルバージョンに対して、予約済み容量によるパフォーマンス保証やコスト最適化のオプションが限定的でした。
- これから: Claude Opus 4.5およびHaiku 4.5に対して、固定価格(1,000トークン/分あたり)での容量予約が可能になり、非対称なトークン使用パターン(入力が多い、または出力が多いなど)にも柔軟に対応できるようになります。
具体的なユースケース #
- 大量のテキスト要約タスク(入力トークンが多く、出力トークンが少ない)を定期的に実行する企業が、入力容量を多く確保してコストを最適化する。
- 応答速度と可用性が重要なカスタマーサポートのチャットボット(Claude Haiku 4.5を使用)に対し、ピーク時のパフォーマンスを保証するために容量を予約する。
Amazon EVSがVCFおよびVMware ESXソフトウェアバージョンの選択をサポート #
投稿日: 2026年01月20日
何ができるようになったのか #
Amazon Elastic VMware Service (Amazon EVS) で、環境やホストをセットアップする際に、VMware Cloud Foundation (VCF) とESXソフトウェアのバージョンを指定できるようになりました。
新しい環境を作成する際にVCFバージョンを指定したり、既存の環境にホストを追加する際にESXバージョンを選択したりできます。また、新しいGetVersions APIを使用して、サポートされているバージョンの組み合わせを照会することも可能です。今回の機能追加に合わせて、VCF 5.2.2での新規環境デプロイもサポートされています。
何が嬉しいのか #
AWSへのワークロード移行において、特定のソフトウェアバージョン要件がある場合に柔軟に対応できるようになります。これにより、運用の複雑さとリスクを軽減し、データセンターからの移行(Exit)を加速させることができます。
これまでとどう変わるのか #
- これまで: 環境作成時やホスト追加時に、ソフトウェアバージョンの細かい指定が制限されていたか、自動的に決定されていました。
- これから:
CreateEnvironmentAPIやCreateEnvironmentHostAPI、またはコンソールを通じて、要件に合わせた特定のVCFやESXバージョンを選択してデプロイできるようになります。
具体的なユースケース #
- オンプレミス環境とバージョンを厳密に合わせる必要があるハイブリッドクラウド構成で、特定のESXバージョンを指定してホストを追加する。
- 最新のVCF 5.2.2の機能を活用するために、新規環境を明示的にそのバージョンで構築する。
Amazon EC2 G7eインスタンスが一般提供開始 #
投稿日: 2026年01月20日
何ができるようになったのか #
NVIDIA RTX PRO 6000 Blackwell Server Edition GPUを搭載したAmazon EC2 G7eインスタンスが一般提供(General Availability)されました。 このインスタンスは最大8つのGPU(GPUあたり96GBメモリ)、第5世代Intel Xeonプロセッサ、最大192 vCPU、1600 GbpsのEFAネットワーク帯域幅を備えています。
何が嬉しいのか #
G6eインスタンスと比較して最大2.3倍の推論パフォーマンスを提供します。大規模言語モデル(LLM)、エージェント型AIモデル、マルチモーダル生成AIモデル、物理AIモデルなどの展開に最適です。また、空間コンピューティングワークロードや、グラフィックスとAI処理の両方を必要とするワークロードに対して最高のパフォーマンスを提供します。
これまでとどう変わるのか #
- これまで: グラフィックス重視やAI推論ワークロードにはG6eインスタンスなどが利用されていました。
- これから: 最新のBlackwellアーキテクチャGPUを搭載したG7eを利用することで、より大規模で複雑なAIモデルの推論や、高度なグラフィックス処理をより高速かつ効率的に実行できるようになります。
具体的なユースケース #
- 複雑な3DレンダリングとAIによる画像生成を同時に行うクリエイティブワークフロー。
- 大規模なマルチモーダルAIモデルの推論環境の構築。
- EC2 UltraClusterでのNVIDIA GPUDirect RDMAを活用した、低遅延な分散処理ワークロード。
BlackwellはNVIDIAの最新GPUアーキテクチャのコードネームです。 前世代のHopperやAda Lovelaceアーキテクチャと比較して、AI処理やレンダリング性能が大幅に向上しています。 主な特徴は以下の通りです。
- AI推論およびトレーニングの高速化
- エネルギー効率の向上
- 第2世代のTransformer EngineによるLLM処理の最適化
Amazon QuickSightがSPICEデータセットのサイズ拡張、取り込み高速化、データ型サポートの拡充を開始 #
投稿日: 2026年01月20日
何ができるようになったのか #
Amazon QuickSightのインメモリ計算エンジンであるSPICEにおいて、いくつかの重要な拡張が行われました。
- データセットサイズ: 新しいデータ準備体験を使用する場合、データセットあたり最大2TBまでデータをロードできるようになりました(以前の1TBから倍増)。
- 取り込み速度: データロードと更新の時間が短縮されるよう最適化されました。
- データ型サポート: 文字列長の制限が2,000文字から64,000文字(Unicode)に拡大され、タイムスタンプのサポート範囲が西暦1400年から西暦0001年まで拡張されました。
何が嬉しいのか #
より大規模で複雑なデータセットをSPICE上で直接扱えるようになり、高度な分析やAI駆動のワークロードに対応できます。また、長いテキストデータの分析や、歴史的なデータを扱う際のカバレッジが向上し、パフォーマンスを犠牲にすることなく、より迅速なインサイトの取得が可能になります。
これまでとどう変わるのか #
- これまで: データセットの上限は1TBで、長いテキストフィールドや古い日付データを含むデータセットの取り込みには制限がありました。
- これから: 2TBの大規模データや、長文テキスト、歴史的データを含むデータセットをそのままSPICEに取り込んで高速に分析できるようになります。
具体的なユースケース #
- 数年〜数十年分の履歴データを含む大規模な販売データの分析。
- 顧客からのフィードバックやレビューなど、長文テキストを含むデータの分析と可視化。
- AIモデルのトレーニング用データとして、よりリッチで大量のデータをQuickSight上で準備・分析する。
SPICEは「Super-fast, Parallel, In-memory Calculation Engine」の略です。 Amazon QuickSightのためにゼロから設計された、高速な並列インメモリ計算エンジンです。 主な特徴は以下の通りです。
- 大規模データの高速な可視化と検索
- データソースに直接クエリを投げないため、ソースシステムへの負荷を軽減
- 高度な計算や集計を瞬時に実行
Amazon QuickSightがテーブルとピボットテーブルでのダッシュボードのカスタマイズ機能を拡張 #
投稿日: 2026年01月20日
何ができるようになったのか #
Amazon QuickSightでは、2025年11月に閲覧者(Reader)がダッシュボード上のテーブルやピボットテーブルの列を並べ替えたり、表示/非表示を切り替えたりできる「カスタマイズ機能」が導入されました。 今回のアップデートではこの機能が大幅に拡張され、閲覧者がフィールドの追加・削除、集計方法の変更(例:合計から平均へ)、フォーマットの修正を直接行えるようになりました。 これにより、閲覧者はダッシュボード作成者(Author)が事前に用意したビューに縛られず、利用可能なデータフィールドを使って独自の視点でデータを分析できます。
何が嬉しいのか #
閲覧者は自分自身の分析ニーズに合わせてデータの表示構成や集計ロジックを根本から調整できるため、より深いインサイトを自律的に得ることができます。単なる表示の整理(ソートやフィルタ)にとどまらず、分析の切り口そのものを変更できるため、ダッシュボード作成者への修正依頼の手間や待ち時間が削減され、組織全体のデータ活用スピードが向上します。
これまでとどう変わるのか #
- これまで(2025年11月以降): 閲覧者は、作成者が配置したフィールドの順序変更やソート、表示/非表示の切り替え(列の整理)は可能でしたが、新しいフィールドを追加したり、集計方法(Sum/Averageなど)を変更したりすることはできず、作成者に依頼する必要がありました。
- これから: 閲覧者がその場で必要なフィールドをデータセットから追加したり、集計を「合計」から「平均」に変えたりといった高度な調整が可能になり、探索的なデータ分析が容易になります。
具体的なユースケース #
- 営業マネージャーが、製品カテゴリごとの売上内訳フィールドを自分で追加して、成長機会を特定する。
- 財務チームが、部門ごとの支出パターンを把握するために、集計方法を合計から平均に変更して傾向を見る。
Amazon RDS Blue/Green Deploymentsのダウンタイムを5秒未満に短縮 #
投稿日: 2026年01月20日
何ができるようになったのか #
Amazon RDSのBlue/Green Deployments機能において、切り替え(スイッチオーバー)時のダウンタイムが大幅に短縮されました。 シングルリージョン構成において、プライマリデータベース(ライターノード)のアップグレードに伴うダウンタイムが、通常5秒以下になります。さらに、AWS Advanced JDBC Driverを使用している場合は、DNS伝播の遅延が排除されるため、通常2秒以下になります。
何が嬉しいのか #
データベースのメジャーバージョンアップグレードやメンテナンス更新、インスタンスのスケーリングといった変更を、ビジネスへの影響を最小限に抑えながら本番環境に適用できます。アプリケーションの可用性を高く維持したまま、データベースの進化に対応できるようになります。
これまでとどう変わるのか #
- これまで: Blue/Green Deploymentsを使用しても、切り替え時にはDNSの更新などに伴い、数十秒〜1分程度のダウンタイムが発生する場合がありました。
- これから: ダウンタイムが数秒レベル(最短で2秒以下)に短縮されるため、ユーザー体験をほとんど損なうことなくメンテナンス作業を実施できるようになります。
具体的なユースケース #
- 24時間365日稼働するEコマースサイトで、深夜のメンテナンス時間を極小化してデータベースのバージョンアップを行う。
- オンラインゲームのバックエンドDBにおいて、プレイヤーの切断リスクを最小限にしてインスタンスサイズを拡張する。
Blue/Green Deploymentは、システムのリリース手法の一つです。 現在の本番環境(Blue)とは別に、新しいバージョンの環境(Green)を構築し、テスト完了後にトラフィックを切り替える手法です。 主な特徴は以下の通りです。
- リリース失敗時の切り戻しが容易
- ダウンタイムの最小化
- 本番環境と同等の環境でのテストが可能
Amazon RDS for OracleがStandard Edition 2でのベアメタルインスタンスのサポートを拡張 #
投稿日: 2026年01月20日
何ができるようになったのか #
Amazon RDS for Oracleにおいて、Oracle Standard Edition 2 (SE2) のBring Your Own License (BYOL) モデルで、ベアメタルインスタンスが利用可能になりました。 M7i, R7i, X2iednなどの多様なインスタンスファミリーでベアメタルオプションを選択でき、これらは同等の仮想化インスタンスと比較して25%低い価格で提供されます。
何が嬉しいのか #
ベアメタルインスタンスを使用することで、基盤となるサーバーのCPUコア数やソケット数を完全に可視化できるため、Oracleデータベースのライセンスコストとサポートコストを削減できる可能性があります。特にSE2ライセンスを使用しているユーザーにとって、コスト最適化の有力な選択肢となります。
これまでとどう変わるのか #
- これまで: Oracle Standard Edition 2で利用できるインスタンスタイプにおいて、ベアメタルインスタンスの選択肢が限られていたか、サポートされていませんでした。
- これから: SE2でもベアメタルインスタンスを選択できるようになり、ライセンス条項に基づいた効率的なハードウェア構成を選択することで、総所有コスト(TCO)を削減できる可能性があります。
具体的なユースケース #
- Oracle SE2のライセンスコストを最適化したい企業が、ソケット数制限などを考慮してベアメタルインスタンスに移行する。
- 仮想化オーバーヘッドを排除し、ハードウェアの性能を最大限に引き出す必要があるデータベースワークロード。
AWS Glueがアジアパシフィック(ニュージーランド)リージョンで利用可能に #
投稿日: 2026年01月20日
何ができるようになったのか #
サーバーレスデータ統合サービスであるAWS Glueが、アジアパシフィック(ニュージーランド)リージョン(ap-southeast-5)で利用可能になりました。
何が嬉しいのか #
ニュージーランドリージョンにデータを保存している顧客は、データを他のリージョンに移動させることなく、同リージョン内でETL(抽出、変換、ロード)ワークロードを構築・実行できるようになります。これにより、データ主権要件への準拠、レイテンシーの低減、データ転送コストの削減が可能になります。
これまでとどう変わるのか #
- これまで: ニュージーランドリージョンのデータをAWS Glueで処理するには、他のリージョン(シドニーなど)のGlueサービスを利用する必要があった可能性があります。
- これから: ニュージーランドリージョン内で完結してデータの発見、準備、結合、分析準備が行えるようになります。
具体的なユースケース #
- ニュージーランド国内の規制によりデータ外出しが制限されているデータの分析基盤構築。
- 同リージョン内のS3バケットにあるログデータをGlueで処理し、Athenaで分析する。
AWS IoT Device Managementのマネージドインテグレーション機能が中東(UAE)リージョンに対応 #
投稿日: 2026年01月20日
何ができるようになったのか #
AWS IoT Device Managementの「マネージドインテグレーション(Managed Integrations)」機能が、中東(UAE)リージョンで利用可能になりました。 この機能は、ZigBee、Z-Wave、Matter、Wi-Fiなどの多様なプロトコルをサポートする統一インターフェースとデバイスSDKを提供し、接続タイプ(直接、ハブ経由、サードパーティクラウド経由)に関わらず、IoTデバイスのオンボーディングと管理を容易にします。
何が嬉しいのか #
UAEリージョンの企業は、地域の顧客に対して、より迅速かつ簡単にIoTソリューションを提供できるようになります。Matter規格に基づいた80以上のデバイスデータモデルテンプレートや、パートナー製のクラウド間コネクタを利用することで、開発工数を大幅に削減し、ホームセキュリティやエネルギー管理などのアプリケーション開発に集中できます。
これまでとどう変わるのか #
- これまで: UAEリージョンではマネージドインテグレーション機能が利用できず、多様なプロトコルのデバイスを統合管理するために独自の実装や複雑な構成が必要でした。
- これから: カナダ(中部)、欧州(アイルランド)に加え、UAEリージョンでもこの機能が利用可能になり、標準化された方法で効率的にデバイス統合が行えます。
具体的なユースケース #
- UAEでスマートホームサービスを展開する企業が、様々なメーカーのスマート電球やセンサー(Matter対応など)を統一的に管理するアプリを開発する。
- 介護モニタリングシステムにおいて、異なる通信規格を持つ複数のセンサーからのデータを集約し、一元管理する。