

サポート終了通知: 2025 年 12 月 15 日に、 AWS はサポートを終了します AWS IoT Analytics。2025 年 12 月 15 日以降、 AWS IoT Analytics コンソールまたは AWS IoT Analytics リソースにアクセスできなくなります。詳細については、[AWS IoT Analytics 「サポート終了](https://docs.aws.amazon.com/iotanalytics/latest/userguide/iotanalytics-end-of-support.html)」を参照してください。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# の開始方法 AWS IoT Analytics （コンソール）
<a name="quickstart"></a>

このチュートリアルでは、IoT デバイスデータに関する有用なインサイトを発見するために必要な AWS IoT Analytics リソース (コンポーネントとも呼ばれます) を作成します。

**メモ**  
次のチュートリアルで大文字を入力すると、 AWS IoT Analytics によって自動的に小文字に変更されます。
 AWS IoT Analytics コンソールには、チャネル、パイプライン、データストア、データセットを作成するためのワンクリックの開始方法機能があります。この機能は、 AWS IoT Analytics コンソールにサインインするときに確認できます。  
このチュートリアルでは、 AWS IoT Analytics リソースを作成するための各ステップについて説明します。

 AWS IoT Analytics チャネル、パイプライン、データストア、データセットを作成するには、次の手順に従います。このチュートリアルでは、 AWS IoT Core コンソールを使用して、取り込まれるメッセージを送信する方法も示します AWS IoT Analytics。

**Topics**
+ [AWS IoT Analytics コンソールにサインインする](#quickstart-console-signin)
+ [チャネルの作成](#quickstart-create-channel)
+ [データストアの作成](#quickstart-create-datastore)
+ [パイプラインを作成する](#quickstart-create-pipeline)
+ [データセットの作成](#quickstart-create-dataset)
+ [を使用してメッセージデータを送信する AWS IoT](#send-iotcore-messages)
+ [AWS IoT メッセージの進行状況を確認する](#check-iotcore-messages)
+ [クエリ結果へのアクセス](#access-query-results)
+ [データの探索](#explore-data)
+ [ノートブックテンプレート](#notebook-templates)

## AWS IoT Analytics コンソールにサインインする
<a name="quickstart-console-signin"></a>

開始するには、 AWS アカウントが必要です。すでに AWS アカウントをお持ちの場合は、[https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) に移動します。

 AWS アカウントがない場合は、次のステップに従ってアカウントを作成します。

**AWS アカウントを作成するには**

1. [https://portal.aws.amazon.com/billing/signup](https://portal.aws.amazon.com/billing/signup) を開きます。

1. オンラインの手順に従います。

   サインアップ手順の一環として、電話またはテキストメッセージを受け取り、電話キーパッドで検証コードを入力します。

   にサインアップすると AWS アカウント、 *AWS アカウントのルートユーザー* が作成されます。ルートユーザーには、アカウントのすべての AWS のサービス とリソースへのアクセス権があります。セキュリティベストプラクティスとして、ユーザーに管理アクセス権を割り当て、[ルートユーザーアクセスが必要なタスク](https://docs.aws.amazon.com/IAM/latest/UserGuide/id_root-user.html#root-user-tasks)の実行にはルートユーザーのみを使用するようにしてください。

1. にサインイン AWS マネジメントコンソール し、[https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) に移動します。

## チャネルの作成
<a name="quickstart-create-channel"></a>

チャネルは、生データ、未処理、および非構造化の IoT デバイスデータを収集してアーカイブします。チャネルを作成するには次の手順に従います。

**チャネルを作成するには**

1. [https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) の **とデータの準備 AWS IoT Analytics**セクションで、**チャネルの表示 **を選択します。  
![\[「 でデータを準備する AWS IoT Analytics」のスクリーンショット。\]](http://docs.aws.amazon.com/ja_jp/iotanalytics/latest/userguide/images/prepare-your-data.png)
**ヒント**  
ナビゲーションペインから **チャネル **を選択することもできます。

1. **チャネル** ページで、**チャネルの作成** を選択します。

1. **チャネルの詳細の指定** ページで、チャネルの詳細情報を入力します。

   1. チャネル名は一意で識別しやすいものを入力してください。

   1. オプション **Tags** タグ で、1 つまたは複数のカスタムタグ キーと値のペア をチャネルに追加します。タグを使用すると、 AWS IoT Analyticsのために作成するリソースを識別することができます。

   1. [**次へ**] を選択します。

1. AWS IoT Analytics は、未処理の未加工の IoT デバイスデータを Amazon Simple Storage Service (Amazon S3) バケットに保存します。独自の Amazon S3 バケットを選択できます。このバケットにアクセスして管理 AWS IoT Analytics することも、Amazon S3 バケットを自分で管理することもできます。

   1. このチュートリアルでは、**ストレージタイプ で、** **サービス管理ストレージ** を選択します。

   1. **生データ保存期間の選択** で **無期限 ** を選択します。

   1. [**次へ**] を選択します。

1. **ソースの設定**ページで、 がメッセージデータを収集 AWS IoT Analytics するための情報を入力します AWS IoT Core。

   1.  AWS IoT Core トピックフィルターを入力します。例: `update/environment/dht1`。このチュートリアルでは、後でこのトピックフィルターを使用してメッセージデータをチャネルに送信します。

   1. **IAM ロール名** エリアで **新規作成** を選択します。**新しいロールの作成** ウィンドウでロールの **名前** を入力し、次に **ロールの作成** を選択します。これで、適切なポリシーがアタッチされた新しいロールが自動的に作成されます。

   1. **Next** 次へ をクリックします。

1. 選択内容を確認し、**チャネルの作成** を選択します。

1. 新しいチャネルが **チャネル**ページに表示されていることを確認します。

## データストアの作成
<a name="quickstart-create-datastore"></a>

データストアはメッセージデータの受信と保存を行いいます。データストアはデータベースではありません。データストアは、 Amazon S3 バケット内にあるスケーラブルでクエリ可能なリポジトリです。異なるデバイスまたは場所から取得されたメッセージに対して、複数のデータストアを使用できます。または、パイプラインの設定と要件に応じて、メッセージデータをフィルタリングできます。

データストアを作成するには以下の手順を実行します。

**データストアを作成する方法**

1. [https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) の AWS IoT Analyticsとデータの準備セクションで、**データストアの表示** を選択します。

1. **データストア** ページで、**データストアの作成**を選択します。

1. **データストア詳細の指定**ページで、データストアに関する基本情報を入力します。

   1. **データストア ID** に、一意のデータストア ID を入力します。この ID は作成後には変更できません。

   1. オプショナル**タグ** で **新しいタグを追加**を選択すれば、データストアに 1 つまたは複数のカスタムタグ キーと値のペア を追加できます。タグを使用すると、 AWS IoT Analyticsのために作成するリソースを識別することができます。

   1. [**次へ**] を選択します。

1. **ストレージタイプの設定** ページで、データの保存方法を指定します。

   1. **ストレージタイプ** で、**サービス管理ストレージ** を選択します。

   1. **処理されたデータを保持する期間を設定します** 処理データの保存期間の設定 で、**無期限** を選択します。

   1. [**次へ**] を選択します。

1. AWS IoT Analytics データストアは、JSON ファイル形式と Parquet ファイル形式をサポートしています。データストアのデータ形式で、**JSON** または **Parquet** を選択します。[ファイル形式](iotanalytics-schema.md) でサポートされるファイルタイプについては、「 AWS IoT Analytics 」を参照してください。

   [**次へ**] を選択します。

1. （オプション) はデータストア内のカスタムパーティション AWS IoT Analytics をサポートしているため、プルーニングされたデータをクエリしてレイテンシーを改善できます。サポートされるカスタムパーティションの詳細については、「[カスタムパーティション](custom-partitioning.md)」を参照してください。

   **Next** 次へ をクリックします。

1. 選択内容を確認してから、**データストアの作成**を選択します。

1. **データストア**ページに新しいデータストアが表示されていることを確認します。

## パイプラインを作成する
<a name="quickstart-create-pipeline"></a>

データストアにチャネルを接続するには、パイプラインを作成する必要があります。ベーシックなパイプラインでは、データの収集とメッセージの送信先となるデータストアの識別を行うチャネルが指定されるだけです。詳細については、「[パイプラインアクティビティ](https://docs.aws.amazon.com/iotanalytics/latest/userguide/pipeline-activities.html#aws-iot-analytics-pipeline-activities)」を参照してください。

このチュートリアルでは、データストアにチャネルを接続するだけのパイプラインを作成します。後で、パイプラインアクティビティを追加すればこのデータを処理できます。

パイプラインを作成するには以下の手順を実行します。

**パイプラインを作成するには**

1. [https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) の AWS IoT Analyticsセクションで、データの準備**パイプラインの表示**を選択します。
**ヒント**  
ナビゲーションペインで **パイプライン**を選択することもできます。

1. **パイプライン ページ** で、**Cパイプラインの作成** をクリックします。

1. パイプラインの詳細情報を入力します。

   1. **パイプライン ID とソースのセットアップ**にパイプライン名を入力します。

   1. パイプラインのソースを選択します。これは、パイプラインがメッセージを読み取る AWS IoT Analytics チャネルです。

   1. パイプラインの出力を指定します。これは、処理されたメッセージデータの保存先となるデータストアです。

   1. オプション **タグ** で、1 つまたは複数のカスタムタグ キーと値のペア をパイプラインに追加します。

   1. **メッセージ属性の推測 ** ページで、属性名と値の例を入力し、リストからデータタイプを選択して、**属性の追加** を選択します。

   1. 必要な属性の数だけ前の手順を繰り返したら、**次へ**を選択します。

   1. 現時点ではパイプラインアクティビティは追加しません。**メッセージの強化、変換、フィルタリング** ページで **次へ** を選択します。

1. 選択内容を確認し、**パイプラインの作成** 選択します。

1. 新しいパイプラインが **パイプライン** ページに表示されていることを確認します。

**注記**  
 AWS IoT Analytics リソースを作成して、以下を実行できるようにしました。  
*チャネル*を使って生で未処理の IoT デバイスメッセージデータを収集する。
IoT デバイスメッセージデータを*データストア*に保存する。
*パイプライン*を使って、データのクリーニング、フィルタリング、変換、および強化を行う。
次に、 AWS IoT Analytics SQL データセットを作成して、IoT デバイスに関する有用なインサイトを見つけます。

## データセットの作成
<a name="quickstart-create-dataset"></a>

**注記**  
 データセットは、通常、表形式で編成される場合とそうでない場合があるデータの集合です。対照的に、 は SQL クエリをデータストアのデータに適用してデータセット AWS IoT Analytics を作成します。

これで、チャネルでパイプラインに生のメッセージデータをルーティングし、データストアにデータを保存してクエリを実行できます。データに対してクエリを実行するには、データセットを作成します。データセットには、データストアのクエリに使用する SQL のステートメントと式、および、指定した日時にクエリを繰り返すオプションのスケジュールが含まれます。オプションのスケジュールを作成するには、[Amazon CloudWatch のスケジュール式](https://docs.aws.amazon.com/AmazonCloudWatch/latest/events/ScheduledEvents.html)のような式を使用できます。

**データセットを作成する方法**

1. [https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) で、**左側のナビゲーションペイン**の **データセット** を選択します。

1. **データセットの作成** ページで **SQL の作成** を選択します。

1. **データセットの詳細を指定** でデータセットの詳細を指定します。

   1. データセットの名前を入力します。

   1. **データストアのソース** で、前の段階で作成したデータストアを識別する一意の ID を選択します。

   1. オプション **タグ** で、1 つまたは複数のカスタムタグ キーと値のペア をデータセットに追加します。

1. SQL 式を使用して、データをクエリし、分析的な質問に答えます。クエリの結果はこのデータセットに保存されます。

   1. **クエリの作成** フィールドに、ワイルドカードを使用してデータを最大で 5 行表示する SQL クエリを入力します。

      ```
      SELECT * FROM my_data_store LIMIT 5
      ```

       でサポートされている SQL 機能の詳細については AWS IoT Analytics、「」を参照してください[の SQL 式 AWS IoT Analytics](sql-support.md)。

   1. **クエリのテスト ** を選択すれば、入力の正誤を確認でき、さらに、クエリの後に結果をテーブルに表示できます。
**注記**  
チュートリアルのこの時点では、データストアが空である可能性があります。空のデータストアで SQL クエリを実行しても結果は返されないため、`__dt` しか表示されないかもしれません。
Athena により、[実行できるクエリ数が制限される](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html#amazon-athena-limits)ため、長期間にわたって実行されることがないように、慎重に SQL クエリを合理的なサイズに制限する必要があります。このため、慎重に SQL クエリを合理的なサイズに制限する必要があります。  
テスト中にクエリで `LIMIT` 句を使用することをお勧めします。テストが成功したら、この句を削除できます。

1. オプション 指定した時間枠のデータを使用してデータセットコンテンツを作成する場合、一部のデータが処理に間に合わない可能性があります。オフセット、またはデルタを指定すれば遅延を許可できます。詳細については、「[Amazon CloudWatch Events を通じた遅延データ通知の取得](late-data-notification.md)」を参照してください。

   この時点ではデータ選択フィルターを設定しません。**データ選択フィルターの設定**ページで **次へ ** を選択します。

1. オプション このクエリを定期的に実行してデータセットを更新するようにスケジュールできます。データセットスケジュールの作成と編集はいつでも行うことができます。

   この時点では、クエリを繰り返す実行はスケジュールしないため、**クエリスケジュールの設定** ページでは、**次へ** を選択します。

1. AWS IoT Analytics は、このデータセットコンテンツのバージョンを作成し、指定された期間の分析結果を保存します。保存期間は 90 日をお勧めしますが、カスタムの保存ポリシーを設定することもできます。また、保存されるデータセットコンテンツバージョンの数を制限することもできます。

   デフォルトのデータセット保存期間を **無期限** として使用し、**バージョニング** を無効のままにしておくことができます。**分析の結果の設定 ** ページで **次へ**を選択します。

1. オプション データセット結果の配信ルールを、 AWS IoT Eventsなどの特定の宛先に設定できます。

   このチュートリアルの他の段階では結果を提供しないので、**データセットコンテンツ配信ルール** ページで **次へ** を選択します。

1. 選択内容を確認してから、**データセットの作成** 選択します。

1. **データセット ** ページに新しいデータセットが表示されていることを確認します。

## を使用してメッセージデータを送信する AWS IoT
<a name="send-iotcore-messages"></a>

クエリ可能なデータストアにデータを保存するパイプラインにデータをルーティングするチャネルがある場合、メッセージデータを AWS IoT Analyticsに送信する準備ができたことになります。次のオプションを使用して AWS IoT Analytics 、 にデータを送信できます。
+  AWS IoT メッセージブローカーを使用します。
+  AWS IoT Analytics [BatchPutMessage](https://docs.aws.amazon.com/iotanalytics/latest/APIReference/API_BatchPutMessage.html) API オペレーションを使用します。

次の手順では、 がこのデータ AWS IoT Analytics を取り込むことができるように、 AWS IoT Core コンソールのメッセージブローカーから AWS IoT メッセージデータを送信します。

**注記**  
メッセージのトピック名を作成する場合は、次のことに注意してください。  
トピック名では大文字と小文字が区別されません。同じペイロード内に `example` と `EXAMPLE` という名前のフィールドがある場合は重複と見なされます。
トピック名は `$` 文字から始めることはできません。`$` で始まるトピック名は予約済みのトピックで、 AWS IoTによってのみ使用されます。
トピック名に個人を特定できる情報を含めないでください。この情報は暗号化されていない通信やレポートに表示される可能性があります。
AWS IoT Core はアカウント AWS または AWS リージョン間でメッセージを送信できません。

**を使用してメッセージデータを送信するには AWS IoT**

1. [AWS IoT コンソール](https://console.aws.amazon.com/iot) にサインインします。

1. ナビゲーションペインで、**テスト** を選択し、次に **MQTT test client** MQTT テストクライアント を選択します。

1. **MQTT テストクライアント** ページで、**トピックへの発行** を選択します。

1. **トピック名 ** で、チャネルの作成時に入力したトピックフィルターに一致する名前を入力します。この例では `update/environment/dht1` を使用します。

1. **メッセージペイロード** で、次の JSON コンテンツを入力します。

   ```
   {
     "thingid": "dht1",
     "temperature": 26,
     "humidity": 29,
     "datetime": "2018-01-26T07:06:01"
   }
   ```

1. オプション 追加のメッセージプロトコルオプションを使用する場合は **設定を追加** を選択します。

1. **発行** を選択します。

   これにより、チャンネルによってキャプチャされたメッセージが発行されます。その後、パイプラインによりメッセージがデータストアにルーティングされます。

## AWS IoT メッセージの進行状況を確認する
<a name="check-iotcore-messages"></a>

次の手順を実行すれば、チャネルにメッセージが取り込まれたことを確認できます。

**AWS IoT メッセージの進行状況を確認するには**

1. [https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) にサインインします。

1. ナビゲーションペインで、**チャネル** を選択し、前の段階で作成したチャネル名を選択します。

1. **データセットを作成** ページで、下にスクロールして **モニタリング** セクションに到達したら、表示される時間枠 **1h 3h 12h 1d 3d 1w** を調整します。先週のデータを表示する場合は **1w** 1 週間 などのように、値を選択します。

同様の機能を使用して、**Pipeline's details** パイプラインの詳細 ページでパイプラインアクティビティのランタイムとエラーを監視できます。このチュートリアルでは、アクティビティをパイプラインの一部として指定していないため、ランタイムエラーは表示されません。

**パイプラインのアクティビティを監視する方法**

1. ナビゲーションペインで、**パイプライン** を選択し、次に、前に作成したパイプラインの名前を選択します。

1. **パイプラインの詳細** ページで、下にスクロールして **モニタリング** セクションに到達したら、時間枠インジケータ **1h 3h 12h 1d 3d 1w** のうちの 1 つを選択することで、表示される時間枠を調整します。

## クエリ結果へのアクセス
<a name="access-query-results"></a>

データセットのコンテンツは、クエリの結果が含まれている CSV 形式のファイルです。

1. [https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) で、左側のナビゲーションペインの **Datesets** データセット を選択します。

1. **Datasets** データセット ページで、前に作成したデータセットの名前を選択します。

1. データセット情報ページの右上で、**今すぐ実行 ** を選択します。

1. データセットの準備ができているかどうかを確認するには、そのデータセットの下に**データセットのクエリが正常に開始されました**というようなメッセージが表示されているか確認します。**Dataset content** データセットコンテンツ タブにはクエリ結果が含まれており、**Succeeded** 成功 が表示されます。

1. 成功したクエリの結果のプレビューを表示するには、**データセットコンテンツ** タブでそのクエリ名を選択します。クエリ結果を含む CSV ファイルを表示または保存するには、**ダウンロード** を選択します。
**注記**  
AWS IoT Analytics は、**データセットの内容**ページに Jupyter Notebook の HTML 部分を埋め込むことができます。詳細については、「[コンソールを使用した AWS IoT Analytics データの視覚化](data-visualization.md#visualization-console)」を参照してください。

## データの探索
<a name="explore-data"></a>

データの保存、分析および可視化についてはいくつかのオプションがあります。

Amazon Simple Storage Service  
データセットのコンテンツを [Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html) バケットに送信して、既存のデータレイクとの統合、または社内アプリケーションと可視化ツールからのアクセスができます。[CreateDataset](https://docs.aws.amazon.com/iotanalytics/latest/userguide/api.html#cli-iotanalytics-createdataset) オペレーションの `contentDeliveryRules::destination::s3DestinationConfiguration` フィールドを確認します。

AWS IoT Events  
データセットコンテンツを への入力として送信できます。このサービスでは AWS IoT Events、デバイスやプロセスをモニタリングしてオペレーションの失敗や変更がないか確認し、そのようなイベントが発生したときに追加のアクションを開始できます。  
これを行うには、[CreateDataset](https://docs.aws.amazon.com/iotanalytics/latest/userguide/api.html#cli-iotanalytics-createdataset) オペレーションを使用してデータセットを作成し、フィールド で AWS IoT Events 入力を指定します`contentDeliveryRules :: destination :: iotEventsDestinationConfiguration :: inputName`。また、 を実行する AWS IoT Analytics アクセス許可を付与するロール`roleArn`の も指定する必要があります`iotevents:BatchPutMessage`。データセットコンテンツが作成されるたびに、 AWS IoT Analytics は各データセットコンテンツエントリをメッセージとして指定された AWS IoT Events 入力に送信します。たとえば、データセットに次のコンテンツが含まれている場合を考えてみましょう。  

```
"what","who","dt"
"overflow","sensor01","2019-09-16 09:04:00.000"
"overflow","sensor02","2019-09-16 09:07:00.000"
"underflow","sensor01","2019-09-16 11:09:00.000"
...
```
次に AWS IoT Analytics 、次のようなフィールドを含むメッセージを送信します。  

```
{ "what": "overflow", "who": "sensor01", "dt": "2019-09-16 09:04:00.000" }
```

```
{ "what": "overflow", "who": "sensor02", "dt": "2019-09-16 09:07:00.000" } 
```
関心のあるフィールド (、`what`、 の 1 つ以上`dt`) を認識する AWS IoT Events 入力を作成し`who`、イベントでこれらの入力フィールドを使用してアクションをトリガーするか、内部変数を設定するディテクターモデルを作成します AWS IoT Events 。

Jupyter Notebook  
[Jupyter Notebook](https://jupyter.org/) は、アドホックデータ検索と高度な分析を実行するためのたオープンソースのソリューションです。IoT デバイスデータに関して、より複雑な分析を深く掘り下げて適用でき、予測のための k 平均クラスタリングモデルや回帰モデルなどの機械学習手法を使用できます。  
AWS IoT Analytics は、Amazon SageMaker AI ノートブックインスタンスを使用して Jupyter Notebooks をホストします。ノートブックインスタンスを作成する前に、 AWS IoT Analytics と Amazon SageMaker AI の関係を作成する必要があります。  

1. [SageMaker AI コンソール](https://console.aws.amazon.com/sagemaker/)に移動し、ノートブックインスタンスを作成します。

   1. 詳細を入力し、**新しいロールの作成** を選択します。ロールの ARN を書き留めておきます。

   1. ノートブックインスタンスを作成します。

1. [IAM コンソール](https://console.aws.amazon.com/iam/)に移動し、SageMaker AI ロールを変更します。

   1. このロールを開きます。管理ポリシーが 1 つあります。

   1. **インラインポリシーの追加**を選択し、**サービス** で **IotAnalytics** を選択します。**アクションの選択** を選択し、検索ボックスに **GetDatasetContent** を入力して選択します。**ポリシーのレビュー** を選択します。

   1. ポリシーが正しいことを確認し、名前を入力したら、**ポリシーの作成** を選択します。
これにより、新しく作成されたロールにデータセットを読み取るアクセス許可が付与されます AWS IoT Analytics。  

1. [https://console.aws.amazon.com/iotanalytics/](https://console.aws.amazon.com/iotanalytics/) に戻り、左側のナビゲーションペインの **ノートブック** を選択します。**ノートブック ** ページで、**ノートブックの作成** を選択します。

1. **テンプレートの選択** ページで ** IoTA ブランクテンプレート** を選択します。

1. **ノートブックのセットアップ** ページで、ノートブックの名前を入力します。**データセットソースの選択** で、前に作成したデータセットを選択します。**「ノートブックインスタンスの選択**」で、SageMaker AI で作成したノートブックインスタンスを選択します。

1. 選択内容を確認したら、**ノートブックの作成** を選択します。

1. **ノートブック**ページで、ノートブックインスタンスが [Amazon SageMaker AI ](SMconsole_link;)コンソールで開きます。

## ノートブックテンプレート
<a name="notebook-templates"></a>

 AWS IoT Analytics ノートブックテンプレートには AWS 、 AWS IoT Analytics ユースケースの開始に役立つ、作成された機械学習モデルとビジュアライゼーションが含まれています。これらのノートブックテンプレートを使えば詳細を調べることができ、再利用すればIoTデバイスデータへの適合と即値の獲得を実現できます。

 AWS IoT Analytics コンソールには、次のノートブックテンプレートがあります。
+ **コンテキスト異常の検出** – ポアソン指数加重移動平均 PEWMA モデルを用いて風速測定値のコンテキスト異常を検出するアプリケーションです。
+ **ソーラーパネルの出力予測** – ソーラーパネルの出力を予測するための、区分時系列モデル、季節時系列モデル、線形時系列モデルのアプリケーションです。
+ **ジェットエンジンの予知保守** – ジェットエンジンの故障を予測するための多変量長期短期記憶 LSTM ニューラルネットワークおよびロジスティック回帰のアプリケーションです。
+ **スマートホームの顧客の区分** – スマートホーム使用状況データにおける様々な顧客セグメントを検出するための k-平均および PCA 分析 PCA のアプリケーションです。
+ **スマートシティの混雑予測** – 都市高速道路の利用率を予測するための LSTM のアプリケーションです。
+ **スマートシティの大気汚染予測** – 都市中央部の大気汚染を予測するための LSTM のアプリケーションです。