

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 初めてファイルをアップロードする
<a name="uploading_files"></a>

 AWS Supply Chain 自動関連付け機能を使用すると、raw データをアップロードし、raw データを AWS Supply Chain データモデルに自動的に関連付けることができます。 AWS Supply Chain ウェブアプリケーション内の各 AWS Supply Chain モジュール*に必要な*列とテーブルを表示することもできます。

自動関連付けの仕組みの簡単なデモンストレーションについては、次の動画をご覧ください。




**注記**  
CSV ファイルは、自動関連付けを使用している場合にのみ Amazon S3 にアップロードできます。

データセットのソース列が宛先列に関連付けられると、 AWS Supply Chain は SQL レシピを自動的に生成します。

**注記**  
AWS Supply Chain は、自動関連付けに Amazon Bedrock を使用します。これは、 が AWS Supply Chain 利用可能なすべての &AWS Regions でサポートされているわけではありません。したがって、 AWS Supply Chain は、最も近い利用可能なリージョン、欧州 (アイルランド) リージョン – 欧州 (フランクフルト) およびアジアパシフィック (シドニー) リージョン – 米国西部 (オレゴン) から Amazon Bedrock エンドポイントを呼び出します。

**注記**  
大規模言語モデル (LLM) を使用した自動関連付けは、データが Amazon S3 を介して取り込まれる場合にのみサポートされます。

1.  AWS Supply Chain ダッシュボードの左側のナビゲーションペインで、**Data Lake** を選択し、**Data Ingestion** タブを選択します。

   **データ取り込み**ページが表示されます。

1. **新しいソースの追加**を選択します。

   **データソースの選択**ページが表示されます。

1. **データソースの選択**ページで、**ファイルのアップロード**を選択します。

1. [**Continue**]（続行） を選択します。  
![\[ソースファイルのアップロード\]](http://docs.aws.amazon.com/ja_jp/aws-supply-chain/latest/userguide/images/data_lake.png)

1. **実行する機能**ページで、使用する AWS Supply Chain モジュールを選択します。複数のモジュールを選択できます。

1. **「ソースファイルをアップロードする**」セクションで、**ソースシステム名**にサフィックスを追加します。例えば、oracle\$1test などです。

1. ソースデータセットをアップロードするには、**ファイル**を選択するか、ファイルをドラッグアンドドロップします。

   名前とステータスのソーステーブルが表示されます。

1. **S3 にアップロードを選択します**。*アップロードステータス*が変わり、ステータスが表示されます。

1. **データ要件の確認**で、選択した AWS Supply Chain 機能に必要なすべてのデータエンティティと列を確認します。必要なプライマリキーと外部キーがすべて表示されます。

1. [**Continue**]（続行） を選択します。

1. **「ソーステーブルの管理**」で、次のソーステーブルとリストされた列が自動関連付けされ、データレイクにインポートされます。

   データレイクにインポートする前に、**テーブルの削除**を選択してソーステーブルを削除します。  
![\[ソースファイルの管理\]](http://docs.aws.amazon.com/ja_jp/aws-supply-chain/latest/userguide/images/data_lake1.png)

1. **すべて受け入れて続行**を選択します。

   テーブルを AWS Supply Chain データレイクに自動的に関連付けるメッセージが表示されます。  
![\[送信先フローの管理\]](http://docs.aws.amazon.com/ja_jp/aws-supply-chain/latest/userguide/images/data_lake3.png)

1. **送信先フローの管理**では、自動関連付けられた各テーブルを確認できます。

   デフォルトでは、**自動関連付け**が有効になっており、ソース列は送信先列に自動的に関連付けられます。自動関連付けられた列を更新するには、SQL レシピを更新してカスタムレシピを作成します。

1. **ソース列**の下に、関連付けられていないソース列がすべて一覧表示されます。関連付けられていない列を右側の**宛先列**にドラッグアンドドロップします。

1. 自動関連付けされた各テーブルについて、前のステップに従います。

1. [**送信**] を選択します。

1. **終了を選択し、送信先フローを確認します**。

# 後続のファイルを既存のソースにアップロードする
<a name="incremental_file_upload"></a>

後続のデータセットを既存のソースにアップロードするには、2 つの方法があります。**ソースフロー**タブに表示される Amazon S3 パスでデータセットをアップロードするか、**アクション**タブで**ファイルのアップロード**を選択します。

自動コネクタを使用している場合、スクリプトを実行している場合、またはミドルウェアソリューションを使用してデータセットを取り込む場合は AWS Supply Chain、**ソースフロー**タブの下に表示される Amazon S3 パスで Amazon S3 パスを更新する必要があります。

**注記**  
同じファイル名の既存のファイルが Amazon S3 に再アップロード AWS Supply Chain された場合、 は Amazon S3 上のファイルを上書きします。

![\[後続のファイルアップロードのデータインジェスト\]](http://docs.aws.amazon.com/ja_jp/aws-supply-chain/latest/userguide/images/Data_lake_upload.png)
