

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Änderungen aus Ihrem Daten-Repository importieren
<a name="importing-files-dra"></a>

Sie können Änderungen an Daten und POSIX-Metadaten aus einem verknüpften Daten-Repository in Ihr FSx Amazon-Dateisystem importieren. Zu den zugehörigen POSIX-Metadaten gehören Eigentum, Berechtigungen und Zeitstempel.

Verwenden Sie eine der folgenden Methoden, um Änderungen in das Dateisystem zu importieren:
+ Konfigurieren Sie Ihr Dateisystem so, dass neue, geänderte oder gelöschte Dateien automatisch aus Ihrem verknüpften Datenrepository importiert werden. Weitere Informationen finden Sie unter [Automatischer Import von Updates aus Ihrem S3-Bucket](autoimport-data-repo-dra.md).
+ Wählen Sie die Option zum Importieren von Metadaten aus, wenn Sie eine Datenrepository-Zuordnung erstellen. Dadurch wird unmittelbar nach der Erstellung der Datenrepository-Zuordnung eine Aufgabe zum Importieren des Daten-Repositorys gestartet.
+ Verwenden Sie eine On-Demand-Aufgabe zum Importieren von Datenrepositorys. Weitere Informationen finden Sie unter [Verwenden von Datenrepository-Aufgaben zum Importieren von Änderungen](import-data-repo-task-dra.md).

Aufgaben zum automatischen Import und Import von Datenrepositorys können gleichzeitig ausgeführt werden.

Wenn Sie den automatischen Import für eine Datenrepository-Zuordnung aktivieren, aktualisiert Ihr Dateisystem automatisch Dateimetadaten, wenn Objekte in S3 erstellt, geändert oder gelöscht werden. Wenn Sie beim Erstellen einer Datenrepository-Zuordnung die Option zum Importieren von Metadaten auswählen, importiert Ihr Dateisystem Metadaten für alle Objekte im Datenrepository. Wenn Sie mithilfe einer Aufgabe zum Importieren eines Datenrepositorys importieren, importiert Ihr Dateisystem nur Metadaten für Objekte, die seit dem letzten Import erstellt oder geändert wurden.

FSx for Lustre kopiert automatisch den Inhalt einer Datei aus Ihrem Daten-Repository und lädt ihn in das Dateisystem, wenn Ihre Anwendung zum ersten Mal auf die Datei im Dateisystem zugreift. Diese Datenbewegung wird von FSx for Lustre verwaltet und ist für Ihre Anwendungen transparent. Nachfolgende Lesevorgänge dieser Dateien werden direkt vom Dateisystem aus mit Latenzen von unter einer Millisekunde ausgeführt.

Sie können auch Ihr gesamtes Dateisystem oder ein Verzeichnis innerhalb Ihres Dateisystems vorab laden. Weitere Informationen finden Sie unter [Vorladen von Dateien in Ihr Dateisystem](preload-file-contents-hsm-dra.md). Wenn Sie das gleichzeitige Vorladen mehrerer Dateien anfordern, lädt FSx For Lustre Dateien parallel aus Ihrem Amazon S3 S3-Daten-Repository.

FSx for Lustre importiert nur S3-Objekte, die POSIX-konforme Objektschlüssel haben. Sowohl beim automatischen Import als auch beim Import von Datenrepositorys werden POSIX-Metadaten importiert. Weitere Informationen finden Sie unter [Unterstützung von POSIX-Metadaten für Datenrepositorys](posix-metadata-support.md).

**Anmerkung**  
FSx for Lustre unterstützt nicht den Import von Metadaten für symbolische Links (Symlinks) aus den Speicherklassen S3 Glacier Flexible Retrieval und S3 Glacier Deep Archive. Metadaten für S3 Glacier Flexible Retrieval- oder S3 Glacier Deep Archive Archive-Objekte, bei denen es sich nicht um Symlinks handelt, können importiert werden (d. h., es wird ein Inode im FSx for Lustre-Dateisystem mit den richtigen Metadaten erstellt). Um diese Daten aus dem Dateisystem zu lesen, müssen Sie jedoch zuerst das Objekt S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive wiederherstellen. Der direkte Import von Dateidaten aus Amazon S3 S3-Objekten in der Speicherklasse S3 Glacier Flexible Retrieval oder S3 Glacier Deep Archive in FSx for Lustre wird nicht unterstützt.

# Automatischer Import von Updates aus Ihrem S3-Bucket
<a name="autoimport-data-repo-dra"></a>

Sie können Lustre so konfigurieren FSx , dass Metadaten im Dateisystem automatisch aktualisiert werden, wenn Objekte zu Ihrem S3-Bucket hinzugefügt, darin geändert oder gelöscht werden. FSx for Lustre erstellt, aktualisiert oder löscht die Datei- und Verzeichnisliste entsprechend der Änderung in S3. Wenn das geänderte Objekt im S3-Bucket seine Metadaten nicht mehr enthält, behält FSx for Lustre die aktuellen Metadatenwerte der Datei bei, einschließlich der aktuellen Berechtigungen.

**Anmerkung**  
Das FSx for Lustre-Dateisystem und der verknüpfte S3-Bucket müssen sich im selben Verzeichnis befinden, AWS-Region damit Updates automatisch importiert werden können.

Sie können den automatischen Import konfigurieren, wenn Sie die Datenrepository-Zuordnung erstellen, und Sie können die Einstellungen für den automatischen Import jederzeit über die FSx Managementkonsole AWS CLI, die oder die AWS API aktualisieren.

**Anmerkung**  
Sie können sowohl den automatischen Import als auch den automatischen Export für dieselbe Datenrepository-Zuordnung konfigurieren. In diesem Thema wird nur die automatische Importfunktion beschrieben.

**Wichtig**  
Wenn ein Objekt in S3 geändert wird, wobei alle automatischen Importrichtlinien aktiviert und der automatische Export deaktiviert sind, wird der Inhalt dieses Objekts immer in eine entsprechende Datei im Dateisystem importiert. Wenn am Zielort bereits eine Datei vorhanden ist, wird die Datei überschrieben.
Wenn eine Datei sowohl im Dateisystem als auch in S3 geändert wird und alle automatischen Import- und Exportrichtlinien aktiviert sind, kann entweder die Datei im Dateisystem oder das Objekt in S3 durch die andere überschrieben werden. Es ist nicht garantiert, dass eine spätere Bearbeitung an einem Ort eine frühere Bearbeitung an einem anderen Ort überschreibt. Wenn Sie dieselbe Datei sowohl im Dateisystem als auch im S3-Bucket ändern, sollten Sie die Koordination auf Anwendungsebene sicherstellen, um solche Konflikte zu vermeiden. FSx for Lustre verhindert nicht, dass widersprüchliche Schreibvorgänge an mehreren Speicherorten auftreten.

Die Importrichtlinie legt fest, wie Lustre Ihr Dateisystem aktualisieren soll, wenn sich der Inhalt im verknüpften S3-Bucket ändert. FSx Eine Datenrepository-Zuordnung kann eine der folgenden Importrichtlinien haben:
+ **Neu** — FSx für Lustre werden Datei- und Verzeichnismetadaten nur dann automatisch aktualisiert, wenn dem verknüpften S3-Datenrepository neue Objekte hinzugefügt werden.
+ **Geändert** — FSx für Lustre werden Datei- und Verzeichnismetadaten nur dann automatisch aktualisiert, wenn ein vorhandenes Objekt im Daten-Repository geändert wird.
+ **Gelöscht** — FSx für Lustre werden Datei- und Verzeichnismetadaten nur dann automatisch aktualisiert, wenn ein Objekt im Datenrepository gelöscht wird.
+ **Beliebige Kombination aus Neu, Geändert und Gelöscht** — FSx bei Lustre werden Datei- und Verzeichnismetadaten automatisch aktualisiert, wenn eine der angegebenen Aktionen im S3-Datenrepository stattfindet. Sie können beispielsweise angeben, dass das Dateisystem aktualisiert wird, wenn ein Objekt zum S3-Repository hinzugefügt (**Neu**) oder aus dem S3-Repository entfernt (**gelöscht**) wird, aber nicht aktualisiert wird, wenn ein Objekt geändert wird.
+ **Keine Richtlinie konfiguriert** — FSx denn Lustre aktualisiert keine Datei- und Verzeichnismetadaten im Dateisystem, wenn Objekte zum S3-Daten-Repository hinzugefügt, darin geändert oder gelöscht werden. Wenn Sie keine Importrichtlinie konfigurieren, ist der automatische Import für die Datenrepository-Zuordnung deaktiviert. Sie können Metadatenänderungen immer noch manuell importieren, indem Sie eine Aufgabe zum Importieren eines Datenrepositorys verwenden, wie unter beschrieben[Verwenden von Datenrepository-Aufgaben zum Importieren von Änderungen](import-data-repo-task-dra.md).

**Wichtig**  
Beim automatischen Import werden die folgenden S3-Aktionen nicht mit Ihrem Linked FSx for Lustre-Dateisystem synchronisiert:  
Löschen eines Objekts mit Ablauf des S3-Objektlebenszyklus
Dauerhaftes Löschen der aktuellen Objektversion in einem Bucket mit aktivierter Versionierung
Das Löschen eines Objekts in einem Bucket mit aktivierter Versionierung rückgängig machen

**Für die meisten Anwendungsfälle empfehlen wir, die Importrichtlinie „**Neu**“, „**Geändert**“ und „Gelöscht“ zu konfigurieren.** Diese Richtlinie stellt sicher, dass alle Aktualisierungen, die in Ihrem verknüpften S3-Datenrepository vorgenommen wurden, automatisch in Ihr Dateisystem importiert werden.

Wenn Sie eine Importrichtlinie zur Aktualisierung Ihrer Dateisystemdatei und Ihrer Verzeichnismetadaten auf der Grundlage von Änderungen im verknüpften S3-Datenrepository festlegen, erstellt FSx for Lustre eine Konfiguration für Ereignisbenachrichtigungen auf dem verknüpften S3-Bucket. Die Konfiguration für die Ereignisbenachrichtigung hat einen Namen`FSx`. Ändern oder löschen Sie die Konfiguration der `FSx` Ereignisbenachrichtigung im S3-Bucket nicht. Dadurch wird der automatische Import aktualisierter Datei- und Verzeichnismetadaten in Ihr Dateisystem verhindert.

Wenn FSx for Lustre eine Dateiliste aktualisiert, die sich im verknüpften S3-Daten-Repository geändert hat, überschreibt es die lokale Datei mit der aktualisierten Version, auch wenn die Datei schreibgesperrt ist.

FSx for Lustre bemüht sich nach besten Kräften, Ihr Dateisystem zu aktualisieren. FSx for Lustre kann das Dateisystem in den folgenden Situationen nicht aktualisieren:
+ Wenn FSx for Lustre nicht berechtigt ist, das geänderte oder neue S3-Objekt zu öffnen. In diesem Fall überspringt FSx for Lustre das Objekt und fährt fort. Der DRA-Lebenszyklusstatus ist davon nicht betroffen.
+ Wenn FSx for Lustre keine Berechtigungen auf Bucket-Ebene hat, z. B. für. `GetBucketAcl` **Dadurch wird der Lebenszyklusstatus des Datenrepositorys auf „Fehlkonfiguriert“ gesetzt.** Weitere Informationen finden Sie unter [Lebenszyklusstatus der Datenrepository-Zuordnung](dra-lifecycles.md).
+ Wenn die Konfiguration der `FSx` Ereignisbenachrichtigung im verknüpften S3-Bucket gelöscht oder geändert wird. Dies führt dazu, dass der Lebenszyklusstatus des Daten-Repositorys **falsch konfiguriert** wird. Weitere Informationen finden Sie unter [Lebenszyklusstatus der Datenrepository-Zuordnung](dra-lifecycles.md).

Wir empfehlen, die [Protokollierung in CloudWatch Logs zu aktivieren](cw-event-logging.md#manage-logging), um Informationen zu Dateien oder Verzeichnissen zu protokollieren, die nicht automatisch importiert werden konnten. Warnungen und Fehler im Protokoll enthalten Informationen zur Fehlerursache. Weitere Informationen finden Sie unter [Datenrepository-Ereignisprotokolle](data-repo-event-logs.md).

## Voraussetzungen
<a name="auto-import-prereqs-dra"></a>

Die folgenden Bedingungen sind erforderlich, damit Lustre automatisch neue, geänderte oder gelöschte Dateien aus dem verknüpften S3-Bucket importieren kann: FSx 
+ Das Dateisystem und der verknüpfte S3-Bucket befinden sich im selben AWS-Region.
+ Der S3-Bucket hat keinen falsch konfigurierten **Lifecycle-Status**. Weitere Informationen finden Sie unter [Lebenszyklusstatus der Datenrepository-Zuordnung](dra-lifecycles.md).
+ Ihr Konto verfügt über die erforderlichen Berechtigungen, um Ereignisbenachrichtigungen für den verknüpften S3-Bucket zu konfigurieren und zu empfangen.

## Unterstützte Arten von Dateiänderungen
<a name="file-change-support-dra"></a>

FSx for Lustre unterstützt den Import der folgenden Änderungen an Dateien und Verzeichnissen, die im verknüpften S3-Bucket auftreten:
+ Änderungen am Dateiinhalt.
+ Änderungen an Datei- oder Verzeichnismetadaten.
+ Änderungen am Symlink-Ziel oder an den Metadaten.
+ Löschungen von Dateien und Verzeichnissen. Wenn Sie ein Objekt im verknüpften S3-Bucket löschen, das einem Verzeichnis im Dateisystem entspricht (d. h. ein Objekt mit einem Schlüsselnamen, der mit einem Schrägstrich endet), FSx löscht Lustre das entsprechende Verzeichnis im Dateisystem nur, wenn es leer ist.

## Importeinstellungen werden aktualisiert
<a name="manage-autoimport-dra"></a>

Sie können die Importeinstellungen eines Dateisystems für einen verknüpften S3-Bucket festlegen, wenn Sie die Datenrepository-Zuordnung erstellen. Weitere Informationen finden Sie unter [Einen Link zu einem S3-Bucket erstellen](create-linked-dra.md).

Sie können auch die Importeinstellungen, einschließlich der Importrichtlinie, jederzeit aktualisieren. Weitere Informationen finden Sie unter [Einstellungen für die Datenrepository-Zuordnung werden aktualisiert](update-dra-settings.md).

## Überwachung des automatischen Imports
<a name="monitoring-autoimport"></a>

Wenn die Änderungsrate in Ihrem S3-Bucket die Geschwindigkeit übersteigt, mit der der automatische Import diese Änderungen verarbeiten kann, werden die entsprechenden Metadatenänderungen, die in Ihr FSx for Lustre-Dateisystem importiert werden, verzögert. In diesem Fall können Sie anhand der `AgeOfOldestQueuedMessage` Metrik das Alter der ältesten Änderung überwachen, die darauf wartet, vom automatischen Import verarbeitet zu werden. Weitere Informationen zu dieser Metrik finden Sie unter[FSx für Lustre S3-Repository-Metriken](fs-metrics.md#auto-import-export-metrics).

Wenn die Verzögerung beim Import von Metadatenänderungen 14 Tage überschreitet (gemessen anhand der `AgeOfOldestQueuedMessage` Metrik), werden Änderungen in Ihrem S3-Bucket, die nicht durch automatischen Import verarbeitet wurden, nicht in Ihr Dateisystem importiert. Darüber hinaus ist der Zuordnungszyklus Ihres Daten-Repositorys als **FALSCH KONFIGURIERT** markiert und der automatische Import wird gestoppt. Wenn Sie den automatischen Export aktiviert haben, überwacht der automatische Export Ihr FSx for Lustre-Dateisystem weiterhin auf Änderungen. Zusätzliche Änderungen werden jedoch nicht von Ihrem FSx for Lustre-Dateisystem mit S3 synchronisiert.

Um Ihre Datenrepository-Zuordnung vom Lebenszyklusstatus **MISCONFIGURED** in den Lebenszyklusstatus **AVAILABLE** zurückzuversetzen, müssen Sie Ihre Datenrepository-Zuordnung aktualisieren. Sie können Ihre Datenrepository-Zuordnung mit dem [update-data-repository-association](https://docs.aws.amazon.com/cli/latest/reference/fsx/update-data-repository-association.html)CLI-Befehl (oder der entsprechenden [UpdateDataRepositoryAssociation](https://docs.aws.amazon.com/fsx/latest/APIReference/API_UpdateDataRepositoryAssociation.html)API-Operation) aktualisieren. Der einzige Anforderungsparameter, den Sie benötigen, ist `AssociationID` der der Datenrepository-Zuordnung, die Sie aktualisieren möchten.

Nachdem der Lebenszyklusstatus der Datenrepository-Zuordnung auf **VERFÜGBAR** geändert wurde, wird der automatische Import (und der automatische Export, falls aktiviert) neu gestartet. Nach dem Neustart setzt der automatische Export die Synchronisierung der Dateisystemänderungen mit S3 fort. [Um die Metadaten neuer und geänderter Objekte in S3 mit Ihrem FSx for Lustre-Dateisystem zu synchronisieren, die nicht importiert wurden oder aus einem falsch konfigurierten Zustand der Datenrepository-Zuordnung stammen, führen Sie eine Aufgabe zum Importieren von Datenrepositorys aus.](import-data-repo-task-dra.md) Bei Aufgaben zum Importieren von Datenrepositorys werden Löschungen in Ihrem S3-Bucket nicht mit Ihrem FSx for Lustre-Dateisystem synchronisiert. Wenn Sie S3 vollständig mit Ihrem Dateisystem synchronisieren möchten (einschließlich Löschungen), müssen Sie Ihr Dateisystem neu erstellen.

Um sicherzustellen, dass Verzögerungen beim Import von Metadatenänderungen 14 Tage nicht überschreiten, empfehlen wir Ihnen, einen Alarm für die `AgeOfOldestQueuedMessage` Metrik einzurichten und die Aktivität in Ihrem S3-Bucket zu reduzieren, falls die `AgeOfOldestQueuedMessage` Metrik Ihren Alarmschwellenwert überschreitet. Für ein FSx for Lustre-Dateisystem, das mit einem S3-Bucket verbunden ist, wobei ein einziger Shard kontinuierlich die maximale Anzahl möglicher Änderungen von S3 sendet, wobei nur der automatische Import auf dem FSx for Lustre-Dateisystem ausgeführt wird, kann der automatische Import einen 7-stündigen Backlog von S3-Änderungen innerhalb von 14 Tagen verarbeiten.

Darüber hinaus können Sie mit einer einzigen S3-Aktion mehr Änderungen generieren, als der automatische Import jemals in 14 Tagen verarbeiten kann. Beispiele für diese Arten von Aktionen sind unter anderem AWS Snowball Uploads auf S3 und umfangreiche Löschungen. Wenn Sie eine umfangreiche Änderung an Ihrem S3-Bucket vornehmen, die Sie mit Ihrem FSx for Lustre-Dateisystem synchronisieren möchten, sollten Sie Ihr Dateisystem löschen und nach Abschluss der S3-Änderung neu erstellen, um zu verhindern, dass automatische Importänderungen länger als 14 Tage dauern.

Wenn Ihre `AgeOfOldestQueuedMessage` Kennzahl wächst, überprüfen Sie Ihren S3-Bucket`GetRequests`, `PutRequests``PostRequests`, und die `DeleteRequests` Metriken auf Aktivitätsänderungen, die zu einer Erhöhung der and/or Anzahl der Änderungen führen würden, die an den automatischen Import gesendet werden. Informationen zu verfügbaren S3-Metriken finden Sie unter [Monitoring Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/monitoring-overview.html) im *Amazon S3 S3-Benutzerhandbuch*.

Eine Liste aller FSx für Lustre verfügbaren Metriken finden Sie unter[Überwachung mit Amazon CloudWatch](monitoring-cloudwatch.md).

# Verwenden von Datenrepository-Aufgaben zum Importieren von Änderungen
<a name="import-data-repo-task-dra"></a>

Die Aufgabe Datenrepository importieren importiert Metadaten von Objekten, die in Ihrem S3-Daten-Repository neu sind oder geändert wurden, und erstellt eine neue Datei- oder Verzeichnisliste für jedes neue Objekt im S3-Daten-Repository. Für jedes Objekt, das im Datenrepository geändert wurde, wird die entsprechende Datei- oder Verzeichnisliste mit den neuen Metadaten aktualisiert. Für Objekte, die aus dem Datenspeicher gelöscht wurden, werden keine Maßnahmen ergriffen.

Gehen Sie wie folgt vor, um Metadatenänderungen mithilfe der FSx Amazon-Konsole und CLI zu importieren. Beachten Sie, dass Sie eine Datenrepository-Aufgabe für mehrere verwenden können DRAs.

## Um Änderungen an Metadaten zu importieren (Konsole)
<a name="create-import-data-repo-task-dra-console"></a>

1. Öffnen Sie die FSx Amazon-Konsole unter [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/).

1. Wählen Sie im Navigationsbereich **Dateisysteme** und anschließend Ihr Lustre Dateisystem aus.

1. Wählen Sie die Registerkarte **Daten-Repository**.

1. Wählen Sie im Bereich **Datenrepository-Verknüpfungen** die Datenrepository-Verknüpfungen aus, für die Sie die Importaufgabe erstellen möchten.

1. Wählen Sie im Menü **Aktionen** die Option **Aufgabe importieren** aus. Diese Option ist nicht verfügbar, wenn das Dateisystem nicht mit einem Datenrepository verknüpft ist. Die **Aufgabenseite Import-Daten-Repository erstellen** wird angezeigt.

1. (Optional) Geben Sie bis zu 32 Verzeichnisse oder Dateien an, die aus Ihren verknüpften S3-Buckets importiert werden sollen, indem Sie die Pfade zu diesen Verzeichnissen oder Dateien unter Zu **importierende Datenrepository-Pfade** angeben.
**Anmerkung**  
Wenn ein von Ihnen angegebener Pfad nicht gültig ist, schlägt die Aufgabe fehl.

1. (Optional) Wählen Sie unter **Abschlussbericht** die Option **Aktivieren** aus, um nach Abschluss der Aufgabe einen Bericht über den Abschluss der Aufgabe zu erstellen. Ein *Bericht über den Abschluss der Aufgabe* enthält Details zu den Dateien, die von der Aufgabe verarbeitet wurden und die dem unter **Berichtsbereich angegebenen Umfang** entsprechen. **Um den Ort anzugeben, an den Amazon den Bericht liefern FSx soll, geben Sie als Berichtspfad einen relativen Pfad in einem verknüpften S3-Datenrepository ein.**

1. Wählen Sie **Erstellen** aus. 

   Eine Benachrichtigung oben auf der Seite **Dateisysteme** zeigt, dass die Aufgabe, die Sie gerade erstellt haben, in Bearbeitung ist. 

Um den Status und die Details der Aufgabe einzusehen, scrollen Sie auf der Registerkarte **Daten-Repository für das Dateisystem nach unten zum Bereich **Daten-Repository-Aufgaben****. In der Standardsortierreihenfolge wird die neueste Aufgabe ganz oben in der Liste angezeigt.

Um auf dieser Seite eine Aufgabenzusammenfassung anzuzeigen, wählen Sie die **Task-ID** für die Aufgabe, die Sie gerade erstellt haben. Die **Übersichtsseite** für die Aufgabe wird angezeigt. 

## So importieren Sie Metadatenänderungen (CLI)
<a name="create-import-data-repo-task-dra-cli"></a>
+ Verwenden Sie den [https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html](https://docs.aws.amazon.com/cli/latest/reference/fsx/create-data-repository-task.html)CLI-Befehl, um Metadatenänderungen in Ihr FSx for Lustre-Dateisystem zu importieren. Die entsprechende API-Operation ist [https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_CreateDataRepositoryTask.html).

  ```
  $ aws fsx create-data-repository-task \
      --file-system-id fs-0123456789abcdef0 \
      --type IMPORT_METADATA_FROM_REPOSITORY \
      --paths s3://bucketname1/dir1/path1 \
      --report Enabled=true,Path=s3://bucketname1/dir1/path1,Format=REPORT_CSV_20191124,Scope=FAILED_FILES_ONLY
  ```

  Nach erfolgreicher Erstellung der Datenrepository-Aufgabe FSx gibt Amazon die Aufgabenbeschreibung als JSON zurück.

Nachdem Sie die Aufgabe zum Importieren von Metadaten aus dem verknüpften Datenrepository erstellt haben, können Sie den Status der Aufgabe zum Importieren des Datenrepositorys überprüfen. Weitere Informationen zum Anzeigen von Datenrepository-Aufgaben finden Sie unter[Zugreifen auf Datenrepository-Aufgaben](view-data-repo-tasks.md).

# Vorladen von Dateien in Ihr Dateisystem
<a name="preload-file-contents-hsm-dra"></a>

Sie können optional Inhalte einzelner Dateien oder Verzeichnisse vorab in Ihr Dateisystem laden.

## Dateien mithilfe von HSM-Befehlen importieren
<a name="preload-hsm"></a>

Amazon FSx kopiert Daten aus Ihrem Amazon S3 S3-Daten-Repository, wenn auf eine Datei zum ersten Mal zugegriffen wird. Aufgrund dieses Ansatzes kommt es beim ersten Lesen oder Schreiben in eine Datei zu einer geringen Latenz. Wenn Ihre Anwendung empfindlich auf diese Latenz reagiert und Sie wissen, auf welche Dateien oder Verzeichnisse Ihre Anwendung zugreifen muss, können Sie optional Inhalte einzelner Dateien oder Verzeichnisse vorab laden. Dazu verwenden Sie den `hsm_restore` folgenden Befehl.

Sie können den `hsm_action` Befehl (der mit dem `lfs` Benutzerprogramm ausgegeben wird) verwenden, um zu überprüfen, ob der Inhalt der Datei vollständig in das Dateisystem geladen wurde. Der Rückgabewert von `NOOP` gibt an, dass die Datei erfolgreich geladen wurde. Führen Sie die folgenden Befehle von einer Recheninstanz aus, auf der das Dateisystem eingehängt ist. *path/to/file*Ersetzen Sie es durch den Pfad der Datei, die Sie vorab in Ihr Dateisystem laden.

```
sudo lfs hsm_restore path/to/file
sudo lfs hsm_action path/to/file
```

Sie können Ihr gesamtes Dateisystem oder ein ganzes Verzeichnis innerhalb Ihres Dateisystems vorladen, indem Sie die folgenden Befehle verwenden. (Das nachstehende Und-Zeichen sorgt dafür, dass ein Befehl als Hintergrundprozess ausgeführt wird.) Wenn Sie das gleichzeitige Vorladen mehrerer Dateien anfordern, FSx lädt Amazon Ihre Dateien parallel aus Ihrem Amazon S3 S3-Daten-Repository. Wenn eine Datei bereits in das Dateisystem geladen wurde, wird sie durch den `hsm_restore` Befehl nicht erneut geladen.

```
nohup find local/directory -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

**Anmerkung**  
Wenn Ihr verknüpfter S3-Bucket größer als Ihr Dateisystem ist, sollten Sie in der Lage sein, alle Dateimetadaten in Ihr Dateisystem zu importieren. Sie können jedoch nur so viele tatsächliche Dateidaten laden, wie in den verbleibenden Speicherplatz des Dateisystems passen. Sie erhalten eine Fehlermeldung, wenn Sie versuchen, auf Dateidaten zuzugreifen, obwohl im Dateisystem kein Speicherplatz mehr vorhanden ist. In diesem Fall können Sie die Speicherkapazität nach Bedarf erhöhen. Weitere Informationen finden Sie unter [Verwaltung der Speicherkapazität](managing-storage-capacity.md).

## Schritt zur Validierung
<a name="preload-validation"></a>

Sie können das unten aufgeführte Bash-Skript ausführen, um herauszufinden, wie viele Dateien oder Objekte sich in einem archivierten (veröffentlichten) Zustand befinden.

Um die Leistung des Skripts zu verbessern, insbesondere in Dateisystemen mit einer großen Anzahl von Dateien, werden CPU-Threads automatisch anhand der `/proc/cpuproc` Datei bestimmt. Das heißt, Sie werden eine schnellere Leistung mit einer Amazon EC2 EC2-Instance mit einer höheren vCPU-Anzahl erzielen.

1. Richten Sie das Bash-Skript ein.

   ```
   #!/bin/bash
   
   # Check if a directory argument is provided
   if [ $# -ne 1 ]; then
       echo "Usage: $0 /path/to/lustre/mount"
       exit 1
   fi
   
   # Set the root directory from the argument
   ROOT_DIR="$1"
   
   # Check if the provided directory exists
   if [ ! -d "$ROOT_DIR" ]; then
       echo "Error: Directory $ROOT_DIR does not exist."
       exit 1
   fi
   
   # Automatically detect number of CPUs and set threads
   if command -v nproc &> /dev/null; then
       THREADS=$(nproc)
   elif [ -f /proc/cpuinfo ]; then
       THREADS=$(grep -c ^processor /proc/cpuinfo)
   else
       echo "Unable to determine number of CPUs. Defaulting to 1 thread."
       THREADS=1
   fi
   
   # Output file
   OUTPUT_FILE="released_objects_$(date +%Y%m%d_%H%M%S).txt"
   
   echo "Searching in $ROOT_DIR for all released objects using $THREADS threads"
   echo "This may take a while depending on the size of the filesystem..."
   
   # Find all released files in the specified lustre directory using parallel
   # If you  get false positives for file names/paths that include the word 'released',
   # you can grep 'released exists archived' instead of just 'released'
   time sudo lfs find "$ROOT_DIR" -type f | \
   parallel --will-cite -j "$THREADS" -n 1000 "sudo lfs hsm_state {} | grep released" > "$OUTPUT_FILE"
   
   echo "Search complete. Released objects are listed in $OUTPUT_FILE"
   echo "Total number of released objects: $(wc -l <"$OUTPUT_FILE")"
   ```

1. Machen Sie das Skript ausführbar:

   ```
   $ chmod +x find_lustre_released_files.sh
   ```

1. Führen Sie das Skript wie im folgenden Beispiel aus:

   ```
   $ ./find_lustre_released_files.sh /fsxl/sample
   Searching in /fsxl/sample for all released objects using 16 threads
   This may take a while depending on the size of the filesystem...
   real 0m9.906s
   user 0m1.502s
   sys 0m5.653s
   Search complete. Released objects are listed in released_objects_20241121_184537.txt
   Total number of released objects: 30000
   ```

Wenn freigegebene Objekte vorhanden sind, führen Sie eine Massenwiederherstellung der gewünschten Verzeichnisse durch, in die die Dateien von S3 FSx für Lustre übertragen werden sollen, wie im folgenden Beispiel:

```
$ DIR=/path/to/lustre/mount
$ nohup find $DIR -type f -print0 | xargs -0 -n 1 -P 8 sudo lfs hsm_restore &
```

Beachten Sie, dass `hsm_restore` dies bei Millionen von Dateien eine Weile dauern kann.