

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# SerDe bibliothèques CSV
<a name="serde-csv-choices"></a>

Lorsque vous créez un tableau pour les données CSV dans Athena, vous pouvez utiliser la bibliothèque Open CSV SerDe ou la bibliothèque Lazy Simple SerDe . Appuyez-vous sur les recommandations suivantes pour déterminer laquelle utiliser.
+ Si vos données contiennent des valeurs entre guillemets (`"`), vous pouvez utiliser la SerDe bibliothèque [Open CSV](https://cwiki.apache.org/confluence/display/Hive/CSV+Serde) pour désérialiser les valeurs dans Athena. Si vos données ne contiennent pas de valeurs entre guillemets (`"`), vous pouvez ne pas SerDe en spécifier. Dans ce cas, Athena utilise le Lazy Simple par défaut. SerDe Pour plus d'informations, consultez [Lazy Simple SerDe pour les fichiers CSV, TSV et délimités sur mesure](lazy-simple-serde.md).
+  Si vos données contiennent des `TIMESTAMP` valeurs numériques UNIX (par exemple,`1579059880000`), utilisez le fichier CSV ouvert. SerDe Si vos données utilisent ce `java.sql.Timestamp` format, utilisez le Lazy Simple SerDe.

**Topics**
+ [Lazy Simple SerDe pour les fichiers CSV, TSV et délimités sur mesure](lazy-simple-serde.md)
+ [Ouvrez le fichier CSV SerDe pour le traitement du fichier CSV](csv-serde.md)

# Lazy Simple SerDe pour les fichiers CSV, TSV et délimités sur mesure
<a name="lazy-simple-serde"></a>

Comme il s'agit de la valeur par défaut SerDe dans Athena pour les données au format CSV, TSV et aux formats délimités de manière personnalisée, il est facultatif de le spécifier. Dans votre `CREATE TABLE` déclaration, si vous ne spécifiez pas a SerDe et spécifiez uniquement`ROW FORMAT DELIMITED`, Athéna l'utilise. SerDe Utilisez-le SerDe si vos données ne comportent pas de valeurs entre guillemets.

Pour une documentation de référence sur le Lazy Simple SerDe, consultez la SerDe section [Hive](https://cwiki.apache.org/confluence/display/Hive/DeveloperGuide#DeveloperGuide-HiveSerDe) du guide du développeur d'Apache Hive.

## Nom de la bibliothèque de sérialisation
<a name="lazy-simple-serde-library-name"></a>

Le nom de la bibliothèque de sérialisation du Lazy Simple SerDe est`org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe`. Pour obtenir des informations sur le code source, consultez [LazySimpleSerDe.java](https://github.com/apache/hive/blob/master/serde/src/java/org/apache/hadoop/hive/serde2/lazy/LazySimpleSerDe.java) sur GitHub .com. 

## Omission des en-têtes
<a name="lazy-simple-serde-ignoring-headers"></a>

Pour ignorer les en-têtes dans vos données lorsque vous définissez une table, vous pouvez utiliser la propriété de table `skip.header.line.count`, comme dans l'exemple suivant.

```
TBLPROPERTIES ("skip.header.line.count"="1")
```

Pour découvrir des exemples qui ignorent les en-têtes, consultez les instructions `CREATE TABLE` dans [Interrogation des journaux de flux Amazon VPC](vpc-flow-logs.md) et [Interrogez les CloudFront journaux d'Amazon](cloudfront-logs.md).

## Exemple CSV
<a name="csv-example"></a>

L’exemple suivant montre comment utiliser la bibliothèque `LazySimpleSerDe` pour créer une table dans Athena à partir de données CSV. Pour désérialiser des fichiers délimités de manière personnalisée à l'aide de cette méthode SerDe, suivez le modèle décrit dans les exemples, mais utilisez la `FIELDS TERMINATED BY` clause pour spécifier un autre délimiteur à caractère unique. Lazy Simple SerDe ne prend pas en charge les séparateurs à plusieurs caractères.

**Note**  
*myregion*Remplacez-le `s3://athena-examples-myregion/path/to/data/` par l'identifiant de la région dans laquelle vous exécutez Athena, par exemple. `s3://athena-examples-us-west-1/path/to/data/`

Utilisez l'instruction `CREATE TABLE` pour créer une table Athena à partir données CSV sous-jacentes stockées dans Simple Storage Service (Amazon S3).

```
CREATE EXTERNAL TABLE flight_delays_csv (
    yr INT,
    quarter INT,
    month INT,
    dayofmonth INT,
    dayofweek INT,
    flightdate STRING,
    uniquecarrier STRING,
    airlineid INT,
    carrier STRING,
    tailnum STRING,
    flightnum STRING,
    originairportid INT,
    originairportseqid INT,
    origincitymarketid INT,
    origin STRING,
    origincityname STRING,
    originstate STRING,
    originstatefips STRING,
    originstatename STRING,
    originwac INT,
    destairportid INT,
    destairportseqid INT,
    destcitymarketid INT,
    dest STRING,
    destcityname STRING,
    deststate STRING,
    deststatefips STRING,
    deststatename STRING,
    destwac INT,
    crsdeptime STRING,
    deptime STRING,
    depdelay INT,
    depdelayminutes INT,
    depdel15 INT,
    departuredelaygroups INT,
    deptimeblk STRING,
    taxiout INT,
    wheelsoff STRING,
    wheelson STRING,
    taxiin INT,
    crsarrtime INT,
    arrtime STRING,
    arrdelay INT,
    arrdelayminutes INT,
    arrdel15 INT,
    arrivaldelaygroups INT,
    arrtimeblk STRING,
    cancelled INT,
    cancellationcode STRING,
    diverted INT,
    crselapsedtime INT,
    actualelapsedtime INT,
    airtime INT,
    flights INT,
    distance INT,
    distancegroup INT,
    carrierdelay INT,
    weatherdelay INT,
    nasdelay INT,
    securitydelay INT,
    lateaircraftdelay INT,
    firstdeptime STRING,
    totaladdgtime INT,
    longestaddgtime INT,
    divairportlandings INT,
    divreacheddest INT,
    divactualelapsedtime INT,
    divarrdelay INT,
    divdistance INT,
    div1airport STRING,
    div1airportid INT,
    div1airportseqid INT,
    div1wheelson STRING,
    div1totalgtime INT,
    div1longestgtime INT,
    div1wheelsoff STRING,
    div1tailnum STRING,
    div2airport STRING,
    div2airportid INT,
    div2airportseqid INT,
    div2wheelson STRING,
    div2totalgtime INT,
    div2longestgtime INT,
    div2wheelsoff STRING,
    div2tailnum STRING,
    div3airport STRING,
    div3airportid INT,
    div3airportseqid INT,
    div3wheelson STRING,
    div3totalgtime INT,
    div3longestgtime INT,
    div3wheelsoff STRING,
    div3tailnum STRING,
    div4airport STRING,
    div4airportid INT,
    div4airportseqid INT,
    div4wheelson STRING,
    div4totalgtime INT,
    div4longestgtime INT,
    div4wheelsoff STRING,
    div4tailnum STRING,
    div5airport STRING,
    div5airportid INT,
    div5airportseqid INT,
    div5wheelson STRING,
    div5totalgtime INT,
    div5longestgtime INT,
    div5wheelsoff STRING,
    div5tailnum STRING
)
    PARTITIONED BY (year STRING)
    ROW FORMAT DELIMITED
      FIELDS TERMINATED BY ','
      ESCAPED BY '\\'
      LINES TERMINATED BY '\n'
    LOCATION 's3://athena-examples-myregion/flight/csv/';
```

Exécutez l'instruction `MSCK REPAIR TABLE` pour actualiser les métadonnées de la partition à chaque ajout d'une nouvelle partition à cette table :

```
MSCK REPAIR TABLE flight_delays_csv;
```

Recherchez les 10 principaux itinéraires dont le retard dépasse 1 heure :

```
SELECT origin, dest, count(*) as delays
FROM flight_delays_csv
WHERE depdelayminutes > 60
GROUP BY origin, dest
ORDER BY 3 DESC
LIMIT 10;
```

**Note**  
Les données du tableau des vols proviennent des [Vols](http://www.transtats.bts.gov/DL_SelectFields.asp?Table_ID=236&amp;DB_Short_Name=On-Time) fournis par le ministère américain des transports, [Bureau of Transportation Statistics](http://www.transtats.bts.gov/) (Bureau des statistiques des transports). Désaturé de l'original.

## Exemple TSV
<a name="tsv-example"></a>

Pour créer une table Athena à partir de données TSV stockées dans Amazon S3, utilisez `ROW FORMAT DELIMITED` et spécifiez le `\t` comme délimiteur de champs de tabulation, `\n` comme séparateur de ligne et `\` comme caractère d'échappement. L'extrait suivant montre cette syntaxe. Aucun exemple de données de vol TSV n'est disponible sur l'emplacement `athena-examples`, mais comme dans le cas de la table CSV, vous devez exécuter `MSCK REPAIR TABLE` pour actualiser les métadonnées de partition chaque fois qu'une nouvelle partition est ajoutée. 

```
...
ROW FORMAT DELIMITED
FIELDS TERMINATED BY '\t'
ESCAPED BY '\\'
LINES TERMINATED BY '\n'
...
```

# Ouvrez le fichier CSV SerDe pour le traitement du fichier CSV
<a name="csv-serde"></a>

Utilisez le fichier CSV ouvert SerDe pour créer des tables Athena à partir de données séparées par des virgules (CSV).

## Nom de la bibliothèque de sérialisation
<a name="csv-serde-library-name"></a>

Le nom de la bibliothèque de sérialisation pour le fichier Open CSV SerDe est`org.apache.hadoop.hive.serde2.OpenCSVSerde`. Pour obtenir des informations sur le code source, voir [CSV SerDe](https://cwiki.apache.org/confluence/display/Hive/CSV+Serde) dans la documentation d'Apache.

## Utilisation du fichier CSV ouvert SerDe
<a name="csv-serde-using"></a>

Pour l'utiliser SerDe, spécifiez son nom de classe complet après`ROW FORMAT SERDE`. Spécifiez également les délimiteurs dans `SERDEPROPERTIES`, comme illustré dans l’exemple ci-dessous.

```
...
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'
WITH SERDEPROPERTIES (
  "separatorChar" = ",",
  "quoteChar"     = "`",
  "escapeChar"    = "\\"
)
```

### Ignorer les en-têtes
<a name="csv-serde-opencsvserde-ignoring-headers"></a>

Pour ignorer les en-têtes dans vos données lorsque vous définissez une table, vous pouvez utiliser la propriété de table `skip.header.line.count`, comme dans l'exemple suivant.

```
TBLPROPERTIES ("skip.header.line.count"="1")
```

Pour des exemples, voir les instructions `CREATE TABLE` dans [Interrogation des journaux de flux Amazon VPC](vpc-flow-logs.md) et [Interrogez les CloudFront journaux d'Amazon](cloudfront-logs.md).

### Utilisation de la valeur NULL pour les données non valides
<a name="csv-serde-opencsvserde-using-null"></a>

Pour utiliser des valeurs NULL pour les données dont la désérialisation dans le type défini pour la colonne échoue, vous pouvez utiliser la propriété de table `use.null.for.invalid.data`, comme illustré dans l’exemple suivant. 

```
TBLPROPERTIES ("skip.header.line.count"="1")
```

**Important**  
La définition de `use.null.for.invalid.data` sur `TRUE` peut entraîner des résultats incorrects ou inattendus, car les valeurs `NULL` remplacent les données non valides dans les colonnes présentant des problèmes de correspondance de schéma. Il est préférable de corriger les données dans vos fichiers ou votre schéma de table que d’activer cette propriété. Lorsque vous activez cette propriété, les données non valides n’entraînent pas l’échec des requêtes, ce qui peut vous empêcher de déceler des problèmes de qualité des données.

### Considérations relatives aux données de type chaîne
<a name="csv-serde-opencsvserde-considerations-string"></a>

L'Open CSV SerDe présente les caractéristiques suivantes pour les données sous forme de chaîne :
+ Utilise des guillemets (`"`) en tant que caractère par défaut et vous permet de spécifier des séparateurs, des guillemets et des caractères d'échappement, tels que : 

  ```
  WITH SERDEPROPERTIES ("separatorChar" = ",", "quoteChar" = "`", "escapeChar" = "\\" )
  ```
+ Vous ne pouvez pas échapper directement `\t` ou `\n`. Pour ce faire, utilisez `"escapeChar" = "\\"`. Pour obtenir un exemple, consultez [Example: Escaping \t or \n](#csv-serde-opencsvserde-example-escaping-t-or-n).
+ L'Open CSV SerDe ne prend pas en charge les sauts de ligne intégrés dans les fichiers CSV.

### Considérations relatives aux données d’un type autre que chaîne
<a name="csv-serde-opencsvserde-considerations-non-string"></a>

Pour les types de données autres que`STRING`, le fichier Open CSV SerDe se comporte comme suit :
+ Reconnaît les de données `BOOLEAN`, `BIGINT`, `INT` et `DOUBLE`. 
+ Ne reconnaît pas les valeurs vides ou nulles dans les colonnes définies en tant que type de données numériques, et les conserve en tant que `string`. Une solution consiste à créer la colonne avec les valeurs nulles en tant que `string` et utiliser ensuite `CAST` pour convertir le champ dans une requête en un type de données numérique, en fournissant une valeur par défaut de `0` pour les valeurs nulles. Pour plus d'informations, voir [Lorsque j'interroge des données CSV dans Athena, l'erreur HIVE\$1BAD\$1DATA s'affiche : Erreur lors de l'analyse](https://aws.amazon.com/premiumsupport/knowledge-center/athena-hive-bad-data-error-csv/) de la valeur du champ dans le Knowledge Center. AWS 
+ Pour les colonnes spécifiées avec le type de données `timestamp` dans votre instruction `CREATE TABLE`, il reconnaît les données `TIMESTAMP` si elles sont spécifiées dans le format numérique UNIX en millisecondes, par exemple, `1579059880000`. Pour obtenir un exemple, consultez [Example: Using the TIMESTAMP type and DATE type specified in the UNIX numeric format](#csv-serde-opencsvserde-example-timestamp-unix).
  + L'Open CSV SerDe ne prend pas `TIMESTAMP` en charge le `java.sql.Timestamp` format compatible JDBC, tel que `"YYYY-MM-DD HH:MM:SS.fffffffff"` (précision à 9 décimales).
+ Pour les colonnes spécifiées avec le type de données `DATE` dans votre instruction `CREATE TABLE`, il reconnaît les valeurs comme des dates si les valeurs représentent le nombre de jours qui se sont écoulés depuis le 1er janvier 1970. Par exemple, la valeur `18276` dans une colonne avec le type de données `date` est rendue comme `2020-01-15` lorsqu'elle est interrogée. Dans ce format UNIX, chaque jour est considéré comme ayant 86 400 secondes.
  + L'Open CSV SerDe ne prend directement `DATE` en charge aucun autre format. Pour traiter les données d'horodatage dans d'autres formats, vous pouvez définir la colonne comme `string` et ensuite utiliser les fonctions de conversion de temps pour retourner les résultats souhaités dans votre requête `SELECT`. Pour plus d'informations, consultez l'article [Lorsque j'interroge une table dans Amazon Athena, le résultat TIMESTAMP est vide](https://aws.amazon.com/premiumsupport/knowledge-center/query-table-athena-timestamp-empty/) dans le [Centre de connaissances AWS](https://aws.amazon.com/premiumsupport/knowledge-center/).
+ Pour mieux convertir les colonnes en le type souhaité dans une table, vous pouvez [créer une vue](views.md) sur la table et utiliser `CAST` pour la conversion.

## Exemples
<a name="csv-serde-opencsvserde-examples"></a>

**Example Exemple : Interrogation de données CSV simples**  
L’exemple suivant suppose que vous avez enregistré des données CSV dans `s3://amzn-s3-demo-bucket/mycsv/` avec le contenu suivant :  

```
"a1","a2","a3","a4"
"1","2","abc","def"
"a","a1","abc3","ab4"
```
Utilisez une instruction `CREATE TABLE` pour créer une table Athena basée sur les données. Référencez `OpenCSVSerde` (notez la lettre « d » minuscule) après `ROW FORMAT SERDE` et spécifiez le caractère de séparation, le caractère de guillemet et le caractère d’échappement dans `WITH SERDEPROPERTIES`, comme illustré dans l’exemple suivant.  

```
CREATE EXTERNAL TABLE myopencsvtable (
   col1 string,
   col2 string,
   col3 string,
   col4 string
)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'
WITH SERDEPROPERTIES (
   'separatorChar' = ',',
   'quoteChar' = '"',
   'escapeChar' = '\\'
   )
STORED AS TEXTFILE
LOCATION 's3://amzn-s3-demo-bucket/mycsv/';
```
Interrogez toutes les valeurs de la table :  

```
SELECT * FROM myopencsvtable;
```
La requête renvoie les valeurs suivantes :  

```
col1     col2    col3    col4
-----------------------------
a1       a2      a3      a4
1        2       abc     def
a        a1      abc3    ab4
```

**Example Exemple : Utilisation des types TIMESTAMP et DATE spécifiés au format numérique UNIX**  
Considérez les trois colonnes suivantes de données séparées par des virgules. Les valeurs de chaque colonne sont placées entre guillemets.  

```
"unixvalue creationdate 18276 creationdatetime 1579059880000","18276","1579059880000"
```
L'instruction suivante crée une table dans Athena à partir de l'emplacement du compartiment Simple Storage Service (Amazon S3) spécifié.  

```
CREATE EXTERNAL TABLE IF NOT EXISTS testtimestamp1(
 `profile_id` string,
 `creationdate` date,
 `creationdatetime` timestamp
 )
 ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'
 LOCATION 's3://amzn-s3-demo-bucket'
```
Ensuite, exécutez la requête suivante :   

```
SELECT * FROM testtimestamp1
```
La requête renvoie le résultat suivant, affichant les données de date et d'heure :  

```
profile_id                                                        creationdate     creationdatetime
unixvalue creationdate 18276 creationdatetime 1579146280000       2020-01-15       2020-01-15 03:44:40.000
```

**Example Exemple : Échappement de \$1t ou \$1n**  
Examinez les données de test suivantes :  

```
" \\t\\t\\n 123 \\t\\t\\n ",abc
" 456 ",xyz
```
L'instruction suivante crée une table dans Athena, en spécifiant que `"escapeChar" = "\\"`.   

```
CREATE EXTERNAL TABLE test1 (
f1 string,
s2 string) 
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde' 
WITH SERDEPROPERTIES ("separatorChar" = ",", "escapeChar" = "\\") 
LOCATION 's3://amzn-s3-demo-bucket/dataset/test1/'
```
Ensuite, exécutez la requête suivante :   

```
SELECT * FROM test1;
```
Elle renvoie ce résultat, en échappant correctement `\t` ou `\n` :  

```
f1            s2
\t\t\n 123 \t\t\n            abc
456                          xyz
```