

 Amazon Redshift non supporterà più la creazione di nuovi Python UDFs a partire dalla Patch 198. Python esistente UDFs continuerà a funzionare fino al 30 giugno 2026. Per ulteriori informazioni, consulta il [post del blog](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Compressione dei file di dati
<a name="c_best-practices-compress-data-files"></a>

Si consiglia di comprimere file di caricamento di grandi dimensioni utilizzando gzip, lzop, bzip2 o Zstandard per comprimerli e dividere i dati in più file di dimensioni minori.

Specificate l'opzione GZIP, LZOP o ZSTD con il comando COPY. BZIP2 Questo esempio carica la tabella TIME da un file Izop delimitato da pipe.

```
copy time
from 's3://amzn-s3-demo-bucket/data/timerows.lzo' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
lzop
delimiter '|';
```

Esistono casi in cui non è necessario dividere i file di dati non compressi. Per ulteriori informazioni sulla suddivisione dei dati e per esempi sull'utilizzo di COPY per caricare i dati, consultare [Caricamento di dati da Amazon S3](t_Loading-data-from-S3.md). 