

 O Amazon Redshift não permitirá mais a criação de UDFs do Python a partir do Patch 198. As UDFs do Python existentes continuarão a funcionar normalmente até 30 de junho de 2026. Para ter mais informações, consulte a [publicação de blog ](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

# Compactar arquivos de dados
<a name="c_best-practices-compress-data-files"></a>

Quando você desejar compactar arquivos de carga grandes, recomendamos que use gzip, lzop, bzip2 ou Zstandard para compactá-los e dividir os dados em vários arquivos menores.

Especifique a opção GZIP, LZOP, BZIP2 ou ZSTD com o comando COPY. Este exemplo carrega a tabela de HORA a partir de um arquivo lzop delimitado por pipe.

```
copy time
from 's3://amzn-s3-demo-bucket/data/timerows.lzo' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
lzop
delimiter '|';
```

Há casos em que não é necessário dividir arquivos de dados não compactados. Para obter mais informações sobre divisão de dados em arquivos e exemplos de como usar COPY para carregar dados, consulte [Carregar dados do Amazon S3](t_Loading-data-from-S3.md). 