

 Amazon Redshift dejará de admitir la creación de nuevas UDF de Python a partir del parche 198. Las UDF de Python existentes seguirán funcionando hasta el 30 de junio de 2026. Para obtener más información, consulte la [publicación del blog](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

# Compresión de los archivos de datos
<a name="c_best-practices-compress-data-files"></a>

Recomendamos que, cuando desee comprimir archivos de carga grandes, utilice gzip, lzop, bzip2 o Zstandard para comprimirlos y divida los datos en varios archivos más pequeños.

Especifique la opción GZIP, LZOP, BZIP2 o ZSTD con el comando COPY. En este ejemplo, se carga la tabla TIME desde un archivo lzop delimitado por la barra vertical.

```
copy time
from 's3://amzn-s3-demo-bucket/data/timerows.lzo' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
lzop
delimiter '|';
```

Hay instancias en las que no necesita dividir los archivos de datos sin comprimir. Para obtener más información sobre cómo dividir los datos y ejemplos de uso del comando COPY para cargar datos, consulte [Carga de datos desde Amazon S3](t_Loading-data-from-S3.md). 