

 Amazon Redshift は、パッチ 198 以降、新しい Python UDF の作成をサポートしなくなります。既存の Python UDF は、2026 年 6 月 30 日まで引き続き機能します。詳細については、[ブログ記事](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)を参照してください。

# データファイルを圧縮する
<a name="c_best-practices-compress-data-files"></a>

大きなロードファイルを圧縮するときは、gzip、lzop、bzip2、または Zstandard を使用してそれらを圧縮し、データを複数の小さなファイルに分割することをお勧めします。

COPY コマンドとともに GZIP、LZOP、BZIP2、ZSTD オプションを指定します。この例では、パイプで区切られた LZOP ファイルから TIME テーブルをロードしています。

```
copy time
from 's3://amzn-s3-demo-bucket/data/timerows.lzo' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
lzop
delimiter '|';
```

非圧縮データファイルを、分割しなくても良い場合もあります。データの分割、ならびに COPY を使用したデータのロード例については、「[Amazon S3 からデータをロードする](t_Loading-data-from-S3.md)」を参照してください。