

 Amazon Redshift 將不再支援從修補程式 198 開始建立新的 Python UDFs。現有 Python UDF 將繼續正常運作至 2026 年 6 月 30 日。如需詳細資訊，請參閱[部落格文章](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/)。

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 壓縮您的資料檔案
<a name="c_best-practices-compress-data-files"></a>

當您想要壓縮大型載入檔案時，我們建議您使用 gzip、lzop、bzip2 或 ZStandard 來壓縮檔案，並將資料分割成多個較小的檔案。

使用 COPY 命令並指定 GZIP、LZOP、BZIP2 或 ZSTD 選項。此範例從縱線分隔 lzop 檔案載入 TIME 資料表。

```
copy time
from 's3://amzn-s3-demo-bucket/data/timerows.lzo' 
iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole'
lzop
delimiter '|';
```

在某些情況下，您不必分割未壓縮的資料檔案。如需資料分割及使用 COPY 載入資料範例的相關資訊，請參閱 [從 Amazon S3 載入資料](t_Loading-data-from-S3.md)。