

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 了解 Athena for Spark 的服務配額
<a name="notebooks-spark-quotas"></a>

*服務配額*也稱為*限制*，是 AWS 帳戶 可以使用的服務資源或操作數量上限。如需 AWS 可與 Amazon Athena for Spark 搭配使用之其他服務的服務配額詳細資訊，請參閱 中的[AWS 服務配額](https://docs.aws.amazon.com/general/latest/gr/aws_service_limits.html)*Amazon Web Services 一般參考*。

**注意**  
預設值是 設定的初始配額 AWS，與實際套用的配額值和最大可能的服務配額不同。新的 AWS 帳戶 可能會有初始的較低配額，可能會隨著時間增加。Amazon Athena for Apache Spark 會監控每個 內的帳戶用量 AWS 區域，然後根據您的用量自動增加配額。如果您的要求超過規定的限制，請聯絡客戶支援。

下表列有 Amazon Athena for Apache Spark 的服務配額。


****  

| 名稱 | 預設 | 可調整 | 版本 | Description | 
| --- | --- | --- | --- | --- | 
| Apache Spark DPU 並行 | 160 | 否 | PySpark 第 3 版 | 您在目前 AWS 區域的單一帳戶中可同時使用 Apache Spark 計算的資料處理單位 (DPU) 數目上限。DPU 是處理能力的相對測量，包含 4 個 vCPUs的運算容量和 16 GB 的記憶體。 | 
| Apache Spark session DPU 並行 | 60 | 否 | PySpark 第 3 版 | 在工作階段中，您可以同時使用 Apache Spark 計算的 DPU 數目上限。 | 
| 隨需 DPUs | 4 | 否 | Apache Spark 3.5 版 | 對於目前 Apache Spark 互動式工作階段，您可以同時使用的資料處理單位 (DPUs) 數量上限 AWS 區域。 | 