

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# Amazon EMR 叢集錯誤：檔案只能複寫至 0 個節點而非 1 個節點
<a name="emr-troubleshoot-error-resource-2"></a>

當檔案被寫入至 HDFS 時，它即被複寫至多個核心節點。當您看到此錯誤時，即代表 NameNode 協助程式沒有任何可用的 DataNode 執行個體將資料寫入至 HDFS。意即並未發生區塊複寫。這錯誤可能是由於多個問題所致：
+ 該 HDFS 檔案系統可能已將空間用盡。這是最可能的原因。
+ DataNode 執行個體在任務執行時可能不可用。
+ DataNode 執行個體可能已被封鎖與主節點通訊。
+ 在核心執行個體群組中的執行個體可能無法使用。
+ 可能遺失權限。例如，JobTracker 協助程式可能沒有建立任務追蹤器資訊的許可。
+ DataNode 執行個體保留的空間設定可能不足。透過檢查 dfs.datanode.du.reserved 組態設定來檢查是否屬於這種情況。

若要檢查此問題是否因 HDFS 磁碟空間不足引起的，請查看 CloudWatch 中的 `HDFSUtilization` 指標。若此數值過高，您可新增額外核心節點至該叢集。如果您認為可能有一個叢集已用盡 HDFS 磁碟空間，您可在 CloudWatch 中設定警示，以在 `HDFSUtilization` 值超出特定層級時提醒您。如需詳細資訊，請參閱[手動調整執行中 Amazon EMR 叢集的大小](emr-manage-resize.md)及[使用 CloudWatch 來監控 Amazon EMR 指標](UsingEMR_ViewingMetrics.md)。

若 HDFS 空間用盡並非問題，檢查 DataNode 日誌、NameNode 日誌與網路連線，以了解可能阻止 HDFS 複製資料的其他問題。如需詳細資訊，請參閱[檢視 Amazon EMR 日誌檔案](emr-manage-view-web-log-files.md)。