

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# Face Liveness 常见问题
<a name="face-liveness-faq"></a>

使用以下常见问题解答来查找有关 Rekognition Face Liveness 的常见问题的答案。
+ **面部活跃度检查的输出是什么？**

  

  Rekognition Face Liveness 为每次活跃度检查提供以下输出：
  + 置信度分数：返回介于 0 到 100 之间的数字分数。这个分数表明自拍视频很可能来自真实人物，而不是使用仿冒的不法分子。
  + 高质量图像：从自拍视频中提取了一张高质量的图像。该框架可用于各种用途，例如人脸比较、年龄估算或人脸搜索。
  + 审核图像：自拍视频最多返回四张图像，可用于审计跟踪记录。
+ **Rekognition Face Liveness 是否符合 iBeta 演示攻击检测 (PAD) 测试？**

  

  iBeta Quality Assurance 的演示攻击检测 (PAD) 测试是根据 ISO/IEC 30107-3 进行的。iBeta 已获得 NIST/NVLAP 的认证，可以测试并提供符合此 PAD 标准的结果。Rekognition Face Liveness 以完美的 PAD 分数通过了 1 级和 2 级 iBeta 演示攻击检测 (PAD) 一致性测试。可以在[此处](https://www.ibeta.com/wp-content/uploads/2023/10/231019-Amazon-Rekognition-PAD-Level-2-Confirmation-Letter.pdf)的 iBeta 网页上找到报告。
+ **我怎样才能获得高质量的帧和额外帧？**

  

  根据您的 [CreateFaceLivenessSession](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateFaceLivenessSession.html)API 请求的配置，高质量帧和其他帧可以作为原始字节返回或上传到您指定的 Amazon S3 存储桶。
+ **我可以更改椭圆形和彩色灯光的位置吗？**

  

  不能。椭圆形位置和彩色灯光是助力提升准确度的功能，因此无法自定义。
+ **我可以根据我们的应用程序自定义用户界面吗？**

  

  是的，您可以自定义大多数屏幕组件，例如主题、颜色、语言、文本内容和字体，使其与您的应用程序保持一致。有关如何自定义这些组件的详细信息，可以在我们的 [React](https://ui.docs.amplify.aws/react/connected-components/liveness)、[Swift](https://ui.docs.amplify.aws/swift/connected-components/liveness) 和 [Android](https://ui.docs.amplify.aws/android/connected-components/liveness) 用户界面组件的文档中找到。
+ **我可以自定义倒计时和时间，以便使人脸恰好置于椭圆形内吗？**

  

  不可以，倒计时和人脸贴合时间是根据对 1000 多名用户的大规模内部研究预先确定的，目标是在实现更高的准确度和更低的延迟之间取得最佳平衡。因此，无法自定义这些时间设置。
+ **不同颜色的灯光是否符合无障碍指南？**

  

  是的，我们产品中的不同颜色的灯光符合 WCAG 2.1 中概述的无障碍指南。经过 1000 多次用户检查，用户体验每秒显示大约两种颜色，这符合将颜色限制在每秒三种的建议。这降低了大多数人群发作癫痫的可能性。
+ **SDK 是否会调整屏幕亮度以获得最佳效果？**

  

  启动检查后，Face Liveness 手机 SDKs （适用于 Android 和 iOS）会自动调整亮度。但是，对于 Web SDK，网页存在一些限制，无法自动调整亮度。在这种情况下，我们希望 Web 应用程序指示终端用户手动提高屏幕亮度以获得最佳效果。
+ **它必须是椭圆形吗？ 我们可以用其他类似的形状吗？**

  

  不可以，椭圆形的大小、形状和位置不可自定义。精心挑选了特殊的椭圆形设计，因为它在准确捕捉和分析面部动作方面非常有效。因此，无法修改椭圆形状。
+ ** end-to-end延迟是多少？**

  

  我们测量从用户开始执行完成活跃度检查所需的操作到用户获得结果（通过或失败）的 end-to-end延迟。在最佳情况下，延迟为 5 秒。在平均情况下，我们预计约为 7 秒。在最坏情况下，延迟为 11 秒。我们看到 end-to-end延迟会有所不同，因为它取决于：用户完成所需操作（即将脸部移入椭圆形）的时间、网络连接、应用程序延迟等。
+ **我可以在没有 Amplify SDK 的情况下使用 Face Liveness 功能吗？**

  

  不可以，使用 Rekognition Face Liveness 功能需要 Amplify SDK。
+ **在哪里可以找到与 Face Liveness 相关的错误状态？**

  

  您可以[在这里](https://ui.docs.amplify.aws/react/connected-components/liveness#error-states)看到不同的 Face Liveness 错误状态。
+ **Face Liveness 在我所在的地区不可用。如何使用该功能？**

  

  您可以选择在任何可用的地区调用 Face Liveness，具体取决于您的流量负荷和距离。Face liveness 目前在以下 AWS 地区可用：
  + 美国东部（弗吉尼亚州北部）
  + 美国西部（俄勒冈州）
  + 欧洲地区（爱尔兰）
  + 亚太地区（东京、孟买）

  即使您的 AWS 账户位于不同的区域，延迟差异预计也不会很大。您可以通过 Amazon S3 位置或原始字节获取高质量的自拍框和审核图像，但您的 Amazon S3 存储桶必须与 Face Liveness 的 AWS 区域匹配。如果它们不同，则必须以原始字节的形式接收图像。
+ **Amazon Rekognition Liveness Detection 是否使用客户内容来改进服务？**

  

  通过使用 AWS Organizations 的选择退出政策，您可以选择不使用您的图像和视频输入来提高或开发 Rekognition 和其他 Amazon 机器学习/人工智能技术的质量。有关如何选择退出的信息，请参阅[管理 AI 服务选择退出政策](https://docs.aws.amazon.com//organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html)。