

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Mejora de la precisión con la moderación personalizada
<a name="moderation-custom-moderation"></a>

 La [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)API de Amazon Rekognition le permite detectar contenido inapropiado, no deseado u ofensivo. La función de moderación personalizada de Rekognition le permite mejorar la precisión mediante el uso de adaptadores. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Los adaptadores son componentes modulares que se pueden añadir a un modelo de aprendizaje profundo de Rekognition existente, lo que amplía sus capacidades para las tareas en las que está entrenado. Al crear un adaptador y proporcionárselo a la [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)operación, puede lograr una mayor precisión en las tareas de moderación de contenido relacionadas con su caso de uso específico.

Al personalizar el modelo de moderación de contenido de Rekognition para etiquetas de moderación específicas, debe crear un proyecto y entrenar un adaptador a partir del conjunto de imágenes que usted proporcione. A continuación, puede comprobar el rendimiento del adaptador de forma iterativa y volver a entrenarlo hasta el nivel de precisión deseado. Los proyectos se utilizan para contener las diferentes versiones de los adaptadores. 

Puede utilizar la consola de Rekognition para crear proyectos y adaptadores. Como alternativa, puede utilizar un AWS SDK y el correspondiente APIs para crear un proyecto, entrenar un adaptador y administrar sus adaptadores. 



# Crear y usar adaptadores
<a name="creating-and-using-adapters"></a>

Los adaptadores son componentes modulares que se pueden añadir al modelo de aprendizaje profundo de Rekognition existente, lo que amplía sus capacidades para las tareas en las que está entrenado. Al entrenar un modelo de aprendizaje profundo con adaptadores, puede lograr una mayor precisión en las tareas de análisis de imágenes relacionadas con su caso de uso específico. 

Para crear y usar un adaptador, debe proporcionar datos de entrenamiento y pruebas a Rekognition. Puede lograr esto usando uno de estos métodos:
+ Análisis y verificación masivos: puede crear un conjunto de datos de entrenamiento analizando en masa las imágenes que Rekognition analizará y a las que asignará etiquetas. A continuación, puede revisar las anotaciones generadas para sus imágenes y verificar o corregir las predicciones. Para obtener más información sobre cómo funciona el análisis masivo de imágenes, consulte [Análisis masivo](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).
+ Anotación manual: con este enfoque, crea sus datos de entrenamiento cargando y anotando imágenes. Los datos de prueba se crean cargando y anotando imágenes o dividiéndolas automáticamente. 

Elija uno de los siguientes temas para obtener más información:

**Topics**
+ [Análisis y verificación masivos](adapters-bulk-analysis.md)
+ [Anotación manual](adapters-manual-annotation.md)

# Análisis y verificación masivos
<a name="adapters-bulk-analysis"></a>

Con este enfoque, sube una gran cantidad de imágenes que desea usar como datos de entrenamiento y luego usa Rekognition para obtener predicciones para estas imágenes, que les asigna etiquetas automáticamente. Puede utilizar estas predicciones como punto de partida para el adaptador. Puede verificar la precisión de las predicciones y, a continuación, entrenar el adaptador en función de las predicciones verificadas. Esto se puede hacer con la AWS consola.



 En el siguiente vídeo se muestra cómo usar la capacidad de Análisis masivo de Rekognition para obtener predicciones de un gran número de imágenes, verificarlas y, después, entrenar un adaptador con esas predicciones. 

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/IGGMHPnPZLs?si=5eoidzFPbL6i5FfY)


## Subida de imágenes para su análisis masivo
<a name="adapters-bulk-analysis-upload-images"></a>

Para crear un conjunto de datos de entrenamiento para su adaptador, suba imágenes de forma masiva para que Rekognition pueda predecir las etiquetas. Para obtener los mejores resultados, proporcione tantas imágenes para el entrenamiento como sea posible, hasta el límite de 10 000, y asegúrese de que las imágenes sean representativas de todos los aspectos de su caso de uso. 

Al utilizar la AWS consola, puede cargar imágenes directamente desde su ordenador o proporcionar un depósito de Amazon Simple Storage Service que almacene sus imágenes. Sin embargo, cuando utilice APIs Rekognition con un SDK, debe proporcionar un archivo de manifiesto que haga referencia a las imágenes almacenadas en un depósito de Amazon Simple Storage Service. Para obtener más información, consulte [Análisis masivo](https://docs.aws.amazon.com/rekognition/latest/dg/bulk-analysis.html).

## Revisar predicciones
<a name="adapters-bulk-analysis-review-predictions"></a>

Una vez que haya cargado sus imágenes a la consola de Rekognition, generará etiquetas para ellas. A continuación, puede verificar las predicciones en una de las siguientes categorías: positivo verdadero, positivo falso, negativo verdadero, negativo falso. Una vez que haya verificado las predicciones, puede entrenar un adaptador a partir de sus comentarios.

## Entrenamiento del adaptador
<a name="adapters-bulk-analysis-train-adapter"></a>

Una vez que haya terminado de verificar las predicciones obtenidas mediante el análisis masivo, podrá iniciar el proceso de entrenamiento del adaptador. 

## Obtenga el AdapterId
<a name="adapters-bulk-analysis-get-adapter"></a>

Una vez que se haya entrenado el adaptador, podrá obtener el identificador único para usarlo en el análisis de imágenes de Rekognition. APIs

## Llamar a la operación de la API
<a name="adapters-bulk-analysis-call-operation"></a>

Para aplicar su adaptador personalizado, proporcione su ID cuando llame a uno de los APIs analizadores de imágenes compatibles con los adaptadores. Esto mejora la precisión de las predicciones de las imágenes.

# Anotación manual
<a name="adapters-manual-annotation"></a>

Con este enfoque, puede crear sus datos de entrenamiento cargando y anotando las imágenes manualmente. Los datos de las pruebas se crean cargando y anotando las imágenes de las pruebas o dividiéndolas automáticamente para que Rekognition utilice automáticamente una parte de los datos de entrenamiento como imágenes de prueba.

## Carga y anotación de imágenes
<a name="adapters-upload-sample-images"></a>

Para entrenar el adaptador, tendrá que subir un conjunto de imágenes de muestra representativas de su caso de uso. Para obtener los mejores resultados, proporcione tantas imágenes para el entrenamiento como sea posible, hasta el límite de 10 000, y asegúrese de que las imágenes sean representativas de todos los aspectos de su caso de uso. 

![\[Interfaz que muestra opciones para importar imágenes de entrenamiento, con opciones para importar un archivo de manifiesto, importar desde un bucket de S3 o cargar imágenes desde un equipo. Incluye un campo URI de S3 y una nota sobre cómo garantizar read/write los permisos.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-11-traiing-dataset.png)


Al utilizar la AWS consola, puede cargar imágenes directamente desde su ordenador, proporcionar un archivo de manifiesto o proporcionar un bucket de Amazon S3 que almacene sus imágenes.

 Sin embargo, cuando utilice APIs Rekognition con un SDK, debe proporcionar un archivo de manifiesto que haga referencia a las imágenes almacenadas en un bucket de Amazon S3. 

Puede usar la interfaz de anotación de la [consola de Rekognition](https://console.aws.amazon.com/rekognition) para anotar sus imágenes. Anote sus imágenes etiquetándolas con etiquetas, así establecerá una «verdad básica» para el entrenamiento. También debe designar conjuntos de entrenamiento y prueba, o usar la característica de división automática, antes de poder entrenar un adaptador. Cuando termine de designar los conjuntos de datos y anotar las imágenes, puede crear un adaptador basado en las imágenes anotadas del conjunto de pruebas. A continuación, puede evaluar el rendimiento del adaptador. 

## Creación de conjunto de pruebas
<a name="adapters-training-testing"></a>

Deberá proporcionar un conjunto de pruebas anotado o utilizar la característica de división automática. El conjunto de entrenamiento se utiliza para entrenar el adaptador. El adaptador aprende los patrones contenidos en estas imágenes anotadas. El conjunto de prueba se utiliza para evaluar el rendimiento del modelo antes de finalizar el adaptador. 

## Entrenamiento del adaptador
<a name="adapters-train-adapter"></a>

 Una vez que haya terminado de anotar los datos de entrenamiento o haya proporcionado un archivo de manifiesto, puede iniciar el proceso de entrenamiento del adaptador. 

## Obtención del ID del adaptador
<a name="adapter-get-adapter"></a>

Una vez que se haya entrenado el adaptador, podrá obtener el identificador único del adaptador para usarlo en el análisis de imágenes de Rekognition. APIs

## Llamar a la operación de la API
<a name="adapter-call-operation"></a>

Para aplicar su adaptador personalizado, proporcione su ID cuando llame a uno de los APIs analizadores de imágenes compatibles con los adaptadores. Esto mejora la precisión de las predicciones de las imágenes. 

# Preparación de los conjuntos de datos de entrada
<a name="preparing-datasets-adapters"></a>

La creación de un adaptador requiere que proporcione a Rekognition dos conjuntos de datos, un conjunto de datos de entrenamiento y un conjunto de datos de prueba. Cada conjunto de datos se compone de dos elementos: imágenes y anotaciones/etiquetas. En las siguientes secciones se explica para qué se utilizan las etiquetas y las imágenes y cómo se combinan para crear conjuntos de datos. 

## Imágenes
<a name="preparing-datasets-adapters-images"></a>

Necesitará entrenar un adaptador con muestras representativas de sus imágenes. Cuando seleccione imágenes para el entrenamiento, intente incluir al menos algunas imágenes que demuestren la respuesta esperada para cada una de las etiquetas a las que se dirige con el adaptador. 

Para crear un conjunto de datos de entrenamiento, debe proporcionar uno de los dos tipos de imágenes siguientes:
+ Imágenes con predicciones de falsos positivos. Por ejemplo, cuando un modelo base predice que una imagen contiene alcohol, pero no es así.
+ Imágenes con predicciones de falsos negativos. Por ejemplo, cuando un modelo base predice que una imagen no contiene alcohol, pero sí lo contiene. 

Para crear un conjunto de datos equilibrado, se recomienda proporcionar uno de los dos tipos de imágenes siguientes:
+ Imágenes con predicciones verdaderamente positivas. Por ejemplo, cuando un modelo base predice correctamente que una imagen contiene alcohol. Se recomienda proporcionar estas imágenes si proporciona imágenes de falsos positivos.
+ Imágenes con predicciones de verdaderos negativos. Por ejemplo, cuando un modelo base predice correctamente que una imagen no contiene alcohol. Se recomienda proporcionar estas imágenes si proporciona imágenes de falsos negativos.

## Etiquetas
<a name="preparing-datasets-adapters-labels"></a>

Una etiqueta hace referencia a cualquiera de los siguientes elementos: objetos, eventos, conceptos o actividades. En el caso de la moderación de contenido, una etiqueta es una instancia de contenido inapropiado, no deseado u ofensivo. 

En el contexto de la creación de un adaptador mediante el entrenamiento del modelo base de Rekognition, cuando se asigna una etiqueta a una imagen, se denomina anotación. Cuando entrene un adaptador con la consola de Rekognition, utilizará la consola para añadir anotaciones a las imágenes; para ello, deberá elegir una etiqueta y, a continuación, etiquetar las imágenes que se correspondan con la etiqueta. Mediante este proceso, el modelo aprende a identificar los elementos de las imágenes en función de la etiqueta asignada. Este proceso de vinculación permite que el modelo se centre en el contenido más relevante cuando se crea un adaptador, lo que mejora la precisión del análisis de imágenes. 

Como alternativa, puede proporcionar un archivo de manifiesto que contenga información sobre las imágenes y las anotaciones que las acompañan.

## Conjuntos de datos de entrenamiento y prueba
<a name="preparing-datasets-adapters-datasets"></a>

El conjunto de datos de entrenamiento es la base para ajustar el modelo y crear un adaptador personalizado. Debe proporcionar un conjunto de datos de entrenamiento anotado para que el modelo pueda aprender. El modelo aprende de este conjunto de datos para mejorar su rendimiento en el tipo de imágenes que usted proporciona. 

 Para mejorar la precisión, debes crear tu conjunto de datos de entrenamiento a partir de annotation/labeling imágenes. Puede lograr esto de dos maneras: 
+  Asignación manual de etiquetas: puede usar la consola Rekognition para crear un conjunto de datos de entrenamiento cargando las imágenes que quiere que contenga su conjunto de datos y, a continuación, asignarles etiquetas manualmente.
+  Archivo de manifiesto: puede utilizar un archivo de manifiesto para entrenar el adaptador. El archivo de manifiesto contiene información sobre las anotaciones más precisas para sus imágenes de entrenamiento y pruebas, así como la ubicación de las imágenes de entrenamiento. Puede proporcionar el archivo de manifiesto cuando entrene un adaptador con APIs Rekognition o cuando utilice la consola. AWS 

El conjunto de datos de prueba se utiliza para evaluar el rendimiento del adaptador después del entrenamiento. Para garantizar una evaluación fiable, el conjunto de datos de prueba se crea utilizando una parte del conjunto de datos de entrenamiento original que el modelo no haya visto antes. Este proceso garantiza que el rendimiento del adaptador se evalúe con nuevos datos, lo que crea mediciones y métricas precisas. Para obtener mejoras de precisión óptimas, consulte [Prácticas recomendadas de adaptadores de entrenamiento](using-adapters-best-practices.md).

# Administración de adaptadores con la AWS CLI y SDKs
<a name="managing-adapters"></a>

 Rekognition le permite utilizar múltiples características que aprovechan los modelos de visión artificial previamente entrenados. Con estos modelos, puede llevar a cabo tareas como la detección de etiquetas y la moderación del contenido. También puede personalizar estos modelos específicos con un adaptador. 

Puede utilizar la creación y gestión de proyectos de Rekognition APIs (como [CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)y [CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)) para crear y entrenar adaptadores. En las siguientes páginas se describe cómo usar las operaciones de la API para crear, entrenar y administrar los adaptadores mediante la AWS consola, el AWS SDK que elija o la AWS CLI. 

Después de entrenar un adaptador, puede usarlo para realizar inferencias con las características compatibles. Actualmente, los adaptadores son compatibles cuando se utiliza la característica de moderación de contenido.

Cuando entrenes un adaptador con un AWS SDK, debes proporcionar las etiquetas de información básica (anotaciones de imagen) en forma de archivo de manifiesto. También puede utilizar la consola de Rekognition para crear y entrenar un adaptador.

**nota**  
 Los adaptadores no se pueden copiar. Solo se pueden copiar las versiones de los proyectos de Etiquetas personalizadas de Rekognition. 

**Topics**
+ [Estados de adaptador](#managing-adapters-project-versions-statuses)
+ [Creación de un proyecto](managing-adapters-create-project.md)
+ [Descripción de proyectos](managing-adapters-describe-projects.md)
+ [Eliminación de un proyecto](managing-adapters-delete-project.md)
+ [Creación de una versión del proyecto](managing-adapters-create-project-version.md)
+ [Describir una versión del proyecto](managing-adapters-describe-project.md)
+ [Eliminación de una versión del proyecto](managing-adapters-delete-project-version.md)

## Estados de adaptador
<a name="managing-adapters-project-versions-statuses"></a>

El adaptador de Moderación personalizada (versiones de los proyectos) puede tener uno de los siguientes estados: 
+ TRAINING\$1IN\$1PROGRESS: el adaptador está en proceso de entrenamiento con los archivos que ha proporcionado como documentos de entrenamiento.
+ TRAINING\$1COMPLETED: el adaptador ha completado correctamente el entrenamiento y está listo para que revise su rendimiento. 
+ TRAINING\$1FAILED: el adaptador no ha podido completar su entrenamiento por algún motivo. Revise el archivo del manifiesto de salida y el resumen del manifiesto de salida para obtener información sobre la causa del error.
+ DELETING: el adaptador está en proceso de eliminarse.
+ DEPRECATED: el adaptador se ha entrenado con una versión anterior del modelo base de Moderación de contenido. Está en periodo de gracia y expirará entre 60 y 90 días a partir del lanzamiento de la nueva versión del modelo base. Durante el período de gracia, puedes seguir utilizando el adaptador para realizar inferencias [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)o [StartMediaAnalysisJob](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_StartMediaAnalysisJob.html)realizar operaciones de API. Consulte la consola de Moderación personalizada para ver la fecha de vencimiento de los adaptadores.
+ CADUCADO: el adaptador se entrenó con una versión anterior del modelo base de moderación de contenido y ya no se puede utilizar para obtener resultados personalizados con las operaciones de la StartMediaAnalysisJob API DetectModerationLabels o de la API. Si se especifica un adaptador con el estado Expired en una solicitud de inferencia, este se ignorará y, en su lugar, se devolverá la respuesta de la versión más reciente del modelo base de Moderación personalizada. 

# Creación de un proyecto
<a name="managing-adapters-create-project"></a>

Con esta [CreateProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProject.html)operación, puede crear un proyecto que contenga un adaptador para las operaciones de detección de etiquetas de Rekognition. Un proyecto es un grupo de recursos y, en el caso de operaciones de detección de etiquetas, por ejemplo DetectModerationLabels, un proyecto te permite almacenar adaptadores que puedes usar para personalizar el modelo base de Rekognition. Al invocar CreateProject, se proporciona al argumento el nombre del proyecto que se quiere crear. ProjectName 

 Para crear un proyecto con la AWS consola: 
+ Inicie sesión en la consola de Rekognition
+ Haga clic en **Moderación personalizada**
+ Elija **Crear proyecto**
+ Seleccione **Crear un nuevo proyecto** o **Agregar a un proyecto existente**
+ Agregue un **nombre de proyecto**
+ Agregue un **nombre de adaptador**
+ Agregue una descripción si lo desea
+ Elija cómo quiere importar las imágenes de su entrenamiento: archivo de manifiesto, desde un bucket de S3 o desde su ordenador
+ Elija si quiere dividir automáticamente sus datos de entrenamiento o importar un archivo de manifiesto
+ Seleccione si quiere que el proyecto se actualice automáticamente o no
+ Haga clic en **Crear proyecto**

Para crear un proyecto con la AWS CLI y el SDK:

1. Si aún no lo ha hecho, instale y configure la AWS CLI y el AWS SDKs. Para obtener más información, consulte [Paso 2: Configure y AWS CLI AWS SDKs](setup-awscli-sdk.md) .

1. Utilice el siguiente código para crear un proyecto:

------
#### [ CLI ]

```
# Request
# Creating Content Moderation Project
aws rekognition create-project \
    --project-name "project-name" \
    --feature CONTENT_MODERATION \
    --auto-update ENABLED
    --profile profile-name
```

------

# Descripción de proyectos
<a name="managing-adapters-describe-projects"></a>

Puede usar la [DescribeProjects](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjects.html)API para obtener información sobre sus proyectos, incluida la información sobre todos los adaptadores asociados a un proyecto. 

Para describir los proyectos con la AWS CLI y el SDK:

1. Si aún no lo ha hecho, instale y configure la AWS CLI y el AWS SDKs. Para obtener más información, consulte [Paso 2: Configure y AWS CLI AWS SDKs](setup-awscli-sdk.md) .

1. Utilice el siguiente código para describir un proyecto:

------
#### [ CLI ]

```
# Request
# Getting CONTENT_MODERATION project details 
aws rekognition describe-projects \
    --features CONTENT_MODERATION
    --profile profile-name
```

------

# Eliminación de un proyecto
<a name="managing-adapters-delete-project"></a>

Puedes eliminar un proyecto mediante la consola de Rekognition o llamando a la API. [DeleteProject](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProject.html) Para eliminar un proyecto, primero debe eliminar todos los adaptadores asociados. No se puede recuperar un proyecto o modelo después de eliminarlo. 

 Para eliminar un proyecto con la consola: AWS 
+ Inicie sesión en la consola de Rekognition.
+ Haga clic en **Moderación personalizada**.
+ Debe eliminar cada adaptador asociado al proyecto para poder eliminar el proyecto en sí. Elimine todos los adaptadores asociados al proyecto seleccionando el adaptador y, a continuación, seleccionando **Eliminar**.
+ Seleccione el proyecto y, a continuación, pulse el botón **Eliminar**.

Para eliminar un proyecto con la AWS CLI y el SDK:

1. Si aún no lo ha hecho, instale y configure la AWS CLI y el AWS SDKs. Para obtener más información, consulte [Paso 2: Configure y AWS CLI AWS SDKs](setup-awscli-sdk.md) .

1. Utilice el código siguiente para eliminar un proyecto: 

------
#### [ CLI ]

```
aws rekognition delete-project 
  --project-arn project_arn \
  --profile profile-name
```

------

# Creación de una versión del proyecto
<a name="managing-adapters-create-project-version"></a>

Puede entrenar un adaptador para su implementación mediante la [CreateProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_CreateProjectVersion.html)operación. CreateProjectVersion primero crea una nueva versión de un adaptador asociado a un proyecto y, a continuación, comienza a entrenarlo. La respuesta de CreateProjectVersion es un nombre de recurso de Amazon (ARN) para la versión del modelo. El entrenamiento tarda un tiempo en completarse. Puede obtener el estado actual llamando DescribeProjectVersions. Al entrenar un modelo, Rekognition usa los conjuntos de datos de entrenamiento y prueba asociados al proyecto. Para crear conjuntos de datos, deberá utilizar la consola. Para obtener más información, consulte la sección sobre conjuntos de datos. 

 Para crear un proyecto con la consola de Rekognition: 
+  Inicie sesión en la consola de AWS Rekognition 
+  Haga clic en Moderación personalizada 
+  Seleccionar un proyecto. 
+  En la página Detalles del proyecto, elija **Crear adaptador** 
+  En la página Crear un proyecto, rellene los detalles necesarios para Detalles del proyecto, Imágenes de entrenamiento e Imágenes de prueba y, a continuación, seleccione **Crear proyecto**. 
+  En la página Asignar etiquetas a las imágenes, añada etiquetas a sus imágenes y, cuando termine, seleccione **Comenzar a entrenar** 

Para crear una versión del proyecto con la AWS CLI y el SDK:

1. Si aún no lo ha hecho, instale y configure la AWS CLI y el AWS SDKs. Para obtener más información, consulte [Paso 2: Configure y AWS CLI AWS SDKs](setup-awscli-sdk.md) .

1. Utilice el siguiente código para crear una versión del proyecto: 

------
#### [ CLI ]

```
# Request
aws rekognition create-project-version \
 --project-arn project-arn \
 --training-data '{Assets=[GroundTruthManifest={S3Object="amzn-s3-demo-source-bucket",Name="manifest.json"}]}' \
 --output-config S3Bucket=amzn-s3-demo-destination-bucket,S3KeyPrefix=my-results \
 --feature-config "ContentModeration={ConfidenceThreshold=70}"
 --profile profile-name
```

------

# Describir una versión del proyecto
<a name="managing-adapters-describe-project"></a>

Puede enumerar y describir los adaptadores asociados a un proyecto mediante la [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)operación. Puede especificar hasta 10 versiones de modelo en ProjectVersionArns. Si no indica un valor, se devolverán las descripciones de todas las versiones del modelo en el proyecto. 

Para describir la versión de un proyecto con la AWS CLI y el SDK:

1. Si aún no lo ha hecho, instale y configure la AWS CLI y el AWS SDKs. Para obtener más información, consulte [Paso 2: Configure y AWS CLI AWS SDKs](setup-awscli-sdk.md) .

1. Utilice el siguiente código para describir una versión del proyecto:

------
#### [ CLI ]

```
aws rekognition describe-project-versions 
  --project-arn project_arn \
  --version-names [versions]
```

------

# Eliminación de una versión del proyecto
<a name="managing-adapters-delete-project-version"></a>

Puede eliminar un adaptador de Rekognition asociado a un proyecto mediante esta operación. [DeleteProjectVersion](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DeleteProjectVersion.html) No puede eliminar un adaptador si se está ejecutando o si se está entrenando. Para comprobar el estado de un adaptador, llame a la DescribeProjectVersions operación y compruebe el campo de estado que devuelve. Para detener una llamada al adaptador en ejecución StopProjectVersion. Si el modelo se está entrenando, espere a que termine de entrenarse para eliminarlo. Debe eliminar cada adaptador asociado al proyecto para poder eliminar el proyecto en sí.

 Para eliminar un proyecto con la consola de Rekognition: 
+ Inicie sesión en la consola de Rekognition
+ Haga clic en Moderación personalizada
+ En la pestaña Proyectos, puede ver todos sus proyectos y los adaptadores asociados. Seleccione un adaptador y, a continuación, seleccione **Eliminar**.

Para eliminar una versión del proyecto con la AWS CLI y el SDK:

1. Si aún no lo ha hecho, instale y configure la AWS CLI y el AWS SDKs. Para obtener más información, consulte [Paso 2: Configure y AWS CLI AWS SDKs](setup-awscli-sdk.md) .

1. Utilice el código siguiente para eliminar una versión del proyecto:

------
#### [ CLI ]

```
# Request
aws rekognition delete-project-version 
  --project-version-arn model_arn \
  --profile profile-name
```

------

# Tutorial sobre el adaptador de moderación personalizado
<a name="using-adapters-tutorial"></a>

Este tutorial le muestra cómo crear, entrenar, evaluar, usar y administrar adaptadores mediante la consola de Rekognition. Para crear, usar y administrar adaptadores con el AWS SDK, consulte[Administración de adaptadores con la AWS CLI y SDKs](managing-adapters.md).

Los adaptadores le permiten mejorar la precisión de las operaciones de la API de Rekognition y personalizar el comportamiento del modelo para adaptarlo a sus propias necesidades y casos de uso. Después de crear un adaptador con este tutorial, podrás usarlo para analizar tus propias imágenes con operaciones como [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html), por ejemplo, volver a entrenar el adaptador para futuras mejoras. 

En este tutorial, aprenderá a:
+ Crear un proyecto con la consola de Rekognition
+ Anotar sus datos de entrenamiento
+ Entrenar su adaptador en su conjunto de datos de entrenamiento
+ Revisar el rendimiento de su adaptador
+ Utilizar su adaptador para el análisis de imágenes

## Requisitos previos
<a name="using-adapters-tutorial-prereqs"></a>

Antes de completar este tutorial, se recomienda que lo lea detenidamente [Crear y usar adaptadores](creating-and-using-adapters.md).

Para crear un adaptador, puede usar la consola de Rekognition para crear un proyecto, subir y anotar sus propias imágenes y, a continuación, entrenar un adaptador con estas imágenes. Para empezar, consulte [Creación de un proyecto y entrenamiento de un adaptador](#using-adapters-tutorial-annotation).

Como alternativa, puede utilizar la consola o la API de Rekognition para recuperar las predicciones de las imágenes y, a continuación, verificarlas antes de entrenar un adaptador para utilizarlas. Para empezar, consulte [Análisis masivo, verificación de predicciones y entrenamiento de un adaptador](#using-adapters-tuorial-annotation-bulk-analysis).

## Anotación de imágenes
<a name="using-adapters-tutorial-image-annotation"></a>

Puede anotar las imágenes usted mismo etiquetándolas con la consola de Rekognition o utilizar el análisis masivo de Rekognition para anotar las imágenes y comprobar que se han etiquetado correctamente. Elija uno de los siguientes temas para empezar.

**Topics**
+ [Creación de un proyecto y entrenamiento de un adaptador](#using-adapters-tutorial-annotation)
+ [Análisis masivo, verificación de predicciones y entrenamiento de un adaptador](#using-adapters-tuorial-annotation-bulk-analysis)

### Creación de un proyecto y entrenamiento de un adaptador
<a name="using-adapters-tutorial-annotation"></a>

Siga los pasos que se indican a continuación para entrenar el adaptador mediante la anotación de imágenes mediante la consola de Rekognition.

**Crear un proyecto**

Antes de poder entrenar o usar un adaptador, debe crear el proyecto que lo contendrá. También debe proporcionar las imágenes utilizadas para entrenar el adaptador. Para crear un proyecto, un adaptador y sus conjuntos de datos de imágenes: 

1. Inicie sesión en la consola AWS de administración y abra la consola de Rekognition en. https://console.aws.amazon.com/rekognition/

1. En el panel izquierdo, elija **Moderación personalizada**. Aparece la página de inicio de Moderación personalizada de Rekognition.  
![\[Interfaz de Moderación personalizada de Rekognition, donde se muestra que no hay adaptadores afinados existentes y aparecen opciones para crear un nuevo proyecto o realizar búsquedas.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-1-landing-page.png)

1. La página de inicio de Moderación personalizada le muestra una lista de todos sus proyectos y adaptadores, y también hay un botón para crear un adaptador. Elija **Crear proyecto** para crear un nuevo proyecto y un adaptador.

1. Si es la primera vez que crea un adaptador, se le pedirá que cree un bucket de Amazon S3 para almacenar los archivos relacionados con su proyecto y su adaptador. Elija **Crear bucket de Amazon S3**.

1. En la página siguiente, introduzca el **nombre del adaptador** y el **nombre del proyecto**. Proporcione una descripción del adaptador si lo desea.   
![\[Formulario para especificar los detalles del proyecto, incluidos el nombre del proyecto, el nombre del adaptador y una descripción opcional del adaptador. Opciones para importar un conjunto de datos de imágenes de entrenamiento desde un archivo de manifiesto o un bucket de S3.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-2-project-details.png)

1. En este paso, también proporcionará las imágenes para el adaptador. Puede seleccionar: **Importar imágenes desde su ordenador**, **Importar un archivo de manifiesto** o **Importar imágenes desde un bucket de Amazon S3**. Si decide importar sus imágenes desde un bucket de Amazon S3, indica la ruta al bucket y la carpeta que contienen las imágenes de entrenamiento. Si sube las imágenes directamente desde su ordenador, tenga en cuenta que solo puede subir hasta 30 imágenes a la vez. Si utiliza un archivo de manifiesto que contiene anotaciones, puede saltarse los pasos que se indican a continuación relacionados con la anotación de imágenes y pasar a la sección sobre [Revisión del rendimiento del adaptador](#using-adapters-tutorial-performance).

1. En la sección **Detalles del conjunto de datos de prueba**, elija **División automática** para que Rekognition seleccione automáticamente el porcentaje adecuado de sus imágenes como datos de prueba, o puede elegir **Importar manualmente el archivo de manifiesto**.

1. Tras rellenar esta información, selecciona **Crear proyecto**.

**Entrena un adaptador**

Para entrenar un adaptador a partir de sus propias imágenes sin anotaciones:

1. Seleccione el proyecto que contiene el adaptador y, a continuación, elija la opción **Asignar etiqueta a las imágenes**. 

1. En la página **Asignar etiqueta a las imágenes**, puede ver todas las imágenes que se han cargado como imágenes de entrenamiento. Puede filtrar estas imágenes tanto por labeled/unlabeled estado como por categoría de etiqueta mediante los dos paneles de selección de atributos de la izquierda. Puedes añadir imágenes adicionales a su conjunto de datos de entrenamiento seleccionando el botón **Añadir imágenes**.  
![\[Interfaz de etiquetado de imágenes con instrucciones, detalles del adaptador y un panel de imágenes vacío.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-4-assign-labels-to-images.png)

1. Tras añadir imágenes al conjunto de datos de entrenamiento, debe anotarlas con etiquetas. Tras subir las imágenes, la página «Asignar etiquetas a las imágenes» se actualizará para mostrar las imágenes que haya subido. Se le pedirá que seleccione la etiqueta adecuada para sus imágenes de una lista desplegable de etiquetas compatibles con la moderación de Rekognition. Puede seleccionar más de una etiqueta. 

1. Continúe con este proceso hasta que haya agregado etiquetas a cada una de las imágenes de sus datos de entrenamiento.

1. Después de etiquetar todos los datos, seleccione **Comenzar a entrenar** para empezar a entrenar el modelo, con lo que se crea el adaptador.  
![\[Interfaz que muestra dos imágenes con opciones para asignar etiquetas a categorías como desnudez explícita, contenido sugerente, violencia, símbolos de odio, alcohol, drogas, tabaco, etc.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-5-labels-images-blurred.png)

1. Antes de iniciar el proceso de entrenamiento, puede añadir las **etiquetas** que desee al adaptador. También puede proporcionar al adaptador una clave de cifrado personalizada o utilizar una clave AWS KMS. Cuando haya terminado de añadir las etiquetas que desee y de personalizar el cifrado a su gusto, seleccione **Entrenar adaptador** para iniciar el proceso de entrenamiento de su adaptador. 

1. Espere a que el adaptador termine de entrenarse. Una vez finalizado el entrenamiento, recibirá una notificación de que el adaptador ha terminado de crearse.

Cuando el estado del adaptador sea “Entrenamiento finalizado”, podrá revisar las métricas del adaptador

### Análisis masivo, verificación de predicciones y entrenamiento de un adaptador
<a name="using-adapters-tuorial-annotation-bulk-analysis"></a>

Complete los siguientes pasos para entrenar su adaptador verificando las predicciones de los análisis masivos a partir del modelo de moderación de contenido de Rekognition.

 Para entrenar un adaptador mediante la verificación de las predicciones del modelo de moderación de contenido de Rekognition, debe: 

1.  Realizar un análisis masivo de sus imágenes 

1.  Verificar las predicciones devueltas para sus imágenes 

Puede obtener predicciones para las imágenes realizando un análisis masivo con el modelo base de Rekognition o con un adaptador que ya haya creado. 

**Realizar un análisis masivo de sus imágenes**

Para entrenar un adaptador con las predicciones que ha verificado, primero debe iniciar un trabajo de análisis masivo para analizar un lote de imágenes utilizando el modelo base de Rekognition o un adaptador de su elección. Para ejecutar un trabajo de análisis masivo: 

1. Inicie sesión en la consola Amazon Rekognition Consola de administración de AWS y ábrala en. [https://console.aws.amazon.com/rekognition/](https://console.aws.amazon.com/rekognition/)

1. En el panel izquierdo, elija **Análisis masivo**. Aparece la página de inicio del análisis masivo. Seleccione **Iniciar un análisis masivo**. Se muestra información general de la característica Análisis masivo con pasos para cargar imágenes, esperar el análisis, revisar los resultados y, opcionalmente, verificar las predicciones del modelo. Muestra los trabajos recientes de Análisis masivo para Moderación de contenido con el modelo base.  
![\[Información general de la característica de Análisis masivo que muestra el flujo de trabajo y enumera los trabajos recientes de Análisis masivo para Moderación de contenido con el modelo base.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-1-create-bulk-analysis.png)

1. Si es la primera vez que crea un adaptador, se le pedirá que cree un bucket de Amazon Simple Storage Service para almacenar los archivos relacionados con su proyecto y su adaptador. Elija **Crear bucket de Amazon S3**.

1. Seleccione el adaptador que desee usar para el análisis masivo mediante el menú desplegable **Elegir un adaptador**. Si no se selecciona ningún adaptador, se utilizará el modelo base por defecto. Para este tutorial, no seleccione un adaptador.  
![\[Interfaz de Análisis masivo con menús desplegables para elegir una característica de Rekognition y un adaptador, establecer un nombre de trabajo y un umbral de confianza mínimo para las etiquetas. Algunos campos son obligatorios.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-2-bulk-analysis-job.png)

1.  En el campo **Nombre del trabajo de análisis masivo**, rellene el nombre del trabajo de análisis masivo. 

1. Elija un valor para el **Umbral de confianza mínimo**. No se devolverán las predicciones de etiquetas que sean inferiores al umbral de confianza elegido. Tenga en cuenta que cuando evalúe el rendimiento del modelo más adelante, no podrá ajustar el umbral de confianza por debajo del umbral de confianza mínimo que haya elegido.

1. En este paso, también proporcionará las imágenes que desee analizar con el análisis masivo. Estas imágenes también se pueden usar para entrenar el adaptador. Puede elegir **Cargar imágenes desde su ordenador** o **Importar imágenes desde un bucket de Amazon S3**. Si decide importar sus documentos desde un bucket de Amazon S3, indica la ruta al bucket y la carpeta que contienen las imágenes de entrenamiento. Si sube los documentos directamente desde su ordenador, tenga en cuenta que solo puede subir hasta 50 imágenes a la vez.

1. Tras rellenar esta información, seleccione **Iniciar análisis**. Esto iniciará el proceso de análisis utilizando el modelo base de Rekognition.

1.  Puede comprobar el estado de su trabajo de análisis masivo consultando el estado del análisis masivo del trabajo en la página principal de análisis masivo. Cuando el estado del análisis masivo pase a ser “Correcto”, los resultados del análisis estarán listos para su revisión.   
![\[Tabla de trabajos de Análisis masivo que muestra un trabajo denominado “Evaluation 01” con el estado “Succeeded” donde se usa la API de Rekognition de Moderación de contenido y el modelo base.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-3-bulk-analysis-status.png)

1.  Elija el análisis que creó de la lista de **trabajos de análisis masivo**. 

1. En la página de detalles del análisis masivo, puede ver las predicciones que el modelo base de Rekognition ha realizado para las imágenes que ha subido. 

1. Revise el rendimiento del modelo base. Puede cambiar el umbral de confianza que debe tener el adaptador para asignar una etiqueta a una imagen mediante el control deslizante del umbral de confianza. El número de instancias marcadas y no marcadas cambiará a medida que ajuste el umbral de confianza. El panel Categorías de etiquetas muestra las categorías de nivel superior que Rekognition reconoce y puede seleccionar una categoría de esta lista para mostrar cualquier imagen a la que se le haya asignado esa etiqueta.   
![\[El gráfico de barras de Análisis masivo muestra el número de imágenes marcadas para varias etiquetas.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-4-bulk-analysis-complete.png)

**Compruebe las predicciones**

Si ha revisado la precisión del modelo base de Rekognition o de un adaptador elegido y desea mejorarla, puede utilizar el flujo de trabajo de verificación: 

1. Cuando haya terminado de revisar el rendimiento del modelo base, querrá verificar las predicciones. Si corrige las predicciones, podrá entrenar un adaptador. Seleccione **Verificar las predicciones** en la parte superior de la página de análisis masivo.  
![\[Panel en el que se pide verificar las predicciones para calcular las tasas de falsos positivos y falsos negativos o entrenar un adaptador de moderación personalizada para mejorar la precisión.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-6-start-verification.png)

1. En la página Verificar las predicciones, puede ver todas las imágenes que proporcionó para el modelo base de Rekognition, o el adaptador elegido, junto con la etiqueta de predicción para cada imagen. Debe comprobar si cada predicción es correcta o incorrecta mediante los botones situados debajo de la imagen. Utilice el botón “X” para marcar una predicción como incorrecta y el botón de verificación para marcar una predicción como correcta. Para entrenar un adaptador, necesitará verificar al menos 20 predicciones de falsos positivos y 50 predicciones de falsos negativos para una etiqueta determinada. Cuantas más predicciones verifique, mejor será el rendimiento del adaptador.   
![\[Tres imágenes de personas que sostienen bebidas alcohólicas, utilizadas para ilustrar la predicción de la categoría “Alcohol” en las etiquetas de imágenes.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-7-verify-predictions-1.png)

   Después de verificar una predicción, el texto que aparece debajo de la imagen cambiará para mostrarte el tipo de predicción que ha verificado. Una vez que haya verificado una imagen, también puede añadir etiquetas adicionales a la imagen mediante el menú **Asignar etiquetas a la imagen**. Puede ver qué imágenes están marcadas o no marcadas por el modelo según el umbral de confianza que haya elegido o filtrar las imágenes por categoría.   
![\[Imagen que muestra tres ejemplos de moderación de contenido para el alcohol, así como un menú para aplicar etiquetas.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-8-verify-predictions-2.png)

1. Cuando haya terminado de verificar todas las predicciones que desee verificar, podrá ver las estadísticas sobre las predicciones verificadas en la sección **Rendimiento por etiqueta** de la página de verificación. También puede volver a la página de detalles del análisis masivo para ver estas estadísticas.  
![\[Página de verificación de Moderación de contenido que muestra tasas de falsos positivos en las etiquetas Desnudo explícito, Insinuante y Alcohol con un umbral de confianza del 50 %.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-8.5-predictions-stats.png)

1. Cuando el resultado de las estadísticas sobre el **rendimiento por etiqueta** sea satisfactorio, vuelva a ir a la página **Verificación de predicciones** y, a continuación, pulse el botón **Entrenar un adaptador** para empezar a entrenar el adaptador.  
![\[Página Verificar las predicciones que muestra los detalles del trabajo, incluidos el nombre, la fecha de creación, la versión del modelo y las ubicaciones de entrada y salida. Aparece el botón Entrenar un adaptador.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-9-train-adapter.png)

1. En la página Entrenar un adaptador, se le pedirá que cree un proyecto o que elija uno existente. Asigne un nombre al proyecto y al adaptador que incluirá el proyecto. También debe especificar el origen de las imágenes de prueba. Al especificar las imágenes, puede elegir División automática para que Rekognition utilice automáticamente una parte de sus datos de entrenamiento como imágenes de prueba, o puede especificar manualmente un archivo de manifiesto. Se recomienda elegir División automática.   
![\[Interfaz para crear un proyecto de adaptador con campos para especificar el nombre del proyecto, el nombre del adaptador, la descripción del adaptador, especificar el origen de datos de prueba y bien dividir automáticamente los datos o importar un archivo de manifiesto.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-10-train-adapter-project.png)

1. Especifique las etiquetas que desee, así como una AWS KMS clave si no desea utilizar la clave predeterminada. AWS Se recomienda dejar activada la **actualización automática**. 

1. Elija **Entrenar adaptador**.  
![\[Opciones de configuración de un adaptador, incluidas las opciones para adición de etiquetas, cifrado de datos, umbral de confianza y actualización automática. El adaptador se puede entrenar desde esta interfaz.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/BA-11-train-adapter.png)

1. Cuando el estado del adaptador en la página de inicio de Moderación personalizada pase a ser «Entrenamiento ha finalizado», podrá revisar el rendimiento del adaptador. Para obtener más información, consulte [Revisión del rendimiento del adaptador](#using-adapters-tutorial-performance).

## Revisión del rendimiento del adaptador
<a name="using-adapters-tutorial-performance"></a>

Para revisar el rendimiento del adaptador:

1. Cuando utilice la consola, podrá ver el estado de todos los adaptadores asociados a un proyecto en la pestaña Proyectos de la página de inicio de Moderación personalizada. Vaya a la página de inicio de Moderación personalizada.  
![\[Página de inicio de Moderación personalizada que muestra una lista de proyectos de moderación con detalles como el estado, el ID del adaptador, la ubicación de los datos de entrada, la versión del modelo base, la fecha de creación y los mensajes de estado. Se pueden crear proyectos, eliminarlos o reanudarlos.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-7-status-alt.png)

1. Seleccione de esta lista el adaptador que desee revisar. En la siguiente página de detalles del adaptador, puede ver una variedad de métricas del adaptador.  
![\[Métricas de rendimiento del adaptador que muestran una mejora del 25 % en los falsos positivos y una reducción del 24 % de los falsos negativos en distintas categorías de etiquetas, como Insinuante y Alcohol, con datos sobre Ground Truth: positivos verdaderos y falsos negativos del adaptador y modelo base.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-8.5-new-performance-review.png)

1. Con el panel **Umbral**, puede cambiar el umbral de confianza mínimo que debe tener el adaptador para asignar una etiqueta a una imagen. El número de instancias marcadas y no marcadas cambiará a medida que ajuste el umbral de confianza. También puede filtrar por categoría de etiqueta para ver las métricas de las categorías que ha seleccionado. Establezca el umbral que ha elegido.

1. Puede evaluar el rendimiento del adaptador a partir de los datos de prueba examinando las métricas del panel Rendimiento del adaptador. Estas métricas se calculan comparando las extracciones del adaptador con las anotaciones de «verdad fundamental» del conjunto de pruebas. 

El panel de rendimiento del adaptador muestra las tasas de mejora de falsos positivos y falsos negativos del adaptador que ha creado. La pestaña Rendimiento por etiqueta se puede utilizar para comparar el rendimiento del adaptador y del modelo base en cada categoría de etiquetas. Muestra los recuentos de predicciones de falsos positivos y falsos negativos tanto del modelo base como del adaptador, estratificados por categoría de etiqueta. Al revisar estas métricas, puede determinar en qué aspectos es necesario mejorar el adaptador. Para obtener más información sobre estas métricas, consulte [Evaluación y mejora del adaptador](using-adapters-evaluating-improving.md). 

Para mejorar el rendimiento, puede recopilar más imágenes de entrenamiento y, a continuación, crear un nuevo adaptador basado en el proyecto. Solo tiene que volver a la página de inicio de la moderación personalizada y crear un nuevo adaptador dentro de su proyecto, con más imágenes de entrenamiento para que pueda entrenar el adaptador. Esta vez, elija la **opción Añadir a un proyecto existente** en lugar de **Crear un proyecto nuevo** y seleccione el proyecto en el que quiere crear el nuevo adaptador en el menú desplegable **Nombre del proyecto**. Como antes, anote sus imágenes o proporcione un archivo de manifiesto con anotaciones.

![\[Interfaz para crear un adaptador de moderación de contenido o agregarlo a un proyecto existente, con opciones para asignar un nombre al adaptador y al proyecto.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-9-create-new-adapter.png)


## Uso del adaptador
<a name="using-adapters-tutorial-using-adapter"></a>

Una vez que haya creado su adaptador, puede suministrarlo a una operación de Rekognition compatible, como. [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html) Para ver ejemplos de código que puede usar para realizar inferencias con su adaptador, seleccione la pestaña «Usar adaptador», donde podrá ver ejemplos de código tanto para la AWS CLI como para Python. También puede visitar la sección de la documentación correspondiente a la operación para la que ha creado un adaptador para ver más ejemplos de código, instrucciones de configuración y un ejemplo de JSON. 

![\[Interfaz que muestra las ubicaciones de los datos de prueba, los datos de entrenamiento y los datos de salida con los campos de URL de S3 correspondientes. Opciones para usar un adaptador, ver etiquetas e imágenes de entrenamiento y acceder a los detalles del adaptador, incluidos su ID y muestras de código para que AWS CLI y Python usen el adaptador entrenado.\]](http://docs.aws.amazon.com/es_es/rekognition/latest/dg/images/adapters-12-use-adapter.png)


## Eliminar el adaptador y el proyecto
<a name="using-adapters-tutorial-deleting-adapter"></a>

Puede eliminar adaptadores individuales o eliminar su proyecto. Debe eliminar cada adaptador asociado al proyecto para poder eliminar el proyecto en sí.

1. Para eliminar un adaptador asociado al proyecto, elija el adaptador y, a continuación, elija **Eliminar**.

1. Para eliminar un proyecto, elija el proyecto que desee eliminar y, a continuación, elija **Eliminar**.

# Evaluación y mejora del adaptador
<a name="using-adapters-evaluating-improving"></a>

Después de cada ronda de entrenamiento de adaptadores, querrá revisar las métricas de rendimiento de la consola de Rekognition para determinar cuánto se acerca el adaptador al nivel de rendimiento deseado. Luego, puede mejorar aún más la precisión del adaptador para sus imágenes cargando un nuevo lote de imágenes de entrenamiento y entrenando un nuevo adaptador dentro de su proyecto. Una vez que haya creado una versión mejorada del adaptador, puede utilizar la consola para eliminar las versiones anteriores del adaptador que ya no necesite. 

También puedes recuperar métricas mediante la operación de la [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)API.

## Métricas de desempeño
<a name="using-adapters-performance-metrics"></a>

Una vez que haya terminado el proceso de entrenamiento y creado el adaptador, es importante evaluar cómo de bien extrae el adaptador la información de las imágenes.

En la consola de Rekognition se proporcionan dos métricas para ayudarle a analizar el rendimiento de su adaptador: mejora con falsos positivos y mejora con falsos negativos. 

Puede ver estas métricas de cualquier adaptador seleccionando la pestaña Rendimiento del adaptador en la parte del adaptador de la consola. El panel de rendimiento del adaptador muestra las tasas de mejora de falsos positivos y falsos negativos del adaptador que ha creado. 

La mejora de falsos positivos mide cuánto ha mejorado el reconocimiento de falsos positivos por parte del adaptador con respecto al modelo base. Si el valor de mejora de falsos positivos es del 25 %, significa que el adaptador mejoró su reconocimiento de falsos positivos en un 25 % en el conjunto de datos de prueba.

La mejora de falsos negativos mide cuánto ha mejorado el reconocimiento de falsos negativos por parte del adaptador con respecto al modelo base. Si el valor de mejora de falsos negativos es del 25 %, significa que el adaptador mejoró su reconocimiento de falsos negativos en un 25 % en el conjunto de datos de prueba.

La pestaña Rendimiento por etiqueta se puede utilizar para comparar el rendimiento del adaptador y del modelo base en cada categoría de etiquetas. Muestra los recuentos de predicciones de falsos positivos y falsos negativos tanto del modelo base como del adaptador, estratificados por categoría de etiqueta. Al revisar estas métricas, puede determinar en qué aspectos es necesario mejorar el adaptador.

Por ejemplo, si la tasa de falsos negativos del modelo base para la categoría de etiquetas con contenido alcohólico es 15, mientras que la tasa de falsos negativos del adaptador es 15 o superior, sabe que debe centrarse en añadir más imágenes que contengan la etiqueta de alcohol al crear un adaptador nuevo.

Cuando se utilizan las operaciones de la API Rekognition, se devuelve la métrica F1-Score al llamar a la operaciónn. [DescribeProjectVersions](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DescribeProjectVersions.html)

## Mejorar su modelo
<a name="using-adapters-improving-model"></a>

La implementación del adaptador es un proceso iterativo, ya que es probable que necesite entrenarlo varias veces para alcanzar el nivel de precisión deseado. Después de crear y entrenar el adaptador, querrá probar y evaluar su rendimiento en varios tipos de etiquetas. 

Si la precisión del adaptador es deficiente en alguna zona, añada nuevos ejemplos de esas imágenes para aumentar el rendimiento del adaptador para esas etiquetas. Intente proporcionarle al adaptador ejemplos adicionales y variados que reflejen los casos en los que tiene dificultades. Al proporcionarle al adaptador imágenes representativas y variadas, podrá gestionar diversos ejemplos del mundo real.

Después de añadir nuevas imágenes al conjunto de entrenamiento, vuelva a entrenar el adaptador y, a continuación, vuelva a evaluarlo en el conjunto de prueba y en las etiquetas. Repita este proceso hasta que el adaptador alcance el nivel de rendimiento deseado. Si proporciona imágenes y anotaciones más representativas, las puntuaciones de falsos positivos y falsos negativos mejorarán gradualmente a lo largo de las sucesivas iteraciones de entrenamiento.

# Formatos de archivo de manifiesto
<a name="using-adapters-manifest-files"></a>

En las siguientes secciones se muestran ejemplos de los formatos de los archivos de manifiesto para los archivos de entrada, salida y evaluación.

## Manifiesto de entrada
<a name="using-adapters-manifest-files-input"></a>

Un archivo de manifiesto es un archivo delimitado por líneas de JSON, en el que cada línea contiene un JSON que contiene información sobre una sola imagen. 

Cada entrada del manifiesto de entrada debe contener el campo `source-ref` con una ruta a la imagen en el bucket de Amazon S3 y, en el caso de la moderación personalizada, el campo `content-moderation-groundtruth` con anotaciones básicas. Se espera que todas las imágenes de un conjunto de datos se encuentren en el mismo bucket. La estructura es común a los archivos de manifiesto de entrenamiento y prueba.

La operación `CreateProjectVersion`de Moderación personalizada utiliza la información proporcionada en el manifiesto de entrada para entrenar un adaptador. 

El siguiente ejemplo es una línea de un archivo de manifiesto para una sola imagen que contiene una sola clase insegura:

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            }
        ]
   }
}
```

El siguiente ejemplo es una línea de un archivo de manifiesto para una imagen única e insegura que contiene varias clases no seguras, específicamente Desnudo y Gesto grosero.

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": [
            { 
                "Name": "Rude Gesture"
            },
            {
                "Name": "Nudity"
            }
        ]
   }
}
```

El siguiente ejemplo es una línea de un archivo de manifiesto para una sola imagen que no contiene ninguna clase no segura:

```
{
   "source-ref": "s3://foo/bar/1.jpg",
   "content-moderation-groundtruth": {
        "ModerationLabels": []
   }
}
```

Para ver la lista completa de etiquetas compatibles, consulte [Moderar el contenido](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).



## Manifiesto de salida
<a name="using-adapters-manifest-files-output"></a>

Al finalizar un trabajo de entrenamiento, se devuelve un archivo de manifiesto de salida. El archivo de manifiesto de salida es un archivo delimitado por líneas de JSON, en el que cada línea contiene un JSON con la información de una sola imagen. La ruta de Amazon S3 al se OutputManifest puede obtener a partir de la `DescribeProjectVersion` respuesta:
+  `TrainingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` para el conjunto de datos de entrenamiento 
+  `TestingDataResult.Output.Assets[0].GroundTruthManifest.S3Object` para el conjunto de datos de pruebas 

Se devuelve la siguiente información para cada entrada del manifiesto de salida:


|  |  | 
| --- |--- |
| Nombre de clave | Description (Descripción) | 
|  source-ref  | Referencia a una imagen de S3 que se proporcionó en el manifiesto de entrada | 
|  content-moderation-groundtruth  | Fundamenta las anotaciones veraces que se proporcionaron en el manifiesto de entrada | 
|  detect-moderation-labels  | Las predicciones del adaptador, solo forman parte del conjunto de datos de prueba | 
|  detect-moderation-labels-base-model  | Predicciones del modelo base, solo parte del conjunto de datos de prueba | 

Las predicciones del adaptador y del modelo base se devuelven en ConfidenceTrehsold 5.0 en un formato similar al de la [DetectModerationLabels](https://docs.aws.amazon.com/rekognition/latest/APIReference/API_DetectModerationLabels.html)respuesta.

El siguiente ejemplo muestra la estructura de las predicciones del modelo base y del adaptador:

```
{
   "ModerationLabels": [ 
      { 
         "Confidence": number,
         "Name": "string",
         "ParentName": "string"
      }
   ],
   "ModerationModelVersion": "string",
   "ProjectVersion": "string"
}
```

Para ver la lista completa de etiquetas devueltas, consulte [Moderar el contenido](https://docs.aws.amazon.com/rekognition/latest/dg/moderation.html).

## Manifiesto de resultados de evaluación
<a name="using-adapters-manifest-files-eval"></a>

Al finalizar un trabajo de entrenamiento, se devuelve un archivo con el manifiesto de los resultados de la evaluación. El manifiesto de los resultados de la evaluación es un archivo JSON generado por el trabajo de entrenamiento y contiene información sobre el rendimiento del adaptador con los datos de la prueba.

La ruta de Amazon S3 al manifiesto de los resultados de la evaluación se puede obtener en el `EvaluationResult.Summary.S3Object` campo de la DescribeProejctVersion respuesta.

La estructura del manifiesto de resultados de evaluación se muestra en el ejemplo siguiente:

```
{
    "AggregatedEvaluationResults": {
       "F1Score": number
    },

    "EvaluationDetails": {
        "EvaluationEndTimestamp": "datetime",
        "Labels": [
            "string"
        ],
        "NumberOfTestingImages": number,
        "NumberOfTrainingImages": number,
        "ProjectVersionArn": "string"
    },

    "ContentModeration": {
        "InputConfidenceThresholdEvalResults": {
            "ConfidenceThreshold": float,
            "AggregatedEvaluationResults": {
                "BaseModel": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                },
                "Adapter": {
                    "TruePositive": int,
                    "TrueNegative": int,
                    "FalsePositive": int,
                    "FalseNegative": int
                }
            },
            "LabelEvaluationResults": [
                {
                    "Label": "string",
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                }
            ]
        }
        "AllConfidenceThresholdsEvalResults": [
            {
                "ConfidenceThreshold": float,
                "AggregatedEvaluationResults": {
                    "BaseModel": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    },
                    "Adapter": {
                        "TruePositive": int,
                        "TrueNegative": int,
                        "FalsePositive": int,
                        "FalseNegative": int
                    }
                },
                "LabelEvaluationResults": [
                    {
                       "Label": "string",
                        "BaseModel": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        },
                        "Adapter": {
                            "TruePositive": int,
                            "TrueNegative": int,
                            "FalsePositive": int,
                            "FalseNegative": int
                        }
                    }
                ]
            }
        ]
    }
}
```

El archivo del manifiesto de evaluación contiene:
+ Resultados agregados según lo definido por `F1Score` 
+ Detalles del trabajo de evaluación ProjectVersionArn, incluidos el número de imágenes de entrenamiento, el número de imágenes de prueba y las etiquetas con las que se entrenó el adaptador.
+  FalseNegative Resultados agregados TruePositive y obtenidos tanto para el modelo base como para el rendimiento del adaptador. TrueNegative FalsePositive
+ Por etiqueta TruePositive TrueNegative FalsePositive, y FalseNegative resultados tanto para el modelo base como para el rendimiento del adaptador, calculados según el umbral de confianza de entrada.
+ Resultados agregados y por etiqueta TruePositive TrueNegative FalsePositive, y FalseNegative resultados para el rendimiento del modelo base y del adaptador con diferentes umbrales de confianza. El umbral de confianza oscila entre 5 y 100 en pasos de 5.

# Prácticas recomendadas de adaptadores de entrenamiento
<a name="using-adapters-best-practices"></a>

Se sugiere que siga las siguientes prácticas recomendadas al crear, entrenar y usar sus adaptadores:



1.  Los datos de imagen de muestra deben capturar los errores representativos que los clientes pretenden suprimir. Si el modelo comete errores repetidos en imágenes visualmente similares, asegúrese de incluir muchas de esas imágenes para el entrenamiento. 

1.  En lugar de incluir únicamente imágenes en las que el modelo comete errores en una etiqueta de moderación concreta, asegúrese también de incluir imágenes en las que el modelo no esté cometiendo errores en esa etiqueta de moderación. 

1.  Proporcione un mínimo de cincuenta muestras de falsos negativos o veinte muestras de falsos positivos para el entrenamiento y un mínimo de veinte muestras para realizar pruebas. Sin embargo, suministre tantas imágenes anotadas como sea posible para mejorar el rendimiento del adaptador. 

1.  Anotar todas las etiquetas que le interesan para todas las imágenes: si decide que necesita anotar la aparición de una etiqueta en una imagen, asegúrese de anotar la aparición de esta etiqueta en todas las demás imágenes. 

1.  Los datos de la imagen de muestra deben contener tantas variaciones en la etiqueta como sea posible, centrándose en las instancias que sean representativas de las imágenes que se analizarán en un entorno de producción. 

# Configuración de permisos AutoUpdate
<a name="using-adapters-autoupdate"></a>

Rekognition admite AutoUpdate la función de adaptadores personalizados. Esto significa que el reentrenamiento automatizado se hace todo lo posible cuando el AutoUpdate indicador está ACTIVADO en un proyecto. Estas actualizaciones automáticas requieren permiso para acceder a sus Training/Testing conjuntos de datos y a la AWS KMS clave con la que entrena a su adaptador de cliente. Puede proporcionar estos permisos siguiendo los pasos que se indican a continuación.



## Permisos de bucket de Amazon S3
<a name="using-adapters-autoupdate-s3"></a>

 De forma predeterminada, todos los buckets y objetos de Amazon S3 son privados. Solo el propietario del recurso, la AWS cuenta que creó el depósito, puede acceder al depósito y a cualquier objeto que contenga. No obstante, el propietario del recurso puede elegir conceder permisos de acceso a otros recursos y usuarios escribiendo una política de bucket.

 Si desea crear o modificar un bucket de Amazon S3 para que se utilice como fuente de conjuntos de datos de entrada y destino de los resultados de entrenamiento, deberá modificar aún más la política del bucket. Para leer o escribir en un bucket de Amazon S3, Rekognition debe tener los siguientes permisos. 

**Política de Amazon S3 requerida por Rekognition**

Rekognition requiere una política de permisos con los siguientes atributos:
+ El SID de la instrucción
+ El nombre del bucket
+ El nombre de la entidad principal del servicio para Rekognition.
+ Los recursos necesarios para Rekognition, el bucket y todo su contenido
+ Las acciones necesarias que Rekognition debe realizar.

La siguiente política permite que Rekognition acceda a un bucket de Amazon S3 durante el reentrenamiento automático.

```
{
    "Statement": [
        {
            "Effect": "Allow",
            "Sid": "AllowRekognitionAutoUpdateActions",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "s3:ListBucket",
                "s3:GetObject",
                "s3:PutObject",
                "s3:HeadObject",
                "s3:HeadBucket"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket",
                "arn:aws:s3:::amzn-s3-demo-bucket/*"
            ]
        }
    ]
}
```

Puede seguir [esta guía](https://docs.aws.amazon.com/AmazonS3/latest/userguide/add-bucket-policy.html) para añadir la política de bucket anterior a su bucket de S3.

Consulte más información sobre las políticas de bucket [aquí](https://docs.aws.amazon.com/AmazonS3/latest/userguide/bucket-policies.html).

## AWS KMS Permisos clave
<a name="using-adapters-autoupdate-KMS"></a>

 Rekognition te permite proporcionar un adaptador personalizado KmsKeyId opcional mientras entrenas. Cuando se proporciona, Rekognition usa esta clave para cifrar las imágenes de entrenamiento y prueba copiadas en el servicio para el entrenamiento de modelos. La clave también se usa para cifrar los resultados del entrenamiento y los archivos de manifiesto escritos en el bucket de salida de Amazon S3 (OutputConfig). 

 Si decide proporcionar una clave de KMS como entrada para su formación de adaptadores personalizada (es decir,`Rekognition:CreateProjectVersion`), debe modificar aún más la política de claves de KMS para permitir que la entidad principal del servicio de Rekognition utilice esta clave para el reentrenamiento automatizado en el futuro. Rekognition debe tener los siguientes permisos. 

**Política clave requerida de Rekognition AWS KMS **

Amazon Rekognition requiere una política de permisos con los siguientes atributos:
+ El SID de la instrucción
+ El nombre de la entidad principal del servicio para Amazon Rekognition.
+ Las acciones necesarias que Amazon Rekognition debe realizar.

La siguiente política de claves permite a Amazon Rekognition acceder a una clave de Amazon KMS durante el reentrenamiento automatizado:

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Sid": "KeyPermissions",
            "Effect": "Allow",
            "Principal": {
                "Service": "rekognition.amazonaws.com"
            },
            "Action": [
                "kms:DescribeKey",
                "kms:GenerateDataKey",
                "kms:Decrypt"
            ],
            "Resource": "*"
        }
    ]
}
```

------

Puede seguir [esta guía](https://docs.aws.amazon.com/kms/latest/APIReference/API_PutKeyPolicy.html) para añadir la AWS KMS política anterior a su clave. AWS KMS 

Consulta más información sobre AWS KMS las políticas [aquí](https://docs.aws.amazon.com/kms/latest/developerguide/key-policies.html).

# AWS Notificación de Health Dashboard para Rekognition
<a name="using-adapters-health-notification"></a>

 Tu AWS Health Dashboard ofrece soporte para las notificaciones que provienen de Rekognition. Estas notificaciones proporcionan orientación sobre el conocimiento y la corrección de los cambios programados en los modelos de Rekognition que puedan afectar a sus aplicaciones. Actualmente solo están disponibles los eventos específicos de la característica Moderación de contenido de Rekognition. 

El AWS Health Dashboard forma parte del servicio de AWS Salud. No precisa configuración, y cualquier usuario autenticado en su cuenta puede consultarlo. Para obtener más información, consulte [Getting started wtih the AWS Health Dashboard](https://docs.aws.amazon.com/health/latest/ug/getting-started-phd.html).

Si recibe un mensaje de notificación similar a los siguientes mensajes, debe tratarse como una alarma para tomar medidas.

**Ejemplo de notificación: Hay disponible una nueva versión del modelo para Moderación de contenido de Rekognition.**

Rekognition publica el `AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION` evento en el AWS Health Dashboard para indicar que se ha lanzado una nueva versión del modelo de moderación. Este evento es importante si utiliza la DetectModerationLabels API y los adaptadores con esta API. Los nuevos modelos pueden afectar a la calidad en función de su caso de uso y, con el tiempo, sustituirán a las versiones anteriores de los modelos. Se recomienda validar la calidad del modelo y tener en cuenta los plazos de actualización del modelo cuando reciba esta alerta. 

Si recibe una notificación de actualización de la versión del modelo, debe tratarla como una alarma para tomar medidas. Si no usa adaptadores, debe evaluar la calidad del modelo actualizado en su caso de uso actual. Si usa adaptadores, debe entrenar a los nuevos adaptadores con el modelo actualizado y evaluar su calidad. Si tiene un conjunto de entrenamiento automático, los nuevos adaptadores se entrenarán automáticamente y, a continuación, podrá evaluar su calidad.

```
{
   "version": "0",
    "id": "id-number",
    "detail-type": "AWS Health Event",
    "source": "aws.health",
    "account": "123456789012",
    "time": "2023-10-06T06:27:57Z",
    "region": "region",
    "resources": [],
    "detail": {
        "eventArn": "arn:aws:health:us-east-1::event/AWS_MODERATION_MODEL_UPDATE_NOTIFICATION_event-number",
        "service": "Rekognition",
        "eventTypeCode": "AWS_MODERATION_MODEL_VERSION_UPDATE_NOTIFICATION",
        "eventScopeCode": "ACCOUNT_SPECIFIC",
        "communicationId": "communication-id-number",
        "eventTypeCategory": "scheduledChange",
        "startTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "lastUpdatedTime": "Fri, 05 Apr 2023 12:00:00 GMT",
        "statusCode": "open",
        "eventRegion": "us-east-1",
        "eventDescription": [
            {
                "language": "en_US",
                "latestDescription": "A new model version is available for Rekognition Content Moderation."
            }
        ]
    }
}
```

 Consulte [Monitorear los eventos de salud de AWS con Amazon EventBridge](https://docs.aws.amazon.com/health/latest/ug/cloudwatch-events-health.html) para detectar y reaccionar ante los eventos de AWS salud mediante EventBridge. 