

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Modelos básicos de IA generativa en Canvas SageMaker
<a name="canvas-fm-chat"></a>

Amazon SageMaker Canvas proporciona modelos básicos de IA generativa que puede utilizar para iniciar conversaciones conversacionales. Estos modelos de generación de contenido se entrenan con grandes cantidades de datos de texto para aprender los patrones estadísticos y las relaciones entre las palabras, y pueden producir un texto coherente que sea estadísticamente similar al texto en el que se entrenaron. Puede utilizar esta capacidad para aumentar la productividad de la siguiente manera:
+ Generar contenido, como esquemas de documentos, informes y blogs
+ Resumir el texto a partir de grandes corpus de texto, como transcripciones de presentaciones de beneficios, informes anuales o capítulos de manuales de usuario
+ Extraer información y conclusiones clave de amplios pasajes de texto, como notas o transcripciones de reuniones
+ Mejorar el texto y captar errores gramaticales o tipográficos

Los modelos básicos son una combinación de los grandes modelos de lenguaje de [Amazon SageMaker JumpStart y Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-service.html) (LLMs). Canvas ofrece los siguientes modelos:


| Modelo | Tipo | Description (Descripción) | 
| --- | --- | --- | 
|  Amazon Titán  | Modelo de Amazon Bedrock |  Amazon Titan es un modelo de lenguaje potente y de uso general que puede utilizar para tareas como el resumen, la generación de texto (como la creación de una entrada de blog), la clasificación, las preguntas y respuestas abiertas y la extracción de información. Está entrenado previamente con conjuntos de datos de gran tamaño, lo que hace que resulte adecuado para tareas y razonamientos complejos. Para seguir respaldando las prácticas recomendadas en el uso responsable de la IA, los modelos fundacionales de Amazon Titan están diseñados para detectar y eliminar el contenido dañino de los datos, rechazar el contenido inapropiado en las entradas de los usuarios y filtrar los resultados de los modelos que contengan contenido inapropiado (como la incitación al odio, las palabras malsonantes y la violencia).  | 
|  Anthropic Claude Instant  | Modelo de Amazon Bedrock |  El Anthropic Claude Instant es un modelo más rápido y rentable, pero aún así tiene una alta capacidad. Este modelo puede realizar una variedad de tareas, como el diálogo informal, el análisis de texto, el resumen y la respuesta a preguntas sobre documentos. Al igual que el Claude-2, el Claude Instant puede admitir hasta 100 000 tokens en cada solicitud, lo que equivale a unas 200 páginas de información.  | 
|  Anthropic Claude-2  | Modelo de Amazon Bedrock |  El Claude-2 es el modelo más potente de Anthropic, y resulta excepcional en una amplia gama de tareas, desde diálogos sofisticados y generación de contenido creativo hasta el seguimiento detallado de instrucciones. El Claude-2 puede admitir hasta 100 000 tokens en cada solicitud, lo que equivale a unas 200 páginas de información. Puede generar respuestas más largas en comparación con su versión anterior. Admite casos de uso como la respuesta a preguntas, la extracción de información, la eliminación de información de identificación personal, la generación de contenido, la clasificación de opción múltiple, los juegos de roles, la comparación de texto, la síntesis y las preguntas y respuestas de documentos con citas.  | 
|  Falcon-7B-Instruct  | JumpStart modelo |  El Falcon-7B-Instruct tiene 7000 millones de parámetros y se ha ajustado a partir de una combinación de conjuntos de datos de chat e instrucción. Es adecuado como asistente virtual y funciona mejor cuando se siguen instrucciones o se entabla una conversación. Dado que el modelo se entrenó con grandes cantidades de datos web en inglés, contiene los estereotipos y sesgos que se encuentran comúnmente en Internet y no es adecuado para otros idiomas que no sean el inglés. En comparación con el Falcon-40B-Instruct, el Falcon-7B-Instruct es un modelo un poco más pequeño y compacto.  | 
|  Falcon-40B-Instruct  | JumpStart modelo |  El Falcon-40B-Instruct tiene 40 000 millones de parámetros y se ha ajustado a partir de una combinación de conjuntos de datos de chat e instrucción. Es adecuado como asistente virtual y funciona mejor cuando se siguen instrucciones o se entabla una conversación. Dado que el modelo se entrenó con grandes cantidades de datos web en inglés, contiene los estereotipos y sesgos que se encuentran comúnmente en Internet y no es adecuado para otros idiomas que no sean el inglés. En comparación con el Falcon-7B-Instruct, el Falcon-40B-Instruct es un modelo un poco más grande y potente.  | 
|  Jurassic-2 Mid  | Modelo de Amazon Bedrock |  Jurassic-2 Mid es un modelo de generación de texto de alto rendimiento entrenado en un corpus de texto masivo (actualizado hasta mediados de 2022). Es muy versátil, de uso general y capaz de componer textos similares a los humanos y de resolver tareas complejas, como responder preguntas, clasificar textos y muchas otras. Este modelo ofrece capacidades de instrucción de cero intentos, lo que permite que se dirija únicamente con lenguaje natural y sin el uso de ejemplos. Funciona hasta un 30 % más rápido que su predecesor, el modelo Jurassic-1. El Jurassic-2 Mid es AI21 el modelo de tamaño medio, diseñado cuidadosamente para lograr el equilibrio adecuado entre una calidad excepcional y un precio asequible.  | 
|  Jurassic-2 Ultra  | Modelo de Amazon Bedrock |  Jurassic-2 Ultra es un modelo de generación de texto de alto rendimiento entrenado en un corpus de texto masivo (actualizado hasta mediados de 2022). Es muy versátil, de uso general y capaz de componer textos similares a los humanos y de resolver tareas complejas, como responder preguntas, clasificar textos y muchas otras. Este modelo ofrece capacidades de instrucción de cero intentos, lo que permite que se dirija únicamente con lenguaje natural y sin el uso de ejemplos. Funciona hasta un 30 % más rápido que su predecesor, el modelo Jurassic-1. En comparación con el Jurassic-2 Mid, el Jurassic-2 Ultra es un modelo un poco más grande y potente.  | 
|  Llama-2-7b-Chat  | JumpStart modelo |  Llama-2-7b-chat es un modelo fundacional de Meta que resulta adecuado para entablar conversaciones significativas y coherentes, generar contenido nuevo y extraer respuestas de las notas existentes. Dado que el modelo se ha entrenado con grandes cantidades de datos de Internet en inglés, contiene los sesgos y las limitaciones que suelen encontrarse en Internet y resulta más adecuado para tareas en inglés.  | 
|  Llama-2-13B-Chat  | Modelo de Amazon Bedrock |  Llama-2-13B-Chat de Meta se ha afinado con datos conversacionales después de un entrenamiento inicial con datos de Internet. Está optimizado para un diálogo natural y una atractiva capacidad de chat, lo que hace que resulte idóneo como agente conversacional. En comparación con Llama-2-7b-Chat, más pequeño, Llama-2-13B-Chat tiene casi el doble de parámetros, lo que le permite recordar más contexto y producir respuestas conversacionales más matizadas. Al igual que Llama-2-7b-Chat, Llama-2-13B-Chat se ha entrenado con datos en inglés y es idóneo para tareas en inglés.  | 
|  Llama-2-70B-Chat  | Modelo de Amazon Bedrock |  Al igual que Llama-2-7b-Chat y Llama-2-13B-Chat, el modelo Llama-2-70B-Chat de Meta está optimizado para entablar un diálogo natural y significativo. Con 70 000 millones de parámetros, este gran modelo conversacional puede recordar un contexto más extenso y producir respuestas muy coherentes en comparación con las versiones de modelos más compactos. Sin embargo, esto se produce a costa de respuestas más lentas y mayores necesidades de recursos. Llama-2-70B-Chat se ha entrenado con grandes cantidades datos de Internet en inglés y es idóneo para tareas en inglés.  | 
|  Mistral-7B  | JumpStart modelo |  Mistral-7B de Mistral.AI es un excelente modelo de lenguaje de uso general adecuado para una amplia gama de tareas de lenguaje natural (NLP), como generación de texto, síntesis y respuesta a preguntas. Utiliza la atención de consulta agrupada (GQA), que permite velocidades de inferencia más rápidas, con un rendimiento comparable al de los modelos con el doble o el triple de parámetros. Se ha entrenado con una combinación de datos de texto, incluidos libros, sitios web y artículos científicos en inglés, por lo que es idóneo para tareas en inglés.  | 
|  Mistral-7B-Chat  | JumpStart modelo |  Mistral-7B-Chat es un modelo conversacional de Mistral.AI basado en Mistral-7B. Si bien el Mistral-7B resulta idóneo para tareas generales de NLP, Mistral-7B-Chat se ha afinado aún más sobre datos conversacionales para optimizar sus capacidades de chat natural y atractivo. Por ello, Mistral-7B-Chat genera respuestas más parecidas a las humanas y recuerda el contexto de respuestas anteriores. Al igual que el Mistral-7B, este modelo es más adecuado para tareas en inglés.  | 
|  MPT-7B-Instruct  | JumpStart modelo |  El MPT-7B-Instruct es un modelo para la instrucción de formato largo con posterioridad a las tareas y puede ayudarle con tareas de redacción, como el resumen de textos y la respuesta a preguntas, para ahorrarle tiempo y esfuerzo. Este modelo se entrenó con grandes cantidades de datos ajustados y puede hacer frente a entradas más grandes, como documentos complejos. Utilice este modelo cuando desee procesar cuerpos de texto grandes o si desea que el modelo genere respuestas largas.  | 

Por el momento, los modelos fundacionales de Amazon Bedrock solo están disponibles en las regiones Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón). Además, cuando utilice modelos fundacionales de Amazon Bedrock, se le cobrará en función del volumen de los tokens de entrada y salida, según lo especifique cada proveedor de modelos. Para obtener más información, consulte la [página de Precios de Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/). Los JumpStart modelos básicos se implementan en las instancias de SageMaker AI Hosting y se le cobrará por la duración del uso en función del tipo de instancia utilizado. Para obtener más información sobre el costo de los distintos tipos de instancias, consulte la sección Amazon SageMaker AI Hosting: Inferencia en tiempo real en la [página de SageMaker precios](https://aws.amazon.com/sagemaker/pricing/).

La consulta de documentos es una característica adicional que puede utilizar para consultar y obtener información de los documentos almacenados en índices mediante Amazon Kendra. Con esta funcionalidad, puede generar contenido a partir del contexto de esos documentos y recibir respuestas específicas para su caso de uso empresarial, en lugar de respuestas genéricas según las grandes cantidades de datos en las que se basaron los modelos fundacionales. Para obtener más información acerca de los índices en Amazon Kendra, consulte la [Guía para desarrolladores de Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html).

Si desea obtener respuestas de alguno de los modelos fundacionales personalizados con sus datos y su caso de uso, puede afinar dichos modelos. Para obtener más información, consulte [Afinamiento de modelos fundacionales](canvas-fm-chat-fine-tune.md).

Si quieres obtener predicciones de un modelo SageMaker JumpStart básico de Amazon a través de una aplicación o un sitio web, puedes implementar el modelo en un *punto final* de SageMaker IA. SageMaker Los puntos finales de IA alojan su modelo y usted puede enviar solicitudes al punto final a través del código de su aplicación para recibir predicciones del modelo. Para obtener más información, consulte [Implementación de sus modelos en un punto de conexión](canvas-deploy-model.md).

# Complete los requisitos previos para los modelos básicos en Canvas SageMaker
<a name="canvas-fm-chat-prereqs"></a>

En las siguientes secciones se describen los requisitos previos para interactuar con los modelos fundacionales y utilizar la característica de consulta de documentos de Canvas. El resto del contenido de esta página presupone que ha cumplido con los requisitos previos para los modelos fundacionales. La característica de consulta de documentos requiere permisos adicionales.

## Requisitos previos para los modelos fundacionales
<a name="canvas-fm-chat-prereqs-fm"></a>

Los permisos que necesita para interactuar con los modelos se incluyen en los permisos de los Ready-to-use modelos de Canvas. Para usar los modelos generativos impulsados por IA en Canvas, debes activar los permisos de **configuración de los Ready-to-use modelos de Canvas** al configurar tu dominio de Amazon SageMaker AI. Para obtener más información, consulte [Requisitos previos para configurar Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites). La **configuración de Ready-to-use los modelos de Canvas** asocia la política de [AmazonSageMakerCanvasAIServicesacceso a](https://docs.aws.amazon.com/sagemaker/latest/dg/security-iam-awsmanpol-canvas.html#security-iam-awsmanpol-AmazonSageMakerCanvasAIServicesAccess) la función de ejecución de su usuario de Canvas AWS Identity and Access Management (IAM). Si tiene algún problema con la concesión de permisos, consulte el tema [Solución de problemas relacionados con la concesión de permisos a través de la consola de SageMaker IA](canvas-limits.md#canvas-troubleshoot-trusted-services).

Si ya ha configurado un dominio, puede editar esa configuración y activar los permisos. Para obtener instrucciones acerca de cómo editar la configuración de dominio, consulte [Edición de la configuración del dominio](domain-edit.md). Al editar la configuración de su dominio, vaya a la **configuración de Canvas** y active la **opción Habilitar Ready-to-use modelos de Canvas**.

Algunos modelos JumpStart básicos también requieren que solicites un aumento de la cuota de instancias de SageMaker IA. Canvas aloja los modelos con los que está interactuando actualmente en estas instancias, pero es posible que la cuota predeterminada de su cuenta no sea suficiente. Si se produce un error al ejecutar alguno de los siguientes modelos, solicite un aumento de cuota para los tipos de instancias asociados:
+ Falcon-40B – `ml.g5.12xlarge`, `ml.g5.24xlarge`
+ Falcon-13B – `ml.g5.2xlarge`, `ml.g5.4xlarge`, `ml.g5.8xlarge`
+ MPT-7B-Instruct – `ml.g5.2xlarge`, `ml.g5.4xlarge`, `ml.g5.8xlarge`

Para los tipos de instancias anteriores, solicite un aumento de 0 a 1 en la cuota de uso de puntos de conexión. Para obtener información sobre cómo aumentar una cuota para su cuenta, consulte [Solicitar un aumento de cuota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) en la *Guía del usuario de Service Quotas*.

## Requisitos previos para la consulta de documentos
<a name="canvas-fm-chat-prereqs-kendra"></a>

**nota**  
La consulta de documentos se admite en las siguientes regiones Regiones de AWS: EE.UU. Este (Norte de Virginia), EE.UU. Este (Ohio), EE.UU. Oeste (Oregón), Europa (Irlanda), Asia Pacífico (Singapur), Asia Pacífico (Sídney), Asia Pacífico (Tokio) y Asia Pacífico (Bombay).

La característica de consulta de documentos requiere que ya disponga de un índice de Amazon Kendra que almacene sus documentos y sus metadatos de documentos. Para obtener más información acerca de Amazon Kendra, consulte la [Guía para desarrolladores de Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html). Para obtener más información sobre las cuotas para consultar índices, consulte [Cuotas](https://docs.aws.amazon.com/kendra/latest/dg/quotas.html) en la *Guía para desarrolladores de Amazon Kendra*.

También debe asegurarse de que su perfil de usuario de Canvas tenga los permisos necesarios para consultar documentos. La [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html)política debe estar asociada a la función de ejecución de AWS IAM del dominio de SageMaker IA que aloja su aplicación de Canvas (esta política se adjunta de forma predeterminada a todos los perfiles de usuario de Canvas nuevos y existentes). También debe conceder específicamente permisos de consulta de documentos y especificar el acceso a uno o más índices de Amazon Kendra.

Si su administrador de Canvas está configurando un nuevo dominio o perfil de usuario, pídale que configure el dominio siguiendo las instrucciones que se indican en [Requisitos previos para configurar Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites). Al configurar el dominio, pueden activar los permisos de consulta de documentos mediante la configuración de los ** Ready-to-usemodelos de Canvas**.

El administrador de Canvas también puede administrar los permisos de consulta de documentos en el nivel del perfil de usuario. Por ejemplo, si el administrador quiere conceder permisos de consulta de documentos a algunos perfiles de usuario pero eliminar los permisos a otros, puede editar los permisos de un usuario específico.

El siguiente procedimiento muestra cómo activar los permisos de consulta de documentos para un perfil de usuario específico:

1. Abre la consola de SageMaker IA en [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. En el panel de navegación izquierdo, seleccione **Configuraciones de administración**.

1. En **Configuraciones de administración**, elija **Dominios**.

1. En la lista de dominios, seleccione el dominio del perfil de usuario.

1. En la página de **Detalles del dominio**, elija el **Perfil de usuario** cuyos permisos desee editar.

1. En la página **Detalles del usuario**, elija **Editar**.

1. En el panel de navegación izquierdo, elija **Configuración de Canvas**.

1. En la sección de **configuración de Ready-to-use modelos de Canvas**, active la **opción Habilitar la consulta de documentos mediante Amazon Kendra**.

1. En el menú desplegable, seleccione uno o varios índices de Amazon Kendra a los que quiera conceder acceso.

1. Seleccione **Enviar** para guardar los cambios en la configuración de su dominio.

Ahora debería poder utilizar los modelos fundacionales de Canvas para consultar documentos en los índices de Amazon Kendra especificados.

# Iniciar una nueva conversación para generar, extraer o resumir contenido
<a name="canvas-fm-chat-new"></a>

Para empezar a utilizar los modelos fundacionales de IA generativa en Canvas, puede iniciar una nueva sesión de chat con uno de los modelos. En el caso de los JumpStart modelos, se le cobrará mientras el modelo esté activo, por lo que debe iniciarlos cuando quiera usarlos y apagarlos cuando termine de interactuar. Si no apagas un JumpStart modelo, Canvas lo apagará después de 2 horas de inactividad. En el caso de los modelos Amazon Bedrock (como Amazon Titan), se le cobrará por petición; los modelos ya están activos y no es necesario iniciarlos ni cerrarlos. Amazon Bedrock le cobrará directamente por el uso de estos modelos.

Para abrir una conversación con un modelo, haga lo siguiente:

1. Abra la aplicación SageMaker Canvas.

1. En el panel de navegación izquierdo, selecciona **R eady-to-use models**.

1. Elija **Generar, extraer y resumir contenido**.

1. En la página de bienvenida, recibirá una recomendación para iniciar el modelo predeterminado. Puede iniciar el modelo recomendado o elegir **Seleccionar otro modelo** en el menú desplegable para elegir uno diferente.

1. Si ha seleccionado un modelo de JumpStart base, tiene que ponerlo en marcha antes de que esté disponible para su uso. Seleccione **Iniciar el modelo** y, a continuación, el modelo se implementará en una instancia de SageMaker IA. Esto puede tardar varios minutos en completarse. Cuando el modelo esté listo, puede introducir las indicaciones y hacerle preguntas.

   Si ha seleccionado un modelo fundacional de Amazon Bedrock, puede empezar a usarlo al instante introduciendo un mensaje y haciendo preguntas.

Según el modelo, puede realizar varias tareas. Por ejemplo, puede introducir un pasaje de texto y pedirle al modelo que lo resuma. O bien, puede pedirle al modelo que elabore un breve resumen de las tendencias del mercado en su dominio.

Las respuestas de la modelo en un chat se basan en el contexto de sus solicitudes anteriores. Si quiere plantear una pregunta nueva en el chat que no esté relacionada con el tema de la conversación anterior, le recomendamos que inicie una nueva conversación con el modelo.

# Extracción de información de los documentos mediante la consulta de documentos
<a name="canvas-fm-chat-query"></a>

**nota**  
En esta sección se presupone que ha completado la sección anterior [Requisitos previos para la consulta de documentos](canvas-fm-chat-prereqs.md#canvas-fm-chat-prereqs-kendra).

La consulta de documentos es una característica que puede utilizar al interactuar con los modelos fundacionales en Canvas. Con la consulta de documentos, puede acceder a un corpus de documentos almacenado en un *índice* de Amazon Kendra, que contiene el contenido de sus documentos y está estructurado de forma que permite realizar búsquedas en los documentos. Puede hacer preguntas específicas dirigidas a los datos de su índice de Amazon Kendra, y el modelo fundacional devuelve las respuestas a sus preguntas. Por ejemplo, puede consultar una base de conocimientos interna sobre información de TI y hacer preguntas como “¿Cómo me conecto a la red de mi empresa?” Para obtener más información acerca de cómo configurar un índice, consulte la [Guía para desarrolladores de Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html).

Al utilizar la función de consulta de documentos, los modelos fundacionales restringen sus respuestas al contenido de los documentos del índice con una técnica denominada Generación Aumentada de Recuperación (RAG). Esta técnica agrupa la información más relevante del índice junto con la solicitud del usuario y la envía al modelo fundacional para obtener una respuesta. Las respuestas se limitan a lo que se encuentra en el índice, lo que impide que el modelo dé respuestas incorrectas basadas en datos externos. Para obtener más información sobre este proceso, consulte la entrada del blog [Compilación rápida de aplicaciones de IA generativa de gran precisión con datos empresariales](https://aws.amazon.com/blogs/machine-learning/quickly-build-high-accuracy-generative-ai-applications-on-enterprise-data-using-amazon-kendra-langchain-and-large-language-models/).

Para empezar, en una conversación con un modelo fundacional en Canvas, active el botón **Consulta de documentos** situado en la parte superior de la página. En el menú desplegable, seleccione el índice de Amazon Kendra que quiera consultar. A continuación, puede empezar a hacer preguntas relacionadas con los documentos de su índice.

**importante**  
La consulta de documentos es compatible con la función [Comparación de los resultados del modelo](canvas-fm-chat-compare.md). Cualquier historial de chat existente se sobrescribe al iniciar un nuevo chat para comparar los resultados del modelo.

# Inicio de modelos
<a name="canvas-fm-chat-manage"></a>

**nota**  
La siguiente sección describe los modelos iniciales, que solo se aplican a los modelos de JumpStart base, como el Falcon-40B-Instruct. Puede acceder a los modelos de Amazon Bedrock, como Amazon Titan, de forma instantánea y en cualquier momento.

Puede poner en marcha tantos modelos como desee. JumpStart Cada JumpStart modelo activo conlleva cargos en tu cuenta, por lo que te recomendamos que no pongas en marcha más modelos de los que utilizas actualmente.

Para iniciar otro modelo, puede hacer lo siguiente:

1. En la página **Generar, extraer y resumir contenido**, seleccione **Nuevo chat**.

1. Seleccione el modelo en el menú desplegable. Si desea elegir un modelo que no aparezca en el menú desplegable, elija **Iniciar otro modelo** y, a continuación, seleccione el modelo que desee iniciar.

1. Seleccione **Iniciar modelo**.

El modelo debería empezar a iniciarse y, en unos minutos, podrá charlar con el modelo.

# Cierre de modelos
<a name="canvas-fm-chat-shut-down"></a>

Le recomendamos encarecidamente que cierre los modelos que no esté utilizando. Los modelos se cierran automáticamente tras 2 horas de inactividad. Sin embargo, para apagar un modelo manualmente, puede hacer lo siguiente:

1. En la página **Generar, extraer y resumir contenido**, abra el chat del modelo que desee cerrar.

1. En la página de chat, seleccione el icono **Más opciones** (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/canvas/more-options-icon.png)).

1. Seleccione **Cerrar modelo**.

1. En el cuadro de confirmación **Cerrar modelo**, seleccione **Cerrar**.

El modelo comienza a cerrarse. Si su chat compara dos o más modelos, puede cerrar un modelo individual desde la página del chat. Para ello, seleccione el icono **Más opciones** del modelo (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/canvas/more-options-icon.png)) y, a continuación, seleccione **Cerrar modelo**.

# Comparación de los resultados del modelo
<a name="canvas-fm-chat-compare"></a>

Es posible que desee comparar los resultados de los distintos modelos uno junto al otro para ver qué resultado de modelo prefiere. Esto puede ayudarle a decidir qué modelo se adapta mejor a su caso de uso. Puede comparar hasta tres modelos en los chats.

**nota**  
Cada modelo individual genera cargos en su cuenta.

Debe iniciar un nuevo chat para agregar modelos para compararlos. Para comparar los resultados de los modelos uno junto al otro en un chat, haga lo siguiente:

1. En un chat, seleccione **Nuevo chat**.

1. Seleccione **Comparar** y use el menú desplegable para elegir el modelo que quiera agregar. Para agregar un tercer modelo, vuelva a seleccionar **Comparar** para agregar otro modelo.
**nota**  
Si desea utilizar un JumpStart modelo que no esté activo actualmente, se le solicitará que inicie el modelo.

Cuando los modelos estén activos, verá los dos modelos uno junto al otro en el chat. Puede enviar su mensaje y cada modelo responderá en el mismo chat, como se muestra en la siguiente captura de pantalla.

![\[Captura de pantalla de la interfaz de Canvas con los resultados de dos modelos mostrados uno junto al otro.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/canvas/canvas-chat-compare-outputs.png)


Cuando termines de interactuar, asegúrate de apagar todos JumpStart los modelos individualmente para evitar incurrir en cargos adicionales.

# Afinamiento de modelos fundacionales
<a name="canvas-fm-chat-fine-tune"></a>

Los modelos básicos a los que puede acceder a través de Amazon SageMaker Canvas pueden ayudarle con una variedad de tareas de uso general. Sin embargo, si tiene un caso de uso específico y desea personalizar las respuestas en función de sus propios datos, puede *afinar* un modelo fundacional.

Para afinar un modelo fundacional, proporcione un conjunto de datos que conste de ejemplos de peticiones y respuestas de modelos. A continuación, entrene el modelo fundacional sobre los datos. Por último, el modelo fundacional afinado puede proporcionarle respuestas más específicas.

La siguiente lista contiene los modelos fundacionales que puede afinar en Canvas:
+ Titan Express
+ Falcon-7B
+ Falcon-7B-Instruct
+ Falcon-40B-Instruct
+ Falcon-40B
+ Flan-T5-Large
+ Flan-T5-Xl
+ Flan-T5-Xxl
+ MPT-7B
+ MPT-7B-Instruct

Puede acceder a información más detallada sobre cada modelo fundacional en la aplicación de Canvas mientras afina un modelo. Para obtener más información, consulte [Afinamiento del modelo](#canvas-fm-chat-fine-tune-procedure-model).

En este tema se describe cómo afinar modelos fundacionales en Canvas.

## Antes de empezar
<a name="canvas-fm-chat-fine-tune-prereqs"></a>

Antes de ajustar un modelo base, asegúrese de tener los permisos para los Ready-to-use modelos en Canvas y un rol de AWS Identity and Access Management ejecución que tenga una relación de confianza con Amazon Bedrock, lo que le permitirá a Amazon Bedrock asumir su rol mientras ajusta los modelos base.

Al configurar o editar su dominio de Amazon SageMaker AI, debe 1) activar los permisos de configuración de los Ready-to-use modelos Canvas y 2) crear o especificar un rol de Amazon Bedrock, que es un rol de ejecución de IAM al que SageMaker AI vincula una relación de confianza con Amazon Bedrock. Para obtener más información sobre la configuración de estos ajustes, consulte [Requisitos previos para configurar Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites).

Puede configurar el rol de Amazon Bedrock manualmente si prefiere usar su propio rol de ejecución de IAM (en lugar de dejar que SageMaker AI cree uno en su nombre). Para obtener más información sobre cómo configurar la relación de confianza de su rol de ejecución de IAM con Amazon Bedrock, consulte [Concesión de permisos a los usuarios para usar características de Amazon Bedrock e IA generativa en Canvas](canvas-fine-tuning-permissions.md).

También debe tener un conjunto de datos formateado para ajustar los modelos de lenguaje de gran tamaño (). LLMs A continuación se ofrece una lista de requisitos para el conjunto de datos:
+ El conjunto de datos debe ser tabular y contener al menos dos columnas de datos de texto: una columna de entrada (que contiene ejemplos de peticiones del modelo) y una columna de salida (que contiene respuestas de ejemplo del modelo).

  A continuación se muestra un ejemplo:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/canvas-fm-chat-fine-tune.html)
+ Recomendamos que el conjunto de datos tenga al menos 100 pares de texto (filas de los elementos de entrada y salida correspondientes). Esto garantiza que el modelo fundacional tenga datos suficientes para realizar afinamientos y aumenta la exactitud de sus respuestas.
+ Cada elemento de entrada y salida debe contener un máximo de 512 caracteres. Si son más largos se reducen a 512 caracteres al afinar el modelo fundacional.

Para afinar un modelo de Amazon Bedrock debe cumplir las cuotas de Amazon Bedrock. Para obtener más información, consulte [Model customization quotas](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html#model-customization-quotas) en la *Guía del usuario de Amazon Bedrock*.

Para obtener más información acerca de los requisitos y limitaciones generales de conjuntos de datos en Canvas, consulte [Creación de un conjunto de datos](canvas-import-dataset.md).

## Ajuste de un modelo fundacional
<a name="canvas-fm-chat-fine-tune-procedure"></a>

Puede afinar un modelo fundacional mediante cualquiera de los siguientes métodos en la aplicación de Canvas:
+ Mientras se encuentra en un chat de **Generar, extraer y resumir contenido** con un modelo fundacional, elija el icono de **Afinar modelo** (![\[Magnifying glass icon with a plus sign, indicating a search or zoom-in function.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/canvas/wrench-icon-small.png)).
+ Mientras se encuentra en un chat con un modelo fundacional, si ha vuelto a generar la respuesta dos o más veces, Canvas le ofrece la opción de **Afinar modelo**. En la siguiente captura de pantalla se muestra qué aspecto tiene.  
![\[Captura de pantalla de la opción Afinar modelo fundacional que se muestra en un chat.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/canvas/fine-tuning-ingress.png)
+ En la página **Mis modelos** puede crear un nuevo modelo seleccionando **Nuevo modelo** y, a continuación, **Afinar modelo fundacional**.
+ En la página de inicio del **Ready-to-use modelo**, puede elegir **Crear su propio modelo** y, a continuación, en el cuadro de diálogo **Crear nuevo modelo**, elegir **Ajustar** con precisión el modelo base.
+ Mientras navega por los conjuntos de datos en la pestaña **Data Wrangler**, puede seleccionar un conjunto de datos y elegir **Crear un modelo**. A continuación, elija **Afinar modelo fundacional**.

Cuando haya empezado a afinar un modelo, haga lo siguiente:

### Selección de un conjunto de datos
<a name="canvas-fm-chat-fine-tune-procedure-select"></a>

En la pestaña **Seleccionar** para afinar un modelo, elija los datos con los que desea entrenar el modelo fundacional.

Seleccione un conjunto de datos existente o cree uno nuevo que cumpla con los requisitos enumerados en la sección [Antes de empezar](#canvas-fm-chat-fine-tune-prereqs). Para obtener más información acerca de cómo crear un conjunto de datos, consulte [Creación de un conjunto de datos](canvas-import-dataset.md).

Cuando haya seleccionado o creado un conjunto de datos y esté listo para continuar, elija **Seleccionar conjunto de datos**.

### Afinamiento del modelo
<a name="canvas-fm-chat-fine-tune-procedure-model"></a>

Tras seleccionar los datos, ya está listo para empezar a entrenar y afinar el modelo.

En la pestaña **Ajustar**, haga lo siguiente:

1. (Opcional) Elija **Más información sobre nuestros modelos fundacionales** para acceder a más información sobre cada modelo y ayudarle a decidir qué modelo o modelos fundacionales implementar.

1. Para **seleccionar hasta 3 modelos básicos**, abre el menú desplegable y selecciona hasta 3 modelos de base (hasta 2 JumpStart modelos y 1 modelo Amazon Bedrock) que te gustaría ajustar con precisión durante el trabajo de formación. Al afinar varios modelos fundacionales, puede comparar su rendimiento y, en última instancia, elegir el que mejor se adapte a su caso de uso como modelo predeterminado. Para obtener más información acerca de los modelos predeterminados, consulte [Visualización de los candidatos del modelo en la tabla de clasificación de modelos](canvas-evaluate-model-candidates.md).

1. En **Seleccionar columna de entrada**, seleccione la columna de datos de texto del conjunto de datos que contenga las peticiones del modelo de ejemplo.

1. En **Seleccionar columna de salida**, seleccione la columna de datos de texto del conjunto de datos que contenga las respuestas del modelo de ejemplo.

1. (Opcional) Para configurar los ajustes avanzados del trabajo de entrenamiento, elija **Configurar modelo**. Para obtener más información sobre los ajustes avanzados de creación de modelos, consulte [Configuraciones avanzadas de compilación de modelos](canvas-advanced-settings.md).

   En la ventana emergente **Configurar modelo**, haga lo siguiente:

   1. En **Hiperparámetros** puede ajustar **Recuento de épocas**, **Tamaño del lote**, **Tasa de aprendizaje** y **Pasos de calentamiento de la tasa de aprendizaje** para cada modelo que haya seleccionado. Para obtener más información sobre estos parámetros, consulte la sección [Hiperparámetros de la documentación](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-fine-tune.html#jumpstart-hyperparameters). JumpStart 

   1. En **División de datos** puede especificar porcentajes sobre cómo dividir los datos entre el **Conjunto de entrenamiento** y el **Conjunto de validación**.

   1. En **Tiempo máximo de ejecución del trabajo** puede establecer la cantidad máxima de tiempo durante el cual Canvas ejecuta el trabajo de compilación. Esta función solo está disponible para los modelos de JumpStart base.

   1. Después de realizar la configuración, seleccione **Guardar**.

1. Seleccione **Ajustar** para empezar a entrenar los modelos fundacionales que ha seleccionado.

Cuando comience el trabajo de afinamiento, puede salir de la página. Cuando el modelo aparezca como **Listo** en la página **Mis modelos**, estará listo para su uso y podrá analizar el rendimiento del modelo fundacional afinado.

### Análisis del modelo fundacional afinado
<a name="canvas-fm-chat-fine-tune-procedure-analyze"></a>

En la pestaña **Analizar** del modelo fundacional afinado puede ver el rendimiento del modelo.

La pestaña **Descripción general** de esta página muestra las puntuaciones de perplejidad y pérdida, junto con análisis que permiten visualizar la mejora del modelo a lo largo del tiempo durante el entrenamiento. La siguiente captura de pantalla muestra la pestaña **Descripción general**.

![\[La pestaña Analizar de un modelo fundacional afinado en Canvas, que muestra las curvas de perplejidad y pérdida.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/canvas/canvas-fine-tune-analyze-2.png)


En esta página puede ver las siguientes visualizaciones:
+ La **Curva de perplejidad** mide si el modelo predice correctamente la siguiente palabra de una secuencia o si es gramatical la salida del modelo. Lo ideal es que, a medida que el modelo mejore durante el entrenamiento, la puntuación disminuya y genere una curva que disminuya y se aplane con el tiempo.
+ La **Curva de pérdida** cuantifica la diferencia entre la salida correcta y la salida predicha del modelo. Una curva de pérdida que disminuye y se aplana con el tiempo indica que el modelo está mejorando su capacidad para realizar predicciones precisas.

La pestaña **Métricas avanzadas** muestra los hiperparámetros y las métricas adicionales del modelo. Tiene un aspecto similar al de la captura de pantalla siguiente:

![\[Captura de pantalla de la pestaña Avanzadas métricas de un modelo fundacional afinado en Canvas.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/canvas/canvas-fine-tune-metrics.png)


La pestaña **Métricas avanzadas** contiene la siguiente información:
+ La sección **Explicabilidad** contiene los **Hiperparámetros**, que son los valores establecidos antes del trabajo para guiar el afinamiento del modelo. Si no ha especificado hiperparámetros personalizados en la configuración avanzada del modelo en la sección [Afinamiento del modelo](#canvas-fm-chat-fine-tune-procedure-model), Canvas selecciona hiperparámetros predeterminados.

  Para JumpStart los modelos, también puede utilizar la métrica avanzada [ROUGE (Recall-Oriented Understudy for Gisting Evaluation)](https://en.wikipedia.org/wiki/ROUGE_(metric)), que evalúa la calidad de los resúmenes generados por el modelo. Mide si el modelo puede resumir correctamente los puntos principales de un pasaje.
+ La sección **Artefactos** proporciona enlaces a los artefactos generados durante el trabajo de afinamiento. Puede acceder a los datos de entrenamiento y validación guardados en Amazon S3, así como al enlace del informe de evaluación del modelo (para obtener más información, consulte el párrafo siguiente).

Para obtener más información sobre la evaluación del modelo, puede descargar un informe generado con [SageMaker Clarify](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-configure-processing-jobs.html), una función que puede ayudarle a detectar sesgos en el modelo y en los datos. En primer lugar, genere el informe seleccionando **Generar informe de evaluación** en la parte inferior de la página. Una vez generado el informe, puede descargar el informe completo seleccionando **Descargar el informe** o volviendo a la sección **Artefactos**.

También puede acceder a un cuaderno de Jupyter que muestra cómo replicar el trabajo de afinamiento en código Python. Puede usarlo para replicar o realizar cambios programáticos en el trabajo de afinamiento o para comprender mejor cómo afina Canvas el modelo. Para obtener más información sobre los cuadernos del modelo y cómo acceder a ellos, consulte [Descarga de un modelo de cuaderno](canvas-notebook.md).

Para obtener más información sobre cómo interpretar la información de la pestaña **Analizar** del modelo fundacional afinado, consulte el tema [Evaluación de modelos](canvas-evaluate-model.md).

Tras analizar las pestañas **Descripción general** y **Métricas avanzadas**, también puede abrir la **Tabla de clasificación de modelos**, que muestra la lista de los modelos fundacionales entrenados durante la compilación. El modelo con la puntuación de pérdida más baja se considera el modelo con mejor rendimiento y se selecciona como **Modelo predeterminado** y su análisis se ve en la pestaña **Analizar**. Solo puede probar e implementar el modelo predeterminado. Para obtener más información acerca de la tabla de clasificación de modelos y cómo cambiar el modelo predeterminado, consulte [Visualización de los candidatos del modelo en la tabla de clasificación de modelos](canvas-evaluate-model-candidates.md).

### Prueba de un modelo fundacional afinado en un chat
<a name="canvas-fm-chat-fine-tune-procedure-test"></a>

Después de analizar el rendimiento de un modelo fundacional afinado conviene probarlo o comparar sus respuestas con el modelo base. Puede probar un modelo fundacional afinado en un chat con la característica **Generar, extraer y resumir contenido**.

Inicie un chat con un modelo afinado eligiendo uno de los siguientes métodos:
+ En la pestaña **Analizar** del modelo ajustado, elija **Probar en modelos básicos Ready-to-use.**
+ En la página de **Ready-to-use modelos** de Canvas, elija **Generar, extraer y resumir contenido**. A continuación, elija **Nuevo chat** y seleccione la versión del modelo que desee probar.

El modelo se inicia en un chat y puede interactuar con él como con cualquier otro modelo fundacional. Puede añadir más modelos al chat y comparar sus resultados. Para obtener más información sobre la funcionalidad de los chats, consulte [Modelos básicos de IA generativa en Canvas SageMaker](canvas-fm-chat.md).

## Operacionalización de modelos fundacionales afinados
<a name="canvas-fm-chat-fine-tune-mlops"></a>

Después de afinar el modelo en Canvas, puede hacer lo siguiente:
+ Registre el modelo en el Registro de SageMaker modelos para integrarlo en MLOps los procesos de su organización. Para obtener más información, consulte [Registre una versión del modelo en el registro de modelos de IA SageMaker](canvas-register-model.md).
+ Implemente el modelo en un punto final de SageMaker IA y envíe solicitudes al modelo desde su aplicación o sitio web para obtener predicciones (o *inferencias*). Para obtener más información, consulte [Implementación de sus modelos en un punto de conexión](canvas-deploy-model.md).

**importante**  
Solo puede registrar e implementar modelos de JumpStart base ajustados con precisión, no modelos basados en Amazon Bedrock.