

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# La IA generativa en entornos de ordenadores portátiles SageMaker
<a name="jupyterai"></a>

[Jupyter AI](https://github.com/jupyterlab/jupyter-ai) es una extensión de código abierto que permite JupyterLab integrar capacidades de IA generativa en los cuadernos de Jupyter. Mediante la interfaz del chat de Jupyter AI y los comandos mágicos, los usuarios experimentan con el código generado a partir de instrucciones en lenguaje natural, explican el código existente, formulan preguntas sobre los archivos locales, generan cuadernos completos y mucho más. La extensión conecta los cuadernos de Jupyter con modelos de lenguaje de gran tamaño (LLMs) que los usuarios pueden usar para generar texto, código o imágenes, y para hacer preguntas sobre sus propios datos. Jupyter AI es compatible con proveedores de modelos generativos como Anthropic ( AWS y JumpStart Amazon Bedrock) AI21, Cohere y OpenAI.

También puede usar Amazon Q Developer como una solución lista para usar. En lugar de tener que configurar manualmente una conexión a un modelo, puede empezar a utilizar Amazon Q Developer con una configuración mínima. Al habilitar Amazon Q Developer, se convierte en el proveedor de soluciones predeterminado en Jupyter AI. Para obtener más información sobre cómo utilizar Amazon Q Developer, consulte [SageMaker JupyterLab](studio-updated-jl.md).

El paquete de la extensión está incluido en la [versión 1.2 y posteriores](https://github.com/aws/sagemaker-distribution/tree/main/build_artifacts/v1) de [Amazon SageMaker Distribution](https://github.com/aws/sagemaker-distribution). Amazon SageMaker Distribution es un entorno Docker para la ciencia de datos y la computación científica que se utiliza como imagen predeterminada de las instancias de JupyterLab notebook. Los usuarios de diferentes IPython entornos pueden instalar Jupyter AI manualmente.

En esta sección, ofrecemos una descripción general de las capacidades de IA de Jupyter y demostramos cómo configurar los modelos proporcionados por JumpStart Amazon Bedrock desde nuestros portátiles [Studio [JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html)Classic. Para obtener más información sobre el proyecto de Jupyter AI, consulte su [documentación](https://jupyter-ai.readthedocs.io/en/latest/). También puede consultar la publicación del blog *[Generative AI in Jupyter](https://blog.jupyter.org/generative-ai-in-jupyter-3f7174824862)* para obtener información general y ejemplos de las capacidades clave de Jupyter AI.

Antes de usar la IA de Jupyter e interactuar con los tuyos LLMs, asegúrate de cumplir los siguientes requisitos previos:
+ En el caso de los modelos alojados por AWS, debe tener el ARN de su punto de conexión de SageMaker IA o tener acceso a Amazon Bedrock. En el caso de otros proveedores de modelos, debe utilizar la clave de API para autenticar y autorizar las solicitudes al modelo. Jupyter AI es compatible con una amplia gama de proveedores de modelos y modelos de lenguaje. Consulte la lista de los [modelos compatibles](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) para mantenerse actualizado sobre los últimos modelos disponibles. Para obtener información sobre cómo implementar un modelo en JumpStart, consulte [Implementación de un modelo](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-deploy.html) en la JumpStart documentación. Debe solicitar acceso a [Amazon Bedrock](https://aws.amazon.com/bedrock/) para usarlo como proveedor de modelos.
+ Asegúrese de que las bibliotecas de Jupyter AI estén presentes en el entorno. De no ser así, instale el paquete necesario siguiendo las instrucciones que se indican en [Instalación de Jupyter AI](sagemaker-jupyterai-installation.md).
+ Familiarícese con las capacidades de Jupyter AI en [Acceso a las características de Jupyter AI](sagemaker-jupyterai-overview.md).
+ Configure los modelos de destino que desee utilizar siguiendo las instrucciones que se indican en [Configuración del proveedor de modelos](sagemaker-jupyterai-model-configuration.md).

Tras completar los pasos de requisitos previos, puede continuar con [Utilice Jupyter AI en nuestro Studio Classic JupyterLab](sagemaker-jupyterai-use.md).

**Topics**
+ [Instalación de Jupyter AI](sagemaker-jupyterai-installation.md)
+ [Acceso a las características de Jupyter AI](sagemaker-jupyterai-overview.md)
+ [Configuración del proveedor de modelos](sagemaker-jupyterai-model-configuration.md)
+ [Utilice Jupyter AI en nuestro Studio Classic JupyterLab](sagemaker-jupyterai-use.md)

# Instalación de Jupyter AI
<a name="sagemaker-jupyterai-installation"></a>

Para usar Jupyter AI, primero debe instalar el paquete de Jupyter AI. Para los usuarios de [Amazon SageMaker AI Distribution](https://github.com/aws/sagemaker-distribution/tree/main/build_artifacts/v1), recomendamos seleccionar la versión 1.2 o posterior de la imagen de SageMaker distribución. No hay que instalar nada más. Los usuarios de JupyterLab in Studio pueden elegir la versión de su Amazon SageMaker Distribution al crear un espacio.

Para los usuarios de otros IPython entornos, la versión del paquete Jupyter AI recomendado depende de la versión JupyterLab que estén utilizando.

La distribución de Jupyter AI consta de dos paquetes.
+ `jupyter_ai`: Este paquete proporciona una JupyterLab extensión y una interfaz de usuario (UI) de chat nativa. Actúa como un asistente de conversación mediante el modelo de lenguaje grande que elija.
+ `jupyter_ai_magics`: Este paquete proporciona los comandos `%ai` mágicos IPython `%%ai` y mágicos con los que puede invocar un modelo de lenguaje grande (LLM) desde las celdas de su cuaderno.

**nota**  
Al instalar `jupyter_ai`, también se instalará `jupyter_ai_magics`. Sin embargo, puede instalarlo de `jupyter_ai_magics` forma independiente sin JupyterLab o. `jupyter_ai` Los comandos `%%ai` mágicos `%ai` funcionan en cualquier entorno de IPython kernel. Si solo instala `jupyter_ai_magics`, no podrá utilizar la interfaz de usuario del chat.

Para los usuarios de JupyterLab 3, en particular los usuarios de Studio Classic, recomendamos instalar la `jupyter-ai` [versión 1.5.x](https://pypi.org/project/jupyter-ai/#history) o cualquier versión 1.x posterior. Sin embargo, recomendamos encarecidamente utilizar Jupyter AI con la versión 4. JupyterLab Es posible que la `jupyter-ai` versión compatible con JupyterLab 3 no permita a los usuarios configurar parámetros adicionales del modelo, como la temperatura, el muestreo top-k y top-p, el número máximo de fichas o la longitud máxima, o los acuerdos de licencia de aceptación por parte del usuario.

Para los usuarios de JupyterLab 4 entornos que no utilizan SageMaker Distribution, recomendamos instalar la `jupyter-ai` [versión 2.5.x o cualquier versión 2.x](https://pypi.org/project/jupyter-ai/#history) posterior.

Consulte las instrucciones de instalación de la sección *Instalación* de la [documentación de Jupyter AI](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#installation-via-pip).

# Acceso a las características de Jupyter AI
<a name="sagemaker-jupyterai-overview"></a>

Puede acceder a las características de Jupyter AI a través de dos métodos distintos: mediante la interfaz del chat o mediante comandos mágicos en los cuadernos.

## A partir del asistente de IA de interfaz de usuario del chat
<a name="sagemaker-jupyterai-overview-chatui"></a>

La interfaz del chat le conecta con Jupyternaut, un agente de conversación que utiliza el modelo de lenguaje que elija. 

Tras iniciar una JupyterLab aplicación instalada con Jupyter AI, puede acceder a la interfaz de chat seleccionando el icono de chat (![\[Icon of a rectangular shape with a curved arrow pointing to the upper right corner.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-chat-ui.png)) en el panel de navegación izquierdo. A los usuarios principiantes se les pide que configuren el modelo. Consulte [Configuración del proveedor de modelos en la interfaz de usuario del chat](sagemaker-jupyterai-model-configuration.md#sagemaker-jupyterai-model-configuration-chatui) para obtener instrucciones sobre la configuración.

**Al utilizar la interfaz de usuario del chat, podrá:**
+ **Responder a las preguntas**: por ejemplo, puede pedir a Jupyternaut que cree una función de Python que añada archivos CSV a un bucket de Amazon S3. Posteriormente, puede perfeccionar la respuesta con una pregunta de seguimiento, como, por ejemplo, añadir un parámetro a la función para elegir la ruta en la que se escriben los archivos. 
+ **Interactúa con los archivos en JupyterLab**: si lo seleccionas, puedes incluir una parte de tu bloc de notas en el mensaje. A continuación, puede sustituirla por la respuesta sugerida por el modelo o copiarla manualmente en el portapapeles.
+ **Generar cuadernos completos** a partir de peticiones: al empezar la petición con `/generate`, se desencadenará un proceso de generación de cuadernos en segundo plano sin interrumpir el uso de Jupyternaut. Al finalizar el proceso, aparecerá un mensaje con el enlace al nuevo archivo.
+ **Aprender a partir de los archivos locales y formular preguntas sobre ellos**: con el comando `/learn`, puede enseñar al modelo de incrustación que elija sobre los archivos locales y, a continuación, formular preguntas sobre esos archivos mediante el comando `/ask`. Jupyter AI almacena el contenido incrustado en una [base de datos vectorial de FAISS](https://github.com/facebookresearch/faiss) local y, a continuación, utiliza la generación aumentada por recuperación (RAG) para proporcionar respuestas basadas en lo que ha aprendido. Para borrar toda la información previamente aprendida del modelo de incrustación, utilice `/learn -d`.

**nota**  
Amazon Q developer no tiene la capacidad de generar cuadernos desde cero.

Para obtener una lista completa de características e instrucciones detalladas sobre su uso, consulte la documentación sobre la [interfaz del chat de Jupyter AI](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#the-chat-interface). Para obtener más información sobre cómo configurar el acceso a un modelo en Jupyternaut, consulte [Configuración del proveedor de modelos en la interfaz de usuario del chat](sagemaker-jupyterai-model-configuration.md#sagemaker-jupyterai-model-configuration-chatui).

## A partir de las celdas del cuaderno
<a name="sagemaker-jupyterai-overview-magic-commands"></a>

Mediante `%%ai` comandos `%ai` mágicos, puede interactuar con el modelo de lenguaje que prefiera desde las celdas de su cuaderno o desde cualquier interfaz de línea de IPython comandos. El comando `%%ai` aplica las instrucciones a toda la celda, mientras que `%ai` las aplica a la línea específica.

En el siguiente ejemplo se muestra un comando mágico `%%ai` que invoca un modelo de Anthropic Claude para generar un archivo HTML que incluya la imagen de un cuadrado blanco con bordes negro.

```
%%ai anthropic:claude-v1.2 -f html
Create a square using SVG with a black border and white fill.
```

Para obtener más información sobre la sintaxis de cada comando, utilice `%ai help`. Para ver una lista de los proveedores y modelos compatibles con la extensión, ejecute `%ai list`.

Para obtener una lista completa de características e instrucciones detalladas sobre su uso, consulte la documentación sobre los [comandos mágicos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#the-ai-and-ai-magic-commands) de Jupyter AI. En concreto, puede personalizar el formato de salida del modelo mediante el parámetro `-f` o `--format`, permitir la interpolación de variables en las peticiones, incluidas las variables especiales `In` y `Out`, etc.

Para obtener más información sobre cómo configurar el acceso a un modelo, consulte [Configuración del proveedor de modelos en un cuaderno](sagemaker-jupyterai-model-configuration.md#sagemaker-jupyterai-model-configuration-magic-commands). 

# Configuración del proveedor de modelos
<a name="sagemaker-jupyterai-model-configuration"></a>

**nota**  
En esta sección se da por hecho que el lenguaje y los modelos de incrustación que tiene previsto usar ya están implementados. En el caso de los modelos proporcionados por AWS, ya debe tener el ARN de su punto de conexión de SageMaker IA o acceso a Amazon Bedrock. En el caso de otros proveedores de modelos, debe utilizar la clave de API para autenticar y autorizar las solicitudes al modelo.  
Jupyter AI es compatible con una amplia gama de proveedores de modelos y modelos de lenguaje. Consulte la lista de los [modelos compatibles](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) para mantenerse actualizado sobre los últimos modelos disponibles. Para obtener información sobre cómo implementar un modelo proporcionado por JumpStart, consulte [Implementación de un modelo](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-deploy.html) en la JumpStart documentación. Debe solicitar acceso a [Amazon Bedrock](https://aws.amazon.com/bedrock/) para usarlo como proveedor de modelos.

La configuración de Jupyter AI varía en función de si se utiliza la interfaz de usuario del chat o los comandos mágicos.

## Configuración del proveedor de modelos en la interfaz de usuario del chat
<a name="sagemaker-jupyterai-model-configuration-chatui"></a>

**nota**  
Puede configurar varios modelos LLMs e incrustarlos siguiendo las mismas instrucciones. Sin embargo, debe configurar al menos un **modelo de lenguaje**.

**Configuración de la interfaz de usuario del chat**

1. En JupyterLab, accede a la interfaz de chat seleccionando el icono de chat (![\[Icon of a rectangular shape with a curved arrow pointing to the upper right corner.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-chat-ui.png)) en el panel de navegación izquierdo.

1. Elija el icono de configuración (![\[Gear or cog icon representing settings or configuration options.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-configure-models.png)) de la esquina superior derecha del panel izquierdo. Se abrirá el panel de configuración de Jupyter AI.

1. Complete los campos relacionados con el proveedor de servicios.
   + **Para modelos proporcionados por JumpStart Amazon Bedrock**
     + En la lista desplegable de **modelos de lenguaje**, seleccione `sagemaker-endpoint` los modelos implementados con JumpStart o `bedrock` gestionados por Amazon Bedrock.
     + Los parámetros varían en función de si el modelo se implementa en SageMaker AI o en Amazon Bedrock.
       + Para los modelos implementados con JumpStart:
         + Introduzca el nombre de su terminal en Nombre del **terminal y, a continuación, el nombre** Región de AWS en el que está desplegado el modelo en el [**nombre de la región**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-region-name). Para recuperar el ARN de los puntos finales de la SageMaker IA, navegue hasta los puntos finales y, a continuación, seleccione **Inferencia [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/)** y **puntos finales** en el menú de la izquierda.
         + Pegue el valor de JSON del [**Esquema de solicitud**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-request-schema) adaptado al modelo, así como la [**Ruta de respuesta**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-response-path) correspondiente para analizar el resultado del modelo.
**nota**  
[Puede encontrar el formato de solicitud y respuesta de varios de los modelos básicos en los JumpStart siguientes cuadernos de ejemplo.](https://github.com/aws/amazon-sagemaker-examples/tree/main/introduction_to_amazon_algorithms/jumpstart-foundation-models) Cada cuaderno lleva el nombre del modelo que muestra.
       + Para los modelos gestionados por Amazon Bedrock: añada el AWS perfil que almacena sus AWS credenciales en el sistema (opcional) y, a continuación, el perfil Región de AWS en el que se implementa el modelo en el [**nombre de la región**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-region-name).
     + (Opcional) Seleccione un [modelo de incrustación](sagemaker-jupyterai-overview.md#sagemaker-jupyterai-embedding-model) al que tenga acceso. Los modelos de incrustación se utilizan para capturar información adicional de los documentos locales, lo que permite que el modelo de generación de texto responda a preguntas dentro del contexto de esos documentos.
     + Seleccione **Guardar cambios** y diríjase al icono de flecha izquierda (![\[Left-pointing arrow icon, typically used for navigation or returning to a previous page.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-return-to-chat.png)) en la esquina superior izquierda del panel de la izquierda. Se abrirá la interfaz del chat de Jupyter AI. Puede empezar a interactuar con el modelo.
   + **En el caso de modelos alojados por proveedores externos**
     + En la lista desplegable **Modelo de lenguaje**, seleccione el ID de proveedor. Puede encontrar los detalles de cada proveedor, incluido el ID, en la [lista de proveedores de modelos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) de Jupyter AI.
     + (Opcional) Seleccione un [modelo de incrustación](sagemaker-jupyterai-overview.md#sagemaker-jupyterai-embedding-model) al que tenga acceso. Los modelos de incrustación se utilizan para capturar información adicional de los documentos locales, lo que permite que el modelo de generación de texto responda a preguntas dentro del contexto de esos documentos.
     + Inserte las claves de API de los modelos.
     + Seleccione **Guardar cambios** y diríjase al icono de flecha izquierda (![\[Left-pointing arrow icon, typically used for navigation or returning to a previous page.\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-return-to-chat.png)) en la esquina superior izquierda del panel de la izquierda. Se abrirá la interfaz del chat de Jupyter AI. Puede empezar a interactuar con el modelo.

La siguiente instantánea ilustra el panel de configuración de la interfaz de usuario del chat configurado para invocar un modelo FLAN-T5-Small proporcionado por IA e implementado en ella. JumpStart SageMaker 

![\[El panel de configuración de la interfaz de usuario de chat está configurado para invocar un modelo FLAN-T5-Small proporcionado por. JumpStart\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/images/studio/jupyterai/jupyterai-chatui-configuration.png)


### Transferencia de parámetros de modelo adicionales y parámetros personalizados según la solicitud
<a name="sagemaker-jupyterai-configuration-model-parameters"></a>

Es posible que el modelo necesite parámetros adicionales, como, por ejemplo, un atributo personalizado para la aprobación del acuerdo de usuario o ajustes en otros parámetros del modelo, como, por ejemplo, la temperatura o la longitud de respuesta. Recomendamos configurar estos ajustes como una opción de inicio de la JupyterLab aplicación mediante una configuración de ciclo de vida. Para obtener información sobre cómo crear una configuración de ciclo de vida y adjuntarla a su dominio o a un perfil de usuario desde la [consola de SageMaker IA](https://console.aws.amazon.com/sagemaker/), consulte [Crear y asociar una configuración de ciclo](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-lcc.html) de vida. Puedes elegir tu script de LCC al crear un espacio para tu JupyterLab aplicación.

Utilice el siguiente esquema de JSON para configurar los [parámetros adicionales](sagemaker-jupyterai-use.md#sagemaker-jupyterai-extra-model-params):

```
{
  "AiExtension": {
    "model_parameters": {
      "<provider_id>:<model_id>": { Dictionary of model parameters which is unpacked and passed as-is to the provider.}
      }
    }
  }
}
```

El siguiente script es un ejemplo de un archivo de configuración JSON que puede usar al crear una LCC de JupyterLab aplicaciones para establecer la longitud máxima de un modelo [Jurassic-2 de AI21 Labs implementado](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-jurassic2.html) en Amazon Bedrock. Al aumentar la longitud de la respuesta generada por el modelo, se puede evitar el truncamiento sistemático de la respuesta del modelo.

```
#!/bin/bash
set -eux

mkdir -p /home/sagemaker-user/.jupyter

json='{"AiExtension": {"model_parameters": {"bedrock:ai21.j2-mid-v1": {"model_kwargs": {"maxTokens": 200}}}}}'
# equivalent to %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":200}}

# File path
file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json"

#jupyter --paths

# Write JSON to file
echo "$json" > "$file_path"

# Confirmation message
echo "JSON written to $file_path"

restart-jupyter-server

# Waiting for 30 seconds to make sure the Jupyter Server is up and running
sleep 30
```

El siguiente script es un ejemplo de un archivo de configuración JSON para crear una JupyterLab aplicación LCC que se utiliza para establecer parámetros de modelo adicionales para un [modelo Anthropic Claude](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-claude.html) implementado en Amazon Bedrock.

```
#!/bin/bash
set -eux

mkdir -p /home/sagemaker-user/.jupyter

json='{"AiExtension": {"model_parameters": {"bedrock:anthropic.claude-v2":{"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":25
0,"max_tokens_to_sample":2}}}}}'
# equivalent to %%ai bedrock:anthropic.claude-v2 -m {"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":250,"max_tokens_to_sample":2000}}

# File path
file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json"

#jupyter --paths

# Write JSON to file
echo "$json" > "$file_path"

# Confirmation message
echo "JSON written to $file_path"

restart-jupyter-server

# Waiting for 30 seconds to make sure the Jupyter Server is up and running
sleep 30
```

Una vez que haya adjuntado su LCC a su dominio o perfil de usuario, añada su LCC a su espacio al lanzar la aplicación. JupyterLab Para garantizar que la LCC actualice el archivo de configuración, ejecute `more ~/.jupyter/jupyter_jupyter_ai_config.json` en un terminal. El contenido del archivo debe corresponder al contenido del archivo de JSON transferido a la LCC.

## Configuración del proveedor de modelos en un cuaderno
<a name="sagemaker-jupyterai-model-configuration-magic-commands"></a>

**Para invocar un modelo mediante la IA de Jupyter en nuestras libretas Studio Classic, JupyterLab usando los comandos mágicos y `%%ai` `%ai`**

1. Instale las bibliotecas cliente específicas del proveedor de modelos en el entorno del cuaderno. Por ejemplo, al utilizar los modelos de OpenAI, es necesario instalar la biblioteca cliente de `openai`. Puede encontrar la lista de bibliotecas cliente necesarias por proveedor en la columna *Paquetes de Python* de la [lista de proveedores de modelos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) de Jupyter AI.
**nota**  
En el caso de los modelos alojados por AWS, ya `boto3` está instalado en la imagen de SageMaker AI Distribution utilizada por JupyterLab Studio Classic o en cualquier imagen de ciencia de datos utilizada con Studio Classic.

1. 
   + **Para los modelos alojados por AWS**

     Asegúrese de que su función de ejecución tenga permiso para invocar su punto final de SageMaker IA para los modelos proporcionados por Amazon Bedrock JumpStart o de que usted tenga acceso a ellos.
   + **En el caso de modelos alojados por proveedores externos**

     Exporte la clave de la API del proveedor al entorno de cuaderno mediante las variables del entorno. Puede utilizar el siguiente comando mágico. Sustituya la `provider_API_key` del comando por la variable de entorno que se encuentra en la columna *Variable de entorno* de la [lista de proveedores de modelos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) de Jupyter AI correspondiente al proveedor.

     ```
     %env provider_API_key=your_API_key
     ```

# Utilice Jupyter AI en nuestro Studio Classic JupyterLab
<a name="sagemaker-jupyterai-use"></a>

Puedes usar Jupyter AI en Studio Classic JupyterLab o en Studio Classic invocando modelos de lenguaje desde la interfaz de usuario del chat o desde las celdas del cuaderno. En las siguientes secciones se proporciona información sobre los pasos necesarios para completar esta operación.

## Uso de modelos de lenguaje a partir de la interfaz de usuario del chat
<a name="sagemaker-jupyterai-use-chatui"></a>

Redacte un mensaje en el cuadro de texto de la interfaz de usuario del chat para empezar a interactuar con el modelo. Para borrar el historial de mensajes, utilice el comando `/clear`.

**nota**  
Al borrar el historial de mensajes, no se borrará el contexto del chat con el proveedor del modelo.

## Uso de modelos de lenguaje a partir de las celdas del cuaderno
<a name="sagemaker-jupyterai-use-magic-commands"></a>

Antes de usar los `%ai` comandos `%%ai` y para invocar un modelo de lenguaje, carga la IPython extensión ejecutando el siguiente comando en una celda de un cuaderno JupyterLab o de Studio Classic.

```
%load_ext jupyter_ai_magics
```
+ **Para los modelos alojados por AWS:**
  + Para invocar un modelo implementado en la SageMaker IA, pasa la cadena `sagemaker-endpoint:endpoint-name` al comando `%%ai` mágico con los parámetros necesarios que aparecen a continuación y, a continuación, añade tu mensaje en las siguientes líneas.

    En la siguiente tabla se enumeran los parámetros obligatorios y opcionales al invocar modelos alojados por SageMaker AI o Amazon Bedrock.<a name="sagemaker-jupyterai-jumpstart-inference-params"></a>    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/sagemaker-jupyterai-use.html)

    El siguiente comando invoca un modelo [LLAMA2-7b](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html) hospedado por AI. SageMaker 

    ```
    %%ai sagemaker-endpoint:jumpstart-dft-meta-textgeneration-llama-2-7b -q {"inputs":"<prompt>","parameters":{"max_new_tokens":64,"top_p":0.9,"temperature":0.6,"return_full_text":false}} -n us-east-2 -p [0].generation -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}} -f text
    Translate English to French:
    sea otter => loutre de mer
    peppermint => menthe poivrée
    plush girafe => girafe peluche
    cheese =>
    ```

    El siguiente ejemplo invoca un modelo FLAN-T5-small hospedado por AI. SageMaker 

    ```
    %%ai sagemaker-endpoint:hf-text2text-flan-t5-small --request-schema={"inputs":"<prompt>","parameters":{"num_return_sequences":4}} --region-name=us-west-2 --response-path=[0]["generated_text"] -f text
    What is the atomic number of Hydrogen?
    ```
  + Para invocar un modelo implementado en Amazon Bedrock, pase la cadena `bedrock:model-name` al comando `%%ai` mágico con cualquier parámetro opcional definido en la lista de [parámetros para invocar modelos alojados en JumpStart Amazon Bedrock](#sagemaker-jupyterai-jumpstart-inference-params) y, a continuación, añada su mensaje en las siguientes líneas.

    El siguiente ejemplo invoca un modelo [Jurassic-2 de AI21 Labs hospedado](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-jurassic2.html) en Amazon Bedrock.

    ```
    %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":256}} -f code
    Write a function in python implementing a bubbble sort.
    ```
+ **En el caso de modelos alojados por proveedores externos**

  Para invocar un modelo alojado por proveedores externos, transfiera la cadena `provider-id:model-name` al comando mágico `%%ai` con un [`Output format`](#sagemaker-jupyterai-output-format-params) opcional y, a continuación, añada la petición en las siguientes líneas. Puede encontrar los detalles de cada proveedor, incluido el ID, en la [lista de proveedores de modelos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) de Jupyter AI.

  El siguiente comando pide a un modelo de Anthropic Claude que genere un archivo HTML con la imagen de un cuadrado blanco con bordes negros.

  ```
  %%ai anthropic:claude-v1.2 -f html
  Create a square using SVG with a black border and white fill.
  ```