

Tras considerarlo detenidamente, hemos decidido dejar de utilizar Amazon Kinesis Data Analytics para aplicaciones SQL:

1. A partir del **1 de septiembre de 2025,** no proporcionaremos ninguna corrección de errores para las aplicaciones de Amazon Kinesis Data Analytics for SQL porque tendremos un soporte limitado debido a la próxima discontinuación.

2. A partir del **15 de octubre de 2025,** no podrá crear nuevas aplicaciones de Kinesis Data Analytics for SQL.

3. Eliminaremos sus aplicaciones a partir del **27 de enero de 2026**. No podrá iniciar ni utilizar sus aplicaciones de Amazon Kinesis Data Analytics para SQL. A partir de ese momento, el servicio de soporte de Amazon Kinesis Data Analytics para SQL dejará de estar disponible. Para obtener más información, consulte [Retirada de las aplicaciones de Amazon Kinesis Data Analytics para SQL](discontinuation.md).

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Paso 2: Crear una aplicación de análisis
<a name="app-anom-with-exp-create-app"></a>

En esta sección creará una aplicación de análisis de datos de Amazon Kinesis Data Analytics y la configurará para que utilice el flujo de datos de Kinesis que ha creado como origen de streaming en [Paso 1: Preparar los datos](app-anomaly-with-ex-prepare.md). A continuación, ejecutará código de la aplicación que utiliza la función `RANDOM_CUT_FOREST_WITH_EXPLANATION`.

**Cómo crear una aplicación de**

1. [Abra la consola de Kinesis en https://console.aws.amazon.com /kinesis.](https://console.aws.amazon.com/kinesis)

1. Elija **Data Analytics (Análisis de datos)** en el panel de navegación y, a continuación, elija **Create application (Crear aplicación)**.

1. Proporcione un nombre y una descripción (opcional) para la aplicación y elija **Create application**.

1. Selecciona **Conectar datos de streaming** y, a continuación, selecciona una opción **ExampleInputStream**de la lista. 

1. Elija **Discover esquema** y asegúrese de que `Systolic` y `Diastolic` aparecen como columnas de tipo `INTEGER`. Si son de otro tipo, seleccione **Edit schema** y asigne el tipo `INTEGER` a cada una de ellas. 

1. En **Real time analytics**, elija **Go to SQL editor**. Cuando se le pregunte, elija la opción de ejecutar la aplicación. 

1. Pegue el código siguiente en el editor de SQL y, a continuación, elija **Save and run SQL**.

   ```
   --Creates a temporary stream.
   CREATE OR REPLACE STREAM "TEMP_STREAM" (
   	        "Systolic"                  INTEGER,
   	        "Diastolic"                 INTEGER,
   	        "BloodPressureLevel"        varchar(20),
   	        "ANOMALY_SCORE"             DOUBLE,
   	        "ANOMALY_EXPLANATION"       varchar(512));
   
   --Creates another stream for application output.	        
   CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" (
   	        "Systolic"                  INTEGER,
   	        "Diastolic"                 INTEGER,
   	        "BloodPressureLevel"        varchar(20),
   	        "ANOMALY_SCORE"             DOUBLE,
   	        "ANOMALY_EXPLANATION"       varchar(512));
   
   -- Compute an anomaly score with explanation for each record in the input stream
   -- using RANDOM_CUT_FOREST_WITH_EXPLANATION
   CREATE OR REPLACE PUMP "STREAM_PUMP" AS 
      INSERT INTO "TEMP_STREAM"
         SELECT STREAM "Systolic", "Diastolic", "BloodPressureLevel", ANOMALY_SCORE, ANOMALY_EXPLANATION 
         FROM TABLE(RANDOM_CUT_FOREST_WITH_EXPLANATION(
                 CURSOR(SELECT STREAM * FROM "SOURCE_SQL_STREAM_001"), 100, 256, 100000, 1, true));
   
   -- Sort records by descending anomaly score, insert into output stream
   CREATE OR REPLACE PUMP "OUTPUT_PUMP" AS 
      INSERT INTO "DESTINATION_SQL_STREAM"
         SELECT STREAM * FROM "TEMP_STREAM"
         ORDER BY FLOOR("TEMP_STREAM".ROWTIME TO SECOND), ANOMALY_SCORE DESC;
   ```

**Paso siguiente**  
[Paso 3: Examinar los resultados](examine-results-with-exp.md)