

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Casi d'uso di database vettoriali
<a name="use-cases"></a>

Gli esempi seguenti evidenziano come diverse opzioni di database vettoriali possano essere utilizzate efficacemente per migliorare la gestione delle conoscenze, migliorare l'efficienza operativa e fornire migliori risultati di business. Questi casi d'uso illustrano le applicazioni pratiche delle soluzioni di database vettoriali discusse in precedenza in questa guida e forniscono informazioni sulle loro prestazioni e sui vantaggi nel mondo reale.

## Gestione della conoscenza con Amazon Kendra
<a name="knowledge-management-with-9999999999999999ken-.93ca93a2-7bee-5532-a091-fa308cc50faf"></a>

 **Problema del cliente**: uno dei maggiori appaltatori generali del Giappone stava affrontando un calo di personale esperto. L'azienda aveva bisogno di un modo per trasferire in modo efficiente le conoscenze e le competenze del personale esperto alle nuove generazioni. Avevano bisogno di una soluzione per acquisire e diffondere complesse conoscenze di ingegneria edile ed esperienze passate.

**AWS soluzione** — Per risolvere questo problema, il cliente si è rivolto ad Amazon Kendra, una soluzione di intelligenza artificiale in grado di gestire in modo rapido e preciso la propria base di conoscenze interna e consentire query in linguaggio naturale. Con Amazon Kendra, i dipendenti possono ora trovare le informazioni di cui hanno bisogno molto più velocemente, migliorando la produttività e facilitando il trasferimento delle conoscenze da personale esperto a personale più giovane.

**Impatto**: implementando un chatbot di intelligenza artificiale generativo basato su Amazon Kendra, l'azienda ha creato una piattaforma di conoscenza unificata. Il chatbot consente ai dipendenti di accedere rapidamente alle conoscenze tecniche e alle esperienze passate in materia di ingegneria edile. Questa soluzione ha notevolmente migliorato l'efficienza del trasferimento delle conoscenze e dei processi decisionali all'interno dell'organizzazione, contribuendo a preservare competenze preziose e facilmente accessibili a tutti i dipendenti.

Per informazioni su altri casi d'uso dei clienti, consulta Clienti [Amazon Kendra](https://aws.amazon.com/kendra/customers/?p=pm&amp;c=ml&amp;pd=kd&amp;z=5).

## Analisi in tempo reale con Serverless OpenSearch
<a name="real-time-analytics-with-9999999999999999es-open--serverless.081c7bd4-bd71-5dac-8921-364b1da0f1bb"></a>

**Problema del cliente**: un importante fornitore di servizi finanziari ha dovuto affrontare la sfida di gestire un enorme ecosistema di dati. Ha elaborato 300 milioni di autorizzazioni e 90 miliardi di transazioni all'anno, per un totale di circa 1,1 petabyte (PB) di dati. Il sistema esistente, che serviva 300.000 utenti che richiedevano l'accesso a oltre 6.000 report, necessitava di una modernizzazione per fornire coerenza globale e consentire il processo decisionale in tempo reale.

** AWS soluzione**: l'architettura della soluzione utilizzava modelli di base disponibili tramite Amazon Bedrock (inclusi Anthropic, Sonnet 3, Sonnet 3.5 e Haiku) per l'elaborazione del linguaggio naturale. Il cliente ha scelto OpenSearch Serverless come database vettoriale per la sua scalabilità superiore e la capacità di gestire in modo efficiente l'enorme volume di dati. Questa architettura ha consentito l'elaborazione senza interruzioni di query complesse e la generazione dinamica di report.

 **Impatto**: l'implementazione ha consentito un aumento della produttività del 50% eliminando la necessità di generare manualmente oltre 100 dashboard di business intelligence. Gli utenti possono ora generare report tramite query in linguaggio naturale con tempi di risposta compresi tra 20 e 40 secondi. 

Per informazioni su altri casi d'uso dei clienti, consulta [Amazon OpenSearch Serverless](https://aws.amazon.com/opensearch-service/features/serverless/).