

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Detectar fala tóxica
Detectar fala tóxica

 A detecção de fala tóxica foi projetada para ajudar a moderar plataformas de rede social que envolvem diálogo entre pares, como jogos on-line e plataformas de bate-papo social. O uso de fala tóxica pode ser profundamente prejudicial para indivíduos, grupos de pares e comunidades. A sinalização de linguagem prejudicial ajuda as organizações a manter as conversas em um tom civilizado e a manter um ambiente on-line seguro e inclusivo para que os usuários criem, compartilhem e participem livremente. 

 A Detecção de Toxicidade do Amazon Transcribe aproveita as pistas baseadas em áudio e texto para identificar e classificar o conteúdo tóxico com base em voz em sete categorias, como assédio sexual, discurso de ódio, ameaça, abuso, profanação, insulto e gráfico. Além do texto, a Detecção de Toxicidade do Amazon Transcribe usa dicas de fala, como tons e inclinação, para identificar a intenção tóxica na fala. Essa é uma melhoria em relação aos sistemas padrão de moderação de conteúdo, projetados para se concentrar apenas em termos específicos, sem levar em conta a intenção. 

 O Amazon Transcribe sinaliza e categoriza fala tóxica, o que minimiza o volume de dados que devem ser processados manualmente. Isso permite que os moderadores de conteúdo gerenciem com rapidez e eficiência o discurso em suas plataformas. 

As categorias de fala tóxica incluem:
+ **Profanação**: discurso que contém palavras, frases ou acrônimos que são indelicados, vulgares ou ofensivos.
+ **Discurso de ódio**: discurso que critica, insulta, denuncia ou desumaniza uma pessoa ou grupo com base em uma identidade (como raça, etnia, gênero, religião, orientação sexual, capacidade e origem nacional).
+ **Sexual**: discurso que indica interesse, atividade ou excitação sexual usando referências diretas ou indiretas a partes do corpo, características físicas ou sexo.
+ **Insultos**: discurso que inclui linguagem degradante, humilhante, zombeteira, insultante ou depreciativa. Esse tipo de linguagem também é chamado de bullying.
+ **Violência ou ameaça**: discurso que inclui ameaças com o objetivo de infligir dor, lesão ou hostilidade a uma pessoa ou grupo.
+ **Gráfico**: discurso que usa imagens visualmente descritivas e desagradavelmente vívidas. Em geral, esse tipo de linguagem é intencionalmente prolixo para ampliar o desconforto do destinatário.
+ **Assédio ou abuso**: discurso destinado a afetar o bem-estar psicológico do destinatário, incluindo termos humilhantes e objetificantes. Esse tipo de linguagem também é chamado de assédio.

 A detecção de toxicidade analisa segmentos da fala (a fala entre pausas naturais) e atribui pontuações de confiança a esses segmentos. Os escores de confiança são valores entre 0 e 1. Uma pontuação de confiança maior indica uma probabilidade maior de que o conteúdo seja um discurso tóxico na categoria associada. Você pode usar essas pontuações de confiança para definir o limite apropriado de detecção de toxicidade para seu caso de uso. 

**nota**  
 A detecção de toxicidade só está disponível para transcrições em lote em inglês dos EUA `(en-US)`. 

 Veja um [exemplo de saída](toxicity-using.md#toxicity-using-output.title) no formato JSON. 

# Usar a detecção de fala tóxica


## Usar a detecção de fala tóxica em uma transcrição em lote


Para usar a detecção de fala tóxica com uma transcrição em lote, veja os seguintes exemplos:

### Console de gerenciamento da AWS


1. Faça login no [Console de gerenciamento da AWS](https://console.aws.amazon.com/transcribe/).

1. No painel de navegação, escolha **Tarefas de transcrição** e selecione **Criar tarefa** (no canto superior direito). Isso abre a página **Especificar os detalhes da tarefa**.  
![\[Captura de tela do console do Amazon Transcribe: a página “Especificar os detalhes da tarefa”.\]](http://docs.aws.amazon.com/pt_br/transcribe/latest/dg/images/toxicity-batch-details-1.png)

1.  Na página **Especificar os detalhes da tarefa**, você também pode habilitar a edição de PII, se quiser. Observe que as outras opções listadas não são compatíveis com a detecção de toxicidade. Escolha **Próximo**. Isso leva você à página **Configurar tarefa: opcional**. No painel **Configurações de áudio**, selecione **Detecção de toxicidade**.   
![\[Captura de tela do console do Amazon Transcribe: a página “Configurar tarefa”.\]](http://docs.aws.amazon.com/pt_br/transcribe/latest/dg/images/toxicity-batch-details-2.png)

1. Selecione **Criar tarefa** para executar a tarefa de transcrição.

1. Depois que seu trabalho de transcrição estiver concluído, você poderá baixá-lo no menu suspenso **Fazer download** na página de detalhes da tarefa de transcrição.

### AWS CLI


Este exemplo usa o comando [start-transcription-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-transcription-job.html) e o parâmetro `ToxicityDetection`. Para obter mais informações, consulte [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html) e [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ToxicityDetection.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_ToxicityDetection.html). 

```
aws transcribe start-transcription-job \
--region us-west-2 \
--transcription-job-name my-first-transcription-job \
--media MediaFileUri=s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac \
--output-bucket-name amzn-s3-demo-bucket \
--output-key my-output-files/ \
--language-code en-US \
--toxicity-detection ToxicityCategories=ALL
```

Veja a seguir outro exemplo usando o comando [start-transcription-job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/transcribe/start-transcription-job.html) e um corpo de solicitação que inclui detecção de toxicidade.

```
aws transcribe start-transcription-job \
--region us-west-2 \
--cli-input-json file://filepath/my-first-toxicity-job.json
```

O arquivo *my-first-toxicity-job.json* contém o corpo de solicitação a seguir.

```
{
  "TranscriptionJobName": "my-first-transcription-job",
  "Media": {
        "MediaFileUri": "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
  },
  "OutputBucketName": "amzn-s3-demo-bucket",
  "OutputKey": "my-output-files/", 
  "LanguageCode": "en-US",
  "ToxicityDetection": [ 
      { 
         "ToxicityCategories": [ "ALL" ]
      }
   ]
}
```

### AWS SDK para Python (Boto3)


 Este exemplo usa o AWS SDK para Python (Boto3) para habilitar a `ToxicityDetection` para o método [start\$1transcription\$1job](https://boto3.amazonaws.com/v1/documentation/api/latest/reference/services/transcribe.html#TranscribeService.Client.start_transcription_job). Para obter mais informações, consulte [https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/API_StartTranscriptionJob.html) e [https://docs.aws.amazon.com/transcribe/latest/APIReference/Welcome.html](https://docs.aws.amazon.com/transcribe/latest/APIReference/Welcome.html). 

Para ver exemplos adicionais de uso dos SDKs da AWS, bem como exemplos específicos de recursos, cenários e entre serviços, consulte o capítulo [Exemplos de código para o Amazon Transcribe usando AWS SDKs](service_code_examples.md).

```
from __future__ import print_function
import time
import boto3
transcribe = boto3.client('transcribe', 'us-west-2')
job_name = "my-first-transcription-job"
job_uri = "s3://amzn-s3-demo-bucket/my-input-files/my-media-file.flac"
transcribe.start_transcription_job(
    TranscriptionJobName = job_name,
    Media = {
        'MediaFileUri': job_uri
    },
    OutputBucketName = 'amzn-s3-demo-bucket',
    OutputKey = 'my-output-files/', 
    LanguageCode = 'en-US', 
    ToxicityDetection = [ 
        { 
            'ToxicityCategories': ['ALL']
        }
    ]
)

while True:
    status = transcribe.get_transcription_job(TranscriptionJobName = job_name)
    if status['TranscriptionJob']['TranscriptionJobStatus'] in ['COMPLETED', 'FAILED']:
        break
    print("Not ready yet...")
    time.sleep(5)
print(status)
```

## Exemplo de saída


 A fala tóxica é marcada e categorizada na saída da transcrição. Cada caso de fala tóxica é categorizado e recebe uma pontuação de confiança (um valor entre 0 e 1). Um valor de confiança maior indica uma maior probabilidade de que o conteúdo seja uma fala tóxica dentro da categoria especificada. 

### Exemplo de saída (JSON)


 Veja a seguir um exemplo de saída no formato JSON mostrando uma fala tóxica categorizada com as pontuações de confiança correspondentes. 

```
{
    "jobName": "my-toxicity-job",
    "accountId": "111122223333",
    "results": {
        "transcripts": [...],
        "items":[...],
        "toxicity_detection": [
            {
                "text": "What the * are you doing man? That's why I didn't want to play with your * .  man it was a no, no I'm not calming down * man. I well I spent I spent too much * money on this game.",
                "toxicity": 0.7638,
                "categories": {
                    "profanity": 0.9913,
                    "hate_speech": 0.0382,
                    "sexual": 0.0016,
                    "insult": 0.6572,
                    "violence_or_threat": 0.0024,
                    "graphic": 0.0013,
                    "harassment_or_abuse": 0.0249
                },
                "start_time": 8.92,
                "end_time": 21.45
            },
            Items removed for brevity
            {
                "text": "What? Who? What the * did you just say to me? What's your address? What is your * address? I will pull up right now on your * * man. Take your * back to , tired of this **.",
                "toxicity": 0.9816,
                "categories": {
                    "profanity": 0.9865,
                    "hate_speech": 0.9123,
                    "sexual": 0.0037,
                    "insult": 0.5447,
                    "violence_or_threat": 0.5078,
                    "graphic": 0.0037,
                    "harassment_or_abuse": 0.0613
                },
                "start_time": 43.459,
                "end_time": 54.639
            },
        ]
    },
    ...
    "status": "COMPLETED"
}
```