Incluindo Reconhecimento de Fala em seu App Flutter
Incluindo Reconhecimento de Fala em seu App Flutter
A inclusão de reconhecimento de fala em aplicações móveis pode aprimorar significativamente a experiência do usuário, tornando a interação mais intuitiva e acessível. Neste artigo, vamos explorar como implementar o reconhecimento de fala em uma aplicação Flutter utilizando a biblioteca speech_to_text. Abordaremos desde a configuração inicial até a integração completa com exemplos de código. Mostraremos, também, como configurar para reconhecer a fala no idioma português brasileiro. O aplicativo que vamos desenvolver é bem simples e a tela pode ser vista abaixo:
Pré-requisitos
Antes de começarmos, certifique-se de ter o seguinte:
- Flutter instalado: Verifique se você possui o Flutter SDK instalado e configurado no seu ambiente de desenvolvimento. Instruções neste link.
 - Dispositivo ou Emulador Android: Para testar a funcionalidade de reconhecimento de fala no Android.
 
Passo 1: Criando o Projeto Flutter
Primeiro, crie um novo projeto Flutter ou abra um existente onde você deseja adicionar a funcionalidade de reconhecimento de fala.
$ flutter create stt
$ cd stt
Passo 2: Adicionando a Dependência speech_to_text
Execute os seguintes comandos para adicionar as bibliotecas necessárias:
$ flutter pub add speech_to_text
$ flutter pub get
_escuta(), _paraEscuta() e _capturaFala(result). O método _escuta() inicia a escuta do reconhecimento de fala e define o método _capturaFala como o callback que processará os resultados reconhecidos, chamando setState() para atualizar a interface do usuário. O método _paraEscuta() interrompe a escuta do reconhecimento de fala, também chamando setState() para garantir que a interface do usuário seja atualizada. Por fim, o método _capturaFala(result) recebe os resultados do reconhecimento de fala e atualiza a variável _fala com as palavras reconhecidas, novamente chamando setState() para refletir essa mudança na interface do usuário.Nas linhas de 72 a 109 temos a definição da interface com o usuário. O método build constrói a interface do usuário do aplicativo, retornando um widget Scaffold que contém uma barra de aplicativo (AppBar) com o título centralizado e um fundo azul. No corpo da tela, há uma coluna centralizada que exibe um texto que varia conforme o estado do reconhecimento de fala: se está escutando, se está habilitado ou se a escuta não está disponível. Abaixo, uma linha divisória é seguida por um texto que exibe as palavras reconhecidas armazenadas na variável _fala, em verde. Um botão flutuante (FloatingActionButton) permite ao usuário iniciar ou parar a escuta, mudando seu ícone e função com base no estado do reconhecimento de fala.
Chegamos ao final de nosso Post. O código fonte pode ser obtido no Github. Se esse Post foi útil para você, por favor, considere deixar um comentário.

.png)
Comentários
Postar um comentário