Incluindo Reconhecimento de Fala em seu App Flutter
Incluindo Reconhecimento de Fala em seu App Flutter
A inclusão de reconhecimento de fala em aplicações móveis pode aprimorar significativamente a experiência do usuário, tornando a interação mais intuitiva e acessível. Neste artigo, vamos explorar como implementar o reconhecimento de fala em uma aplicação Flutter utilizando a biblioteca speech_to_text. Abordaremos desde a configuração inicial até a integração completa com exemplos de código. Mostraremos, também, como configurar para reconhecer a fala no idioma português brasileiro. O aplicativo que vamos desenvolver é bem simples e a tela pode ser vista abaixo:
Pré-requisitos
Antes de começarmos, certifique-se de ter o seguinte:
- Flutter instalado: Verifique se você possui o Flutter SDK instalado e configurado no seu ambiente de desenvolvimento. Instruções neste link.
- Dispositivo ou Emulador Android: Para testar a funcionalidade de reconhecimento de fala no Android.
Passo 1: Criando o Projeto Flutter
Primeiro, crie um novo projeto Flutter ou abra um existente onde você deseja adicionar a funcionalidade de reconhecimento de fala.
$ flutter create stt
$ cd stt
Passo 2: Adicionando a Dependência speech_to_text
Execute os seguintes comandos para adicionar as bibliotecas necessárias:
$ flutter pub add speech_to_text
$ flutter pub get
_escuta()
, _paraEscuta()
e _capturaFala(result)
. O método _escuta()
inicia a escuta do reconhecimento de fala e define o método _capturaFala
como o callback que processará os resultados reconhecidos, chamando setState()
para atualizar a interface do usuário. O método _paraEscuta()
interrompe a escuta do reconhecimento de fala, também chamando setState()
para garantir que a interface do usuário seja atualizada. Por fim, o método _capturaFala(result)
recebe os resultados do reconhecimento de fala e atualiza a variável _fala
com as palavras reconhecidas, novamente chamando setState()
para refletir essa mudança na interface do usuário.Nas linhas de 72 a 109 temos a definição da interface com o usuário. O método build
constrói a interface do usuário do aplicativo, retornando um widget Scaffold
que contém uma barra de aplicativo (AppBar
) com o título centralizado e um fundo azul. No corpo da tela, há uma coluna centralizada que exibe um texto que varia conforme o estado do reconhecimento de fala: se está escutando, se está habilitado ou se a escuta não está disponível. Abaixo, uma linha divisória é seguida por um texto que exibe as palavras reconhecidas armazenadas na variável _fala
, em verde. Um botão flutuante (FloatingActionButton
) permite ao usuário iniciar ou parar a escuta, mudando seu ícone e função com base no estado do reconhecimento de fala.
Chegamos ao final de nosso Post. O código fonte pode ser obtido no Github. Se esse Post foi útil para você, por favor, considere deixar um comentário.
Comentários
Postar um comentário