dc.description.abstract | Resumo : Este trabalho apresenta o desenvolvimento de um sistema de tradução automática de gestos da Língua Brasileira de Sinais (LIBRAS) para texto e fala em tempo real, utilizando técnicas avançadas de visão computacional e aprendizado profundo. A solução foi projetada com base em bibliotecas como OpenCV e MediaPipe, responsáveis pela captura e interpretação de gestos a partir de keypoints das mãos, rosto e corpo. Os gestos foram segmentados em estáticos e dinâmicos, sendo os primeiros classificados por um modelo Random Forest, que atingiu 98,65% de precisão, e os dinâmicos, por uma rede LSTM, com acurácia de 96,5% no conjunto de teste.O trabalho incluiu a aquisição de dados de gestos, o pré-processamento para assegurar consistência e qualidade, e a implementação de um sistema integrado capaz de traduzir os gestos reconhecidos em áudio e texto. Além disso, o sistema foi validado em diferentes condições de captura, como iluminação, ângulos e posições. Os resultados demonstraram que a solução é eficaz na promoção da inclusão social e da acessibilidade, permitindo que pessoas surdas e ouvintes se comuniquem de maneira eficiente e natural. Este projeto evidencia o potencial das tecnologias assistivas no Brasil e contribui para a democratização do acesso à comunicação | pt_BR |