Mostrar registro simples

dc.contributor.advisorWojciechowski, Jaime, 1965-pt_BR
dc.contributor.otherUniversidade Federal do Paraná. Setor de Educação Profissional e Tecnológica. Curso de Especialização em Inteligência Artificial Aplicadapt_BR
dc.creatorBunhak, Bruno Pieperpt_BR
dc.date.accessioned2026-04-01T19:11:21Z
dc.date.available2026-04-01T19:11:21Z
dc.date.issued2026pt_BR
dc.identifier.urihttps://hdl.handle.net/1884/101487
dc.descriptionOrientador: Prof. Dr. Jaime Wojciechowskpt_BR
dc.descriptionMemorial de Projetos (especialização) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Curso de Especialização em Inteligência Artificial Aplicadapt_BR
dc.descriptionInclui referênciaspt_BR
dc.description.abstractResumo: A arquitetura Long Short-Term Memory (LSTM), também conhecida comomemória de longo e curto prazo, constitui uma extensão das redes neurais recorrentesdesenvolvida com o propósito de mitigar os problemas de desvanecimento e explosãodo gradiente no treinamento de sequências temporais longas. Este parecer técnicoapresenta uma análise conceitual da LSTM, descrevendo seus fundamentos teóricosessenciais e sua relevância no processamento de dados sequenciais. São abordadosos principais elementos da arquitetura, com destaque para a célula de memória e paraos mecanismos de controle baseados em portas de entrada, esquecimento e saída,responsáveis pela regulação do fluxo de informações ao longo do tempo. Ressalta-seo papel do constant error carousel na preservação do gradiente e na aprendizagemde dependências temporais de longo alcance. O texto também discute as limitaçõesda LSTM, incluindo a elevada complexidade computacional, a necessidade degrandes volumes de dados para treinamento adequado, as restrições de paralelizaçãodecorrentes do processamento sequencial e as dificuldades de generalização paravalores extremos fora da distribuição de treinamento. Conclui-se que, emboraamplamente utilizada, a adoção da LSTM deve considerar a disponibilidade de dados,os recursos computacionais e as características das dependências temporaisenvolvidas, sendo, em alguns cenários, recomendável a avaliação de arquiteturasalternativaspt_BR
dc.description.abstractAbstract: The Long Short-Term Memory (LSTM) architecture is an extension of recurrentneural networks designed to address the vanishing and exploding gradient problemsin the training of long temporal sequences. This technical report presents a conceptualanalysis of LSTM, outlining its main theoretical foundations and its relevance insequential data processing. The core components of the architecture are discussed,with emphasis on the memory cell and the gate-based control mechanisms, namelythe input, forget, and output gates, which regulate the flow of information over time.The role of the constant error carousel in preserving gradients and enabling thelearning of long-term temporal dependencies is highlighted. The report also examinesthe main limitations of LSTM, including high computational complexity, the requirementfor large datasets for effective training, limited parallelization due to sequentialprocessing, and challenges in generalizing to extreme values outside the training datadistribution. It is concluded that, although widely adopted, the use of LSTM should beevaluated considering data availability, computational resources, and the nature of thetemporal dependencies involvedpt_BR
dc.format.extent1 recurso online : PDF.pt_BR
dc.format.mimetypeapplication/pdfpt_BR
dc.languagePortuguêspt_BR
dc.subjectInteligência artificial - Aplicações científicaspt_BR
dc.subjectAprendizado do computadorpt_BR
dc.subjectRedes neurais (Computação)pt_BR
dc.titleMemorial de projetos : a arquitetura long short-term memory (LSTM) no tratamento de dependências temporaispt_BR
dc.typeTCC Especialização Digitalpt_BR


Arquivos deste item

Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples