<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns="http://purl.org/rss/1.0/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/">
<channel rdf:about="https://hdl.handle.net/1884/32470">
<title>Ciências Exatas e da Terra</title>
<link>https://hdl.handle.net/1884/32470</link>
<description/>
<items>
<rdf:Seq>
<rdf:li rdf:resource="https://hdl.handle.net/1884/101490"/>
<rdf:li rdf:resource="https://hdl.handle.net/1884/101489"/>
<rdf:li rdf:resource="https://hdl.handle.net/1884/101487"/>
<rdf:li rdf:resource="https://hdl.handle.net/1884/101316"/>
</rdf:Seq>
</items>
<dc:date>2026-04-03T23:16:09Z</dc:date>
</channel>
<item rdf:about="https://hdl.handle.net/1884/101490">
<title>Comparação de métodos de aprendizado de máquina para predição de falhas de localização em robôs móveis</title>
<link>https://hdl.handle.net/1884/101490</link>
<description>Comparação de métodos de aprendizado de máquina para predição de falhas de localização em robôs móveis
Resumo: O presente trabalho compara quatro algoritmos de aprendizado de máquina para a predição de falhas de localização em robôs móveis autônomos. O método AMCL (Adaptive Monte Carlo Localization), amplamente utilizado com sensores LiDAR, pode apresentar falhas em ambientes com obstáculos dinâmicos, zonas com poucas características geométricas ou configurações simétricas. Com a finalidade de identificar qual algoritmo possui melhor desempenho na detecção antecipada dessas falhas, foram comparados os modelos Random Forest, Support Vector Machine (SVM), Multi-Layer Perceptron (MLP) e XGBoost, utilizando o dataset sintético Robot Localization Failure Prediction Dataset, composto por 417.185 amostras rotuladas de 21 experimentos em 7 ambientes simulados no NVIDIA Isaac Sim. A partir dos dados brutos foram extraídas 22 características de leituras LiDAR e da nuvem de partículas do filtro AMCL. Os modelos foram avaliados com múltiplas métricas e validação cruzada estratificada com 5 folds. Os resultados indicam que os modelos baseados em árvores apresentam o melhor desempenho, com destaque para Random Forest (F1-Score de 0,9604) e o XGBoost (F1 de 0,9516), sendo as características de dispersão das partículas as mais discriminativas. A Análise por tipo de ambiente revela que mapas simétricos representam maior desafio para todos os modelos. O código-fonte completo para replicação do experimento é disponibilizado como apêndice; Abstract: O presente trabalho compara quatro algoritmos de aprendizado de máquina para a predição de falhas de localização em robôs móveis autônomos. O método AMCL (Adaptive Monte Carlo Localization), amplamente utilizado com sensores LiDAR, pode apresentar falhas em ambientes com obstáculos dinâmicos, zonas com poucas características geométricas ou configurações simétricas. Com a finalidade de identificar qual algoritmo possui melhor desempenho na detecção antecipada dessas falhas, foram comparados os modelos Random Forest, Support Vector Machine (SVM), Multi-Layer Perceptron (MLP) e XGBoost, utilizando o dataset sintético Robot Localization Failure Prediction Dataset, composto por 417.185 amostras rotuladas de 21 experimentos em 7 ambientes simulados no NVIDIA Isaac Sim. A partir dos dados brutos foram extraídas 22 características de leituras LiDAR e da nuvem de partículas do filtro AMCL. Os modelos foram avaliados com múltiplas métricas e validação cruzada estratificada com 5 folds. Os resultados indicam que os modelos baseados em árvores apresentam o melhor desempenho, com destaque para Random Forest (F1-Score de 0,9604) e o XGBoost (F1 de 0,9516), sendo as características de dispersão das partículas as mais discriminativas. A Análise por tipo de ambiente revela que mapas simétricos representam maior desafio para todos os modelos. O código-fonte completo para replicação do experimento é disponibilizado como apêndice.
Orientador: Prof. Dr. Razer Anthon Nizer Rojas Montaño; Trabalho de Conclusão de Curso (especialização) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Curso de Especialização em Inteligência Artificial Aplicada; Inclui referências
</description>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</item>
<item rdf:about="https://hdl.handle.net/1884/101489">
<title>Memorial de projetos : análise do modelo transformer aplicado à tradução automática de textos</title>
<link>https://hdl.handle.net/1884/101489</link>
<description>Memorial de projetos : análise do modelo transformer aplicado à tradução automática de textos
Resumo: Neste trabalho apresenta-se um memorial técnico sobre a arquitetura de aprendizado de máquina conhecida como Transformers, considerada um dos avanços mais significativos no campo do Aprendizado Profundo nas últimas décadas. Proposta por Vaswani no artigo Attention Is All You Need, essa arquitetura representou uma mudança estrutural na forma como modelos computacionais processam sequências de dados. Diferentemente das abordagens tradicionais baseadas em recorrência, como as Redes Neurais Recorrentes (RNNs) e suas variações Long Short-Term Memory (LSTM) e Gated Recurrent Units (GRU), o Transformer fundamenta-se exclusivamente em mecanismos de atenção, eliminando a dependência sequencial e permitindo processamento paralelo dos dados. Essa inovação tornou possível maior eficiência computacional e melhor escalabilidade em cenários de grande volume de informações, além de mitigar problemas clássicos como o desaparecimento e explosão do gradiente em sequências longas. O mecanismo de autoatenção (selfattention) possibilita que cada elemento de uma sequência estabeleça relações diretas com todos os demais, capturando dependências de longo alcance e modelando contextos complexos de forma global. A introdução da codificação posicional permitiu preservar informações de ordem sem o uso de estruturas recorrentes, mantendo a integridade semântica das sequências. O impacto inicial dessa arquitetura foi observado no Processamento de Linguagem Natural (PLN), especialmente em tarefas como tradução automática, sumarização e geração de texto, mas sua aplicação rapidamente se expandiu para áreas como visão computacional, reconhecimento de fala, bioinformática e modelos multimodais. Atualmente, os Transformers constituem a base dos principais modelos de linguagem de larga escala e sistemas generativos contemporâneos. O objetivo deste estudo é analisar os fundamentos teóricos e matemáticos do Transformer, compreender as motivações que levaram ao seu desenvolvimento e examinar suas contribuições em relação aos modelos anteriores, bem como discutir os impactos científicos e tecnológicos decorrentes de sua ampla adoção na inteligência artificial moderna.; Abstract: This work presents a technical report on the machine learning architecture known as Transformers, considered one of the most significant advances in the field of Deep Learning in recent decades. Proposed by Vaswani in the article Attention Is All You Need, this architecture represented a structural shift in the way computational models process sequential data. Unlike traditional recurrence-based approaches, such as Recurrent Neural Networks (RNNs) and their Long Short-Term Memory (LSTM) and Gated Recurrent Units (GRU) variants, the Transformer is built entirely upon attention mechanisms, eliminating sequential dependency and enabling fully parallel data processing. This innovation allowed for greater computational efficiency and improved scalability in large-scale data scenarios, while mitigating classical issues such as vanishing and exploding gradients in long sequences. The self-attention mechanism enables each element of a sequence to establish direct relationships with all other elements, capturing long-range dependencies and modeling complex contextual interactions in a global manner. The introduction of positional encoding made it possible to preserve order information without relying on recurrent structures, maintaining the semantic integrity of sequences. The initial impact of this architecture was observed in Natural Language Processing (NLP), particularly in tasks such as machine translation, summarization, and text generation, but its application quickly expanded to areas including computer vision, speech recognition, bioinformatics, and multimodal models. Currently, Transformers form the foundation of state-of-the-art large-scale language models and contemporary generative systems. The objective of this study is to analyze the theoretical and mathematical foundations of the Transformer, understand the motivations behind its development, examine its contributions in comparison to previous models, and discuss the scientific and technological impacts resulting from its widespread adoption in modern artificial intelligence.
Orientador: Prof. Dr. Razer Anthom Nizer Rojas Montaño; Memorial de Projetos (especialização) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Curso de Especialização em Inteligência Artificial Aplicada; Inclui referências
</description>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</item>
<item rdf:about="https://hdl.handle.net/1884/101487">
<title>Memorial de projetos : a arquitetura long short-term memory (LSTM) no tratamento de dependências temporais</title>
<link>https://hdl.handle.net/1884/101487</link>
<description>Memorial de projetos : a arquitetura long short-term memory (LSTM) no tratamento de dependências temporais
Resumo: A arquitetura Long Short-Term Memory (LSTM), também conhecida comomemória de longo e curto prazo, constitui uma extensão das redes neurais recorrentesdesenvolvida com o propósito de mitigar os problemas de desvanecimento e explosãodo gradiente no treinamento de sequências temporais longas. Este parecer técnicoapresenta uma análise conceitual da LSTM, descrevendo seus fundamentos teóricosessenciais e sua relevância no processamento de dados sequenciais. São abordadosos principais elementos da arquitetura, com destaque para a célula de memória e paraos mecanismos de controle baseados em portas de entrada, esquecimento e saída,responsáveis pela regulação do fluxo de informações ao longo do tempo. Ressalta-seo papel do constant error carousel na preservação do gradiente e na aprendizagemde dependências temporais de longo alcance. O texto também discute as limitaçõesda LSTM, incluindo a elevada complexidade computacional, a necessidade degrandes volumes de dados para treinamento adequado, as restrições de paralelizaçãodecorrentes do processamento sequencial e as dificuldades de generalização paravalores extremos fora da distribuição de treinamento. Conclui-se que, emboraamplamente utilizada, a adoção da LSTM deve considerar a disponibilidade de dados,os recursos computacionais e as características das dependências temporaisenvolvidas, sendo, em alguns cenários, recomendável a avaliação de arquiteturasalternativas; Abstract: The Long Short-Term Memory (LSTM) architecture is an extension of recurrentneural networks designed to address the vanishing and exploding gradient problemsin the training of long temporal sequences. This technical report presents a conceptualanalysis of LSTM, outlining its main theoretical foundations and its relevance insequential data processing. The core components of the architecture are discussed,with emphasis on the memory cell and the gate-based control mechanisms, namelythe input, forget, and output gates, which regulate the flow of information over time.The role of the constant error carousel in preserving gradients and enabling thelearning of long-term temporal dependencies is highlighted. The report also examinesthe main limitations of LSTM, including high computational complexity, the requirementfor large datasets for effective training, limited parallelization due to sequentialprocessing, and challenges in generalizing to extreme values outside the training datadistribution. It is concluded that, although widely adopted, the use of LSTM should beevaluated considering data availability, computational resources, and the nature of thetemporal dependencies involved
Orientador: Prof. Dr. Jaime Wojciechowsk; Memorial de Projetos (especialização) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Curso de Especialização em Inteligência Artificial Aplicada; Inclui referências
</description>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</item>
<item rdf:about="https://hdl.handle.net/1884/101316">
<title>Memorial de projetos : desafios da inteligência artificial em sistemas de saúde</title>
<link>https://hdl.handle.net/1884/101316</link>
<description>Memorial de projetos : desafios da inteligência artificial em sistemas de saúde
Resumo: Este memorial tem a finalidade de apresentar a resolução dos problemasabordados nas disciplinas cursadas no curso. Aprofundando na resolução dasquestões propostas também foi realizado parecer técnico sobre a influência dainteligência artificial na área da saúde, suas previsões, avanços e possíveis problemasa serem enfrentados perante a inovação tecnológica. Com a corrida das grandescorporações de tecnologia e das empresas que produzem softwares para a área,abriu-se um caminho para melhorias, redução de custos e aportes de investimentospara evolução dos sistemas de saúde, porém as leis de regulação e governança nãoconseguem acompanhar a velocidade do avanço tecnológico criando um déficitquanto a padronização e legalidade das ações gerando desafios e dúvidas para umfuturo não muito distante. A crescente mobilização no mundo em torno destaregulação resulta em acordos internacionais e nacionais, que esbarram em desafioscomo acesso digital, segurança dos dados, questões éticas, transparência eautonomia profissiona; Abstract: This memorial aims to present the resolution of the problems addressed in thesubjects taken throughout the course. In addition to deepening the resolution of theproposed issues, a technical report was also prepared on the influence of artificialintelligence in the healthcare field, its predictions, advancements, and the possiblechallenges to be faced amid technological innovation. With the race among big techcompanies and software developers in the sector, a pathway has opened forimprovements, cost reduction, and increased investment to support the evolution ofhealthcare systems. However, regulatory and governance laws have not been able tokeep pace with the speed of technological advancement, creating a deficit in thestandardization and legality of actions, which generates challenges and doubts for thenot-so-distant future.The growing global mobilization toward such regulation hasresulted in international and national agreements, yet these efforts face obstacles suchas digital access, data security, ethical concerns, transparency, and professionalautonomy
Orientador: Prof. Dr. Razer Anthom Nizer Rojas Montaño; Memorial de Projetos (especialização) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Curso de Especialização em Inteligência Artificial Aplicada; Inclui referências
</description>
<dc:date>2026-01-01T00:00:00Z</dc:date>
</item>
</rdf:RDF>
