Mostrar registro simples

dc.contributor.advisorAlmeida, Paulo Ricardo Lisboa de, 1989-pt_BR
dc.contributor.otherUniversidade Federal do Paraná. Setor de Ciências Exatas. Curso de Especialização em Data Science & Big Datapt_BR
dc.creatorAvanço, Vitor Couto dept_BR
dc.date.accessioned2025-10-22T17:49:02Z
dc.date.available2025-10-22T17:49:02Z
dc.date.issued2025pt_BR
dc.identifier.urihttps://hdl.handle.net/1884/98956
dc.descriptionOrientador: Prof. Paulo R. Lisboa de Almeidapt_BR
dc.descriptionMonografia (especialização) - Universidade Federal do Paraná, Setor de Ciências Exatas, Curso de Especialização em Data Science & Big Datapt_BR
dc.descriptionInclui referênciaspt_BR
dc.description.abstractResumo: Este trabalho apresenta uma investigação experimental sobre o desempenho de diferentes arquiteturas de redes neurais profundas aplicadas à classificação de imagens. Foram avaliadas as redes MobileNetV3 Small, EfficientNet-B2 e ViT-B16, combinadas com os métodos de treinamento transfer learning e fine-tuning, sobre três conjuntos de dados com características distintas: FashionMNIST, CIFAR-10 e PKLot. A partir de cinco execuções independentes por experimento, foram analisadas acurácia, estabilidade dos resultados, tempo de inferência por imagem e tempo total de treinamento. Os resultados evidenciam que, embora algumas combinações apresentem acurácias superiores em determinados contextos, não há uma solução única que se destaque de forma consistente em todos os cenários avaliados. Além disso, os experimentos demonstram que métricas preditivas como a acurácia, embora relevantes, não são suficientes para embasar a escolha de um modelo, sendo fundamental considerar os custos computacionais e operacionais envolvidos em sua aplicação realpt_BR
dc.description.abstractAbstract: An experimental investigation into the performance of different deep neural network architectures applied to image classification tasks. The architectures MobileNetV3 Small, EfficientNet-B2, and ViT-B16 were evaluated in combination with the training methods Transfer Learning and Fine-Tuning across three datasets with distinct characteristics: FashionMNIST, CIFAR-10, and PKLot. Each experiment was independently executed five times, enabling the analysis of accuracy, result stability, inference time per image, and total training time. The results show that although some combinations achieved superior accuracy in specific contexts, no single architecture and training method consistently outperformed the others across all scenarios. Furthermore, the experiments demonstrate that predictive metrics such as accuracy, while important, are not sufficient to guide model selection, reinforcing the need to also consider computational and operational costs in real-world applicationspt_BR
dc.format.extent1 recurso online : PDF.pt_BR
dc.format.mimetypeapplication/pdfpt_BR
dc.languagePortuguêspt_BR
dc.subjectRedes neurais (Computação)pt_BR
dc.subjectImagens digitais - Gerenciamento de recursos de informaçãopt_BR
dc.subjectCustos e analise de custospt_BR
dc.titleAnálise de custo-benefício e desempenho de modelos pré-treinados em tarefas de classificação de imagenspt_BR
dc.typeTCC Especialização Digitalpt_BR


Arquivos deste item

Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples