• Entrar
    Ver item 
    •   Página inicial
    • BIBLIOTECA DIGITAL: Trabalhos de Especialização
    • Ciências Exatas e da Terra
    • Data Science & Big Data
    • Ver item
    •   Página inicial
    • BIBLIOTECA DIGITAL: Trabalhos de Especialização
    • Ciências Exatas e da Terra
    • Data Science & Big Data
    • Ver item
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Análise de custo-benefício e desempenho de modelos pré-treinados em tarefas de classificação de imagens

    Thumbnail
    Visualizar/Abrir
    R - E - VITOR COUTO DE AVANCO.pdf (1.023Mb)
    Data
    2025
    Autor
    Avanço, Vitor Couto de
    Metadata
    Mostrar registro completo
    Resumo
    Resumo: Este trabalho apresenta uma investigação experimental sobre o desempenho de diferentes arquiteturas de redes neurais profundas aplicadas à classificação de imagens. Foram avaliadas as redes MobileNetV3 Small, EfficientNet-B2 e ViT-B16, combinadas com os métodos de treinamento transfer learning e fine-tuning, sobre três conjuntos de dados com características distintas: FashionMNIST, CIFAR-10 e PKLot. A partir de cinco execuções independentes por experimento, foram analisadas acurácia, estabilidade dos resultados, tempo de inferência por imagem e tempo total de treinamento. Os resultados evidenciam que, embora algumas combinações apresentem acurácias superiores em determinados contextos, não há uma solução única que se destaque de forma consistente em todos os cenários avaliados. Além disso, os experimentos demonstram que métricas preditivas como a acurácia, embora relevantes, não são suficientes para embasar a escolha de um modelo, sendo fundamental considerar os custos computacionais e operacionais envolvidos em sua aplicação real
     
    Abstract: An experimental investigation into the performance of different deep neural network architectures applied to image classification tasks. The architectures MobileNetV3 Small, EfficientNet-B2, and ViT-B16 were evaluated in combination with the training methods Transfer Learning and Fine-Tuning across three datasets with distinct characteristics: FashionMNIST, CIFAR-10, and PKLot. Each experiment was independently executed five times, enabling the analysis of accuracy, result stability, inference time per image, and total training time. The results show that although some combinations achieved superior accuracy in specific contexts, no single architecture and training method consistently outperformed the others across all scenarios. Furthermore, the experiments demonstrate that predictive metrics such as accuracy, while important, are not sufficient to guide model selection, reinforcing the need to also consider computational and operational costs in real-world applications
     
    URI
    https://hdl.handle.net/1884/98956
    Collections
    • Data Science & Big Data [163]

    DSpace software copyright © 2002-2022  LYRASIS
    Entre em contato | Deixe sua opinião
    Theme by 
    Atmire NV
     

     

    Navegar

    Todo o repositórioComunidades e ColeçõesPor data do documentoAutoresTítulosAssuntosTipoEsta coleçãoPor data do documentoAutoresTítulosAssuntosTipo

    Minha conta

    EntrarCadastro

    Estatística

    Ver as estatísticas de uso

    DSpace software copyright © 2002-2022  LYRASIS
    Entre em contato | Deixe sua opinião
    Theme by 
    Atmire NV