Memorial de projetos : extração de atributos em visão computacional
Resumo
Resumo: A extração de atributos é um pilar da Visão Computacional, servindo como uma ponte que transforma dados brutos de imagem — volumosos e não estruturados — em representações compactas e significativas. Este processo é essencial para que as máquinas possam executar tarefas complexas como reconhecimento de objetos, segmentação e navegação autônoma. A principal motivação para essa extração é a maldição da dimensionalidade, um fenômeno onde a altíssima dimensão dos dados de imagem prejudica a eficiência dos algoritmos de aprendizado de máquina, tornando os dados esparsos e os modelos menos precisos. Historicamente, a área evoluiu de métodos manuais e heurísticos para abordagens automáticas impulsionadas pelo Deep Learning, que representou uma revolução. As redes neurais profundas são capazes de aprender hierarquias de características ricas e complexas diretamente dos dados, superando as limitações dos métodos antigos que descartavam muita informação para manter a tratabilidade computacional. No entanto, o poder e a escala das técnicas modernas de Deep Learning trazem desafios éticos e práticos significativos e interconectados. Questões como o viés algorítmico (importado de grandes conjuntos de dados), a privacidade, a segurança contra ataques adversariais, a falta de interpretabilidade dos modelos (o problema da caixa-preta) e o alto consumo de energia formam uma teia complexa de consequências. A busca por maior precisão muitas vezes agrava esses outros problemas. Portanto, embora a evolução da extração de atributos represente um notável avanço tecnológico, ela impõe a responsabilidade de gerenciar suas profundas e interligadas consequências sociais e técnicas Abstract: Feature extraction is a cornerstone of Computer Vision, serving as a bridge that transforms raw image data — which is bulky and unstructured — into compact and meaningful representations. This process is essential for machines to perform complex tasks such as object recognition, segmentation, and autonomous navigation. The primary motivation for this extraction is the "curse of dimensionality," a phenomenon where the extremely high dimension of image data impairs the efficiency of machine learning algorithms, making the data sparse and the models less accurate. Historically, the field has evolved from manual and heuristic methods to automated approaches driven by Deep Learning, which marked a revolution. Deep neural networks are capable of learning rich and complex hierarchies of features directly from data, overcoming the limitations of older methods that discarded too much information to maintain computational tractability. However, the power and scale of modern Deep Learning techniques bring significant and interconnected ethical and practical challenges. Issues such as algorithmic bias (imported from large datasets), privacy, security against adversarial attacks, the lack of model interpretability (the "black box" problem), and high energy consumption form a complex web of consequences. The pursuit of greater accuracy often exacerbates these other problems. Therefore, although the evolution of feature extraction represents a remarkable technological advancement, it imposes the responsibility of managing its profound and interlinked social and technical consequences