Desenvolvimento e avaliação de um modelo de inteligência artificial para diagnóstico de doenças otológicas a partir de imagens de otoscopia
Resumo
Resumo: A otite média e suas diversas apresentações clínicas permanecem entre as principais causas de morbidade otológica, especialmente em populações pediátricas. A acurácia diagnóstica baseada em otoscopia convencional é limitada pela variabilidade interobservador e pela dependência da experiência do examinador. Este estudo desenvolveu e avaliou internamente um modelo de inteligência artificial baseado em redes neurais convolucionais profundas, estruturado em três cabeças de saída, capaz de estimar simultaneamente variáveis de intensidade (contínuas), variáveis binárias e probabilidades diagnósticas a partir de imagens otoscópicas obtidas com dispositivo digital de baixo custo (BeBird®). Após padronização, pré-processamento e vinculação de 88 imagens válidas às respectivas anotações clínicas, o modelo foi treinado com particionamento estratificado em conjuntos de treino, validação e teste. Os resultados demonstraram adequação técnica do pipeline proposto e desempenho consistente nas três categorias de saída, com erro absoluto médio reduzido nas variáveis contínuas, acurácia satisfatória nas probabilidades diagnósticas toleradas e sensibilidade e especificidade clinicamente relevantes para variáveis binárias. As visualizações Grad-CAM indicaram coerência entre as regiões de atenção do modelo e os achados otoscópicos centrais para inferência diagnóstica. A integração entre IA e otoscopia digital mostrou-se viável, com potencial para apoiar a triagem, reduzir variabilidade diagnóstica e oferecer suporte a cenários de tele-otoscopia e atenção primária. Conclui-se que o modelo apresenta desempenho inicial promissor e pode servir como base para validações externas futuras, integração clínica progressiva e aprimoramento da otologia digital assistida por IA Abstract: Otitis media and its clinical subtypes remain leading causes of otologic morbidity, yet diagnostic accuracy based on conventional otoscopy is strongly limited by examiner experience and high interobserver variability. This study developed and internally validated a deep learning–based artificial intelligence model designed to analyze low-cost digital otoscopic images and simultaneously generate three types of outputs: continuous intensity scores, binary clinical variables, and probabilistic diagnostic estimates. A dataset of 88 valid images was standardized, matched to structured expert annotations, preprocessed, and split into stratified training, validation, and testing subsets. The proposed multi-output architecture, built upon EfficientNetB0, demonstrated robust technical feasibility, with low mean absolute error for continuous parameters, clinically relevant accuracy for diagnostic probability estimates, and satisfactory sensitivity and specificity for binary variables. Grad-CAM visualizations indicated adequate interpretability, with activation maps focusing on tympanic membrane regions that correspond to clinically meaningful findings. These results highlight the potential of artificial intelligence to enhance diagnostic consistency, support tele-otoscopy workflows, and assist non-specialists in primary care environments. The model’s performance suggests that multi-output frameworks may better approximate real-world clinical reasoning, representing a promising foundation for future external validation studies and progressive clinical implementation
Collections
- Otorrinolaringologia [10]