Memorial de projetos : neutralidade algorítmica e transparência na inteligência artificial
Visualizar/ Abrir
Data
2025Autor
Serpa, Eduardo Marchetti de Araujo
Metadata
Mostrar registro completoResumo
Resumo: Este trabalho analisa os desafios éticos, sociais e regulatórios relacionados ao uso crescente da Inteligência Artificial (IA), com ênfase na neutralidade algorítmica, na transparência e na responsabilidade dos processos decisórios automatizados. Embora a IA proporcione avanços expressivos em eficiência, personalização e análise de grandes volumes de dados, diversos estudos demonstram que algoritmos podem reproduzir e até amplificar desigualdades humanas pré-existentes. Casos como falhas em sistemas de reconhecimento facial, vieses em ferramentas de recrutamento e decisões discriminatórias em análises de crédito ilustram os riscos à equidade, à inclusão e aos direitos fundamentais. A falta de mecanismos robustos de explicabilidade, auditoria e supervisão humana compromete a confiança pública e a legitimidade das instituições. Para mitigar esses impactos, propõe-se a adoção de um framework de governança algorítmica sustentado em três pilares: diversidade e qualidade dos dados, transparência dos processos e conformidade regulatória. A integração entre tecnologia, ética e direito é essencial para assegurar o desenvolvimento de sistemas justos, auditáveis e responsáveis, alinhados aos princípios de equidade e proteção de direitos no contexto da transformação digital Abstract: This paper analyzes the ethical, social, and regulatory challenges associated with the growing use of Artificial Intelligence (AI), emphasizing algorithmic neutrality, transparency, and accountability in automated decision-making processes. Although AI offers remarkable advances in efficiency, personalization, and the analysis of large volumes of data, numerous studies show that algorithms can reproduce and even amplify pre-existing human inequalities. Cases such as failures in facial recognition systems, biases in recruitment tools, and discriminatory decisions in credit analysis illustrate the risks to equity, inclusion, and fundamental rights. The lack of robust mechanisms for explainability, auditing, and human oversight undermines public trust and institutional legitimacy. To mitigate these impacts, this study proposes the adoption of an algorithmic governance framework based on three pillars: data diversity and quality, process transparency, and regulatory compliance. Integrating technology, ethics, and law is essential to ensure the development of fair, auditable, and accountable systems aligned with the principles of equity and rights protection in the context of digital transformation