Memorial de Projetos : ética como responsabilidade no uso da inteligência artificial
Visualizar/ Abrir
Data
2025Autor
Lima, Alexandre Baptista Neiva de
Metadata
Mostrar registro completoResumo
Resumo: Este parecer técnico discute a ética como responsabilidade no uso da Inteligência Artificial, com ênfase em aplicações de Modelos de Linguagem de Grande Escala, como o ChatGPT. A análise parte de estudos de caso que evidenciam dilemas éticos em contextos educacionais e militares, destacando riscos relacionados a plágio, desinformação, vigilância, vieses algorítmicos e ausência de accountability em decisões automatizadas. O texto defende-se que a ética deve ser entendida como responsabilidade prática e coletiva, envolvendo desenvolvedores, empresas, governos e usuários. Além disso, enfatiza a necessidade de políticas públicas e institucionais que estabeleçam parâmetros claros para o uso responsável dessas tecnologias. São apresentados caminhos para o uso responsável da IA, como governança ética de dados, transparência algorítmica, regulação internacional e capacitação crítica de usuários. O parecer conclui que a integração entre inovação tecnológica e responsabilidade humana é essencial para assegurar que o desenvolvimento da IA ocorra de modo ético, inclusivo e sustentável, respeitando princípios de justiça, dignidade e equidade social. Assim, adotar a IA com responsabilidade é o passo fundamental para garantir que o progresso tecnológico se mantenha a serviço da humanidade e não à sua custa Abstract: This technical report discusses ethics as responsibility in the use of Artificial Intelligence (AI), with an emphasis on applications of Large Language Models such as ChatGPT. The analysis is based on case studies that highlight ethical dilemmas in educational and military contexts, emphasizing risks related to plagiarism, misinformation, surveillance, algorithmic bias, and the lack of accountability in automated decision-making. The text argues that ethics should be understood as a practical and collective responsibility, involving developers, companies, governments, and users. Furthermore, it emphasizes the need for public and institutional policies that establish clear parameters for the responsible use of these technologies. The report presents key pathways for responsible AI adoption, such as ethical data governance, algorithmic transparency, international regulation, and critical user training. It concludes that the integration between technological innovation and human responsibility is essential to ensure that AI development occurs in an ethical, inclusive, and sustainable manner, upholding the principles of justice, dignity, and social equity. Thus, adopting AI responsibly is the fundamental step to ensure that technological progress remains in service of humanity rather than at its expense