Atenção é quase tudo que você precisa : vieses e riscos da interação entre humanos e LLM’s
Resumo
Resumo : Este estudo busca analisar a interação entre humanos e sistemas de Inteligência Artificial (IA) sob a perspectiva da economia comportamental, enfatizando a racionalidade limitada e os vieses cognitivos. Destaca-se que, diante das limitações cognitivas, indivíduos frequentemente recorrem a atalhos mentais que podem resultar em decisões subótimas. Com a rápida adoção de Modelos de Linguagem Largos, como ChatGPT e Gemini, esses desafios intensificam-se, gerando problemas relacionados à confiança dos usuários e à sobrecarga cognitiva. A dificuldade de compreender a relação entre entradas de dados e saídas somada a imprecisão desses modelos potencializam riscos associados à interpretação errônea das recomendações, especialmente quando usuários confiam excessivamente nas previsões algorítmicas. Diante disso, o artigo revisa conceitos fundamentais da psicologia econômica e investiga estudos empíricos recentes que ilustram claramente como a dinâmica de confiança e manipulação algorítmica influenciam decisões humanas. Além disso, são examinadas abordagens da Inteligência Artificial Explicável (XAI) e estratégias de desenviesamento, com propostas práticas para mitigar riscos e maximizar os benefícios das interações humano-IA. Este trabalho destaca que as interações entre humanos e sistemas de inteligência artificial são significativamente influenciadas por limitações cognitivas humanas e imperfeições intrínsecas dos algoritmos, resultando frequentemente em decisões enviesadas. Vieses como confiança excessiva, viés de confirmação, aversão à perda e ancoragem são exacerbados pelas características próprias dos modelos de IA. Intervenções estruturadas de desenviesamento mostraram-se eficazes, especialmente quando combinam treinamentos específicos, feedback externo detalhado e práticas deliberativas como checklists e pausas obrigatórias para reflexão Abstract : This study aims to analyze the interaction between humans and Artificial Intelligence (AI) systems from the perspective of behavioral economics, emphasizing bounded rationality and cognitive biases. It underscores that, faced with cognitive limitations, individuals often rely on mental shortcuts that can lead to suboptimal decisions. With the rapid adoption of Large Language Models such as ChatGPT and Gemini, these challenges are amplified, giving rise to issues of user trust and cognitive overload. The difficulty of understanding the relationship between input data and outputs, coupled with these models’ imprecision, heightens the risk of misinterpreting recommendations, especially when users place undue confidence in algorithmic forecasts. In light of this, the article reviews core concepts from economic psychology and examines recent empirical studies that clearly illustrate how the dynamics of trust and algorithmic manipulation influence human decisions. Furthermore, it explores approaches in Explainable AI (XAI) and debiasing strategies, offering practical proposals to mitigate risks and maximize the benefits of human–AI interactions. This work highlights that interactions between humans and AI systems are significantly shaped by human cognitive constraints and the algorithms’ intrinsic imperfections, often resulting in biased decisions. Biases such as overconfidence, confirmation bias, loss aversion, and anchoring are exacerbated by the very nature of AI models. Structured debiasing interventions have proven effective, particularly when they combine targeted training, detailed external feedback, and deliberative practices such as checklists and mandatory reflection pauses
Collections
- Ciências Econômicas [2176]