Mostrar registro simples

dc.contributor.advisorFontana, Rafaela Mantovani, 1981-pt_BR
dc.contributor.otherUniversidade Federal do Paraná. Setor de Educação Profissional e Tecnológica. Curso de Especialização em Inteligência Artificial Aplicadapt_BR
dc.creatorVidal, Cassiano Kruchelskipt_BR
dc.date.accessioned2025-09-15T18:49:34Z
dc.date.available2025-09-15T18:49:34Z
dc.date.issued2025pt_BR
dc.identifier.urihttps://hdl.handle.net/1884/98390
dc.descriptionOrientador: Profa. Dra. Rafaela Mantovani Fontanapt_BR
dc.descriptionMonografia (especialização) - Universidade Federal do Paraná, Setor de Educação Profissional e Tecnológica, Curso de Especialização em Inteligência Artificial Aplicadapt_BR
dc.descriptionInclui referênciaspt_BR
dc.description.abstractResumo: A utilização de IA generativa em aplicações de chatbot tem um grande um potencial de trazer uma experiência de usuário muito mais elevada do ponto de vista de fluidez da conversa ao comparar com chatbots mais tradicionais que normalmente se atêm a um tipo de script rígido com respostas padronizadas. Ao utilizar um modelo de LLM, como por exemplo o GPT-4o-mini da OpenAI, é possível simular um tipo de conversação mais próximo da humana o que abre as possibilidades de aplicação desses bots em diversas áreas como suporte técnico e vendas de produtos. A combinação de uma LLM com um chatbot apresenta diversos desafios como ter um modelo treinado e com o devido conhecimento do negócio para que consiga, de fato, atingir o objetivo proposta que, de forma genérica, pode se resumir em atender à pessoa usuária que está o utilizando. Existem vários processos que podem ser aplicados para se ter um modelo devidamente apto para atendimento ao público, sendo que os principais são: treinamento (fine tuning), prompt engineering e Retrieval Augmented Generation. Esse trabalho apresenta uma proposta de implementação de uma solução que combina alguns modelos (aqui chamados IAs auxiliares) com uma IA principal, aplicando dynamic prompting e RAG para geração de respostas mais precisas e contextualizadas para cada caso específico de uma pessoa usuária do chatbotpt_BR
dc.description.abstractAbstract: The use of generative AI in chatbot applications has great potential to provide a much better user experience in terms of conversation fluidity when compared to more traditional chatbots that typically stick to a rigid script with standardized responses. By using an LLM model, such as OpenAI's GPT-4o-mini, it is possible to simulate a type of conversation that is closer to human, which opens up the possibilities of applying these bots in various areas such as technical support and product sales. The combination of an LLM with a chatbot presents several challenges, such as having a trained model with the necessary knowledge of the business so that it can, in fact, achieve the proposed objective, which, in general terms, can be summarized as serving the user who is using it. There are several processes that can be applied to have a model that is properly suited to customer service, the main ones being: training (fine tuning), prompt engineering and Retrieval-Augmented Generation. This work presents a proposal for implementing a solution that combines some models (here called auxiliary AIs) with a main AI, applying dynamic prompting and RAG to generate more precise and contextualized responses for each specific case of a person using the chatbotpt_BR
dc.format.extent1 recurso online : PDF.pt_BR
dc.format.mimetypeapplication/pdfpt_BR
dc.languagePortuguêspt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectChatbotspt_BR
dc.titleMemorial de projetos : proposta de aplicação de chatbot utilizando IA generativa, prompts dinâmicos e ragpt_BR
dc.typeTCC Especialização Digitalpt_BR


Arquivos deste item

Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples