dc.contributor.advisor | Siqueira, Abel Soares, 1986- | pt_BR |
dc.contributor.other | Universidade Federal do Paraná. Setor de Ciências Exatas. Curso de Graduação em Matemática | pt_BR |
dc.creator | Silva, Rogério Otavio Mainardes da | pt_BR |
dc.date.accessioned | 2024-01-23T21:56:23Z | |
dc.date.available | 2024-01-23T21:56:23Z | |
dc.date.issued | 2021 | pt_BR |
dc.identifier.uri | https://hdl.handle.net/1884/86192 | |
dc.description | Orientador: Prof. Dr. Abel Soares Siqueira | pt_BR |
dc.description | Trabalho de Conclusão de Curso (graduação) - Universidade Federal do Paraná, Setor de Ciências Exatas, Curso de Graduação em Matemática | pt_BR |
dc.description | Inclui referências | pt_BR |
dc.description.abstract | Resumo : Neste trabalho estudamos e implementamos os algoritmos do Gradiente Descendente e Gradiente Estocástico com mini-batch, algoritmos clássicos do contexto da Aprendizagem de Máquina implementados aqui em um pacote de linguagem Julia para a resolução de problemas de Regressão Linear e Logística. Apresentamos os conceitos e definições básicas da Aprendizagem de Máquina e a formulação dos problemas de Regressão Linear e Logística. Para a resolução destes problemas, são introduzidos conceitos de otimização e a construção dos algoritmos com seus devidos embasamentos teóricos. Além disso, são apontados os detalhes e particularidades da implementação do algoritmo, com suas motivações e testes de funcionalidade | pt_BR |
dc.format.extent | 1 recurso online : PDF. | pt_BR |
dc.format.mimetype | application/pdf | pt_BR |
dc.language | Português | pt_BR |
dc.subject | Inteligência artificial | pt_BR |
dc.subject | Aprendizado do computador | pt_BR |
dc.subject | Algorítmos de computador | pt_BR |
dc.subject | Otimização matemática | pt_BR |
dc.subject | Julia (Linguagem de programação de computador) | pt_BR |
dc.title | Método do gradiente estocástico para otimização de funções separáveis em aprendizagem de máquina | pt_BR |
dc.type | TCC Graduação Digital | pt_BR |