Mostrar registro simples

dc.contributor.advisorFigueiredo, Mauricio Fernandespt_BR
dc.contributor.otherUniversidade Federal do Paraná. Setor de Ciências Exatas. Programa de Pós-Graduação em Informáticapt_BR
dc.creatorRibas, Luiz Vinicius Marrapt_BR
dc.date.accessioned2024-03-28T17:11:24Z
dc.date.available2024-03-28T17:11:24Z
dc.date.issued2003pt_BR
dc.identifier.urihttps://hdl.handle.net/1884/26986
dc.descriptionOrientador : Maurício F. Figueiredopt_BR
dc.descriptionDissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informáticapt_BR
dc.description.abstractResumo: Os processadores comerciais atuais usam técnicas agressivas para a extração do paralelismo em nível de instrução com o objetivo de atingir maior desempenho. Uma destas técnicas, a previsão de desvios, é usada para antecipar a busca de instruções, manter contínuo o fluxo de instruções no pipeline e aumentar as chances de paralelização de instruções. A maioria dos previsores de desvios utiliza algoritmos triviais aplicados a informações comportamentais sobre os desvios contidas em tabelas atualizadas dinamicamente. Uma nova abordagem tem sido investigada recentemente visando substituir estes algoritmos triviais por redes neurais, com o objetivo de prover maior inteligência aos previsores. Os trabalhos realizados com previsores deste tipo ainda são introdutórios e por isso estudos mais profundos devem ser realizados. O presente trabalho analisa o desempenho da previsão de desvios baseada em rede neural do tipo Perceptron para cinco diferentes modelos de previsores propostos. O modelo UNI realiza a previsão através de um único Perceptron para todas as instruções dos programas. Os modelos TIP e END utilizam vários Perceptrons em tabelas acessadas pelo tipo ou endereço das instruções de desvios, respectivamente. Os modelos DNT e DNE possuem o mecanismo de previsão implementado em dois níveis e são extensões dos respectivos modelos em um nível (TIP e END). Estes modelos foram avaliados sob diferentes tamanhos de históricos de desvios (2 a 64), diferentes números de linhas (64 a 1024) e graus de associatividade (1 a 16) da tabela de Perceptrons, incluindo diferentes tipos de organização do previsor, LOCAL e GLOBAL, definindo a localização do histórico de desvios nos Perceptrons; e LG_AND e LG_OR, que combinam as saídas de LOCAL e GLOBAL segundo sua função lógica. As avaliações mostram que os previsores de dois níveis apresentam melhores resultados que os correspondentes de um nível, que o aumento das linhas da tabela para a mesma associatividade apresenta um ganho de desempenho e que há aumento de desempenho com o aumento da associatividade para o mesmo número de linhas da tabela. Os melhores resultados obtidos foram para programas de ponto flutuante e desvios para frente. As organizações LG_AND e LG_OR não apresentam contribuições representativas na previsão de desvios, ficando os melhores resultados para LOCAL e GLOBAL. De uma forma geral, o presente trabalho mostrou que o uso do Perceptron na previsão de desvio é atrativo e os resultados são equivalentes àqueles obtidos em trabalhos correlatos.pt_BR
dc.description.abstractAbstract: Nowadays, all commercial processors use aggressive techniques to extract high instruction level parallelism and to improve performance. One of these techniques, the branch prediction, is used to anticipate the instruction fetch, to maintain a continuous instruction stream in the pipeline and to increase the chances of obtaining instructions to be executed in parallel. Most of predictors use trivial algorithms, which work with behavior information of branches stored in tables that are updated dynamically. A new approach has been investigated to replace these trivial algorithms to neural networks, with the aim to add more intelligence to branch predictors. Work on this kind of predictor is current and new studies must be realized. This work analyses the performance of branch prediction Perceptron under five different proposed models. The UNI model makes prediction with a single Perceptron that receives all branch instructions of the programs. The models TIP and END use several Perceptrons arranged in tables indexed by branch type or branch address, respectively. The models DNT and DNE have a two-level prediction mechanism and are extensions of the models TIP and AND, respectively. All prediction models were evaluated under different configurations for branch history sizes (2 up to 64), number of lines (64 up to 1024) and associativity (1 up to 16) of the Perceptron tables. In addition, different types of predictor organization where LOCAL and GLOBAL, that define the branch history distribution in analyzed Perceptron tables, and LG_AND and LG_OR, that combine LOCAL and GLOBAL outputs. The results show that two-level predictors have better performance than their one-level counterparts. Also the increase of table size using fixed associativity improves predictor performance. Moreover, the performance of the predictor increases when enlarging associativity to the same table line number. Floating-point programs have better performance than integer programs. Forward branches have better performance than backward branches. The performance attained using LG_AND and LG_OR organizations is worst than with LOCAL and GLOBAL organizations. In a general way, this work showed that the use of Perceptron in branch prediction is viable and the results are close to ones from other techniques.pt_BR
dc.format.extentxiv, 152p. : il., tabs.pt_BR
dc.format.mimetypeapplication/pdfpt_BR
dc.languagePortuguêspt_BR
dc.relationDisponivel em formato digitalpt_BR
dc.subjectRedes neurais (Computação)pt_BR
dc.subjectArquitetura de computadorpt_BR
dc.subjectCiência da Computaçãopt_BR
dc.titleUso de redes neurais na previsão de desvios em arquiteturas superescalarespt_BR
dc.typeDissertaçãopt_BR


Arquivos deste item

Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples