Mostrar registro simples

dc.contributor.advisorHexsel, Roberto, 1960-pt_BR
dc.contributor.otherUniversidade Federal do Paraná. Setor de Ciências Exatas. Programa de Pós-Graduação em Informáticapt_BR
dc.creatorMarques Filho, Sergio Luizpt_BR
dc.date.accessioned2024-10-16T12:36:55Z
dc.date.available2024-10-16T12:36:55Z
dc.date.issued2005pt_BR
dc.identifier.urihttps://hdl.handle.net/1884/1606
dc.descriptionOrientador: Roberto A. Hexselpt_BR
dc.descriptionDissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 2005pt_BR
dc.descriptionInclui bibliografiapt_BR
dc.description.abstractResumo: Esta dissertação avalia a utilização de Threads em conjunto com o padrão Message Passing Interface (MPl) para esconder a latência das operações de comunicação em máquinas com memória física e logicamente distribuída. Foram utilizados na avaliação três núcleos de aplicativos (kernels), que são Fast Fourier Transform (FFT), fatorização LU e ordenação Radix. Foram desenvolvidas versões com Threads a partir das versões que utilizam o padrão MPI. Para comparar as duas abordagens, foram executados experimentos para medir o tempo de execução dos programas com 2, 4, 8 e 16 computadores. Os experimentos foram executados para conjuntos de dados fixos e conjuntos com tamanhos crescentes com o número de processadores. Os resultados indicam que a utilização conjunta de threads e MPI pode reduzir o tempo de execução dos programas paralelos. Os ganhos médios obtidos foram 22% com o kernel Radix,e 16% com o kernel FFT. Os resultados para o kernel LU indicam que esta abordagem nem sempre compensa esforço adicional de programação.pt_BR
dc.description.abstractAbstract: This dissertation assesses the use of lightweight threads in parallel processes that communicate through the Message Passing Interface (MPI) to conceal the communication latency in systems with distributed memory. Three kernels were used to measure the performance of both approaches, namely Fast Fourier Transform (FFT), LU factorization and Radix sorting. New thread-based versions were developed from the original MPIbased code. Experiments were run to measure execution time in systems with 2, 4, fi and 16 computers, using both fixed-size and scaled data sets. The results show that using threads in MPI-based programs can indeed reduce the execution time of parallel programs. The threaded version of the Radix kernel achieves an average gain of 22% over non-threaded, while the gain was 16% for the FFT kernel. The results for the LU kernel suggest that the use of threads does not always justify the extra programing effort.pt_BR
dc.format.extentiv, 68f. : il., grafs., tabs.pt_BR
dc.format.mimetypeapplication/pdfpt_BR
dc.languagePortuguêspt_BR
dc.relationDisponível em formato digitalpt_BR
dc.subjectProgramação paralela (Computação)pt_BR
dc.subjectInterfaces (Computador)pt_BR
dc.subjectCiência da Computaçãopt_BR
dc.titleUma abordagem multithread em aplicações paralelas utilizando MPIpt_BR
dc.typeDissertaçãopt_BR


Arquivos deste item

Thumbnail

Este item aparece na(s) seguinte(s) coleção(s)

Mostrar registro simples