Show simple item record

dc.contributor.authorMattos, Antonio Junior dept_BR
dc.contributor.otherAlmeida, Eduardo Cunha dept_BR
dc.contributor.otherUniversidade Federal do Paraná. Setor de Ciências Exatas. Programa de Pós-Graduação em Informáticapt_BR
dc.date.accessioned2018-06-26T18:40:59Z
dc.date.available2018-06-26T18:40:59Z
dc.date.issued2011pt_BR
dc.identifier.urihttp://hdl.handle.net/1884/34984
dc.descriptionOrientador : Prof. Dr. Eduardo C. de Almeidapt_BR
dc.descriptionDissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/11/2011pt_BR
dc.descriptionBibliografia: fls. 47-49pt_BR
dc.description.abstractResumo: 1.1 Motivação. MapReduce [13] tornou-se o padrão de industrial para processamento paralelo de grandes conjuntos de dados. Grandes companhias e institutos de pesquisa utilizam esse framework para processarem seus dados. Como para qualquer outro software, teste pode ser utilizado para avaliar a qualidade de aplicações MapReduce, chamadas jobs. Porém, jobs MapReduce trabalham com grandes quantidades de dados, e gerar dados de teste relevantes que possam revelar problemas na qualidade desses jobs é uma grande dificuldade. Algumas ferramentas de teste para jobs MapReduce estão disponíveis [1, 2, 18]. Entretanto, nenhuma delas gera dados de teste. 1.2 Contribuíção. O trabalho apresentado aqui contribui para o estabelecimento de técnicas sistemáticas de teste para jobs MapReduce, atráves das seguintes propostas: modelos de falha que focam em problemas de design em separar uma tarefa entre funções Map e Reduce; uma técnica automática de busca para gerar dados de teste que objetivam essas falhas; uma série de experimentos que ilustram a dificuldade de detectar essas falhas e a capacidade da nossa solução em gerar dados de teste relevantes.pt_BR
dc.description.abstractAbstract: MapReduce is a framework for parallel processing large data sets, which is largely adopted for complex web applications and data processing. The framework proposes a simple interface, based on two high-order functions, allowing the rapid development of large-scale distributed software. Among the many aspects of MapReduce software development, producing reliable, correct and efficient software is an obvious target. We present an automatic test data generation and qualification approach for MapReduce applications, also called jobs. This approach uses an evolutionary algorithm to generate the test data and proposes domain-specific mutation operators to evaluate the quality of the data through mutation analysis. We validated this framework through implementation and experimentation on different MapReduce jobs.pt_BR
dc.format.extent49f. : il., grafs., tabs.pt_BR
dc.format.mimetypeapplication/pdfpt_BR
dc.languagePortuguêspt_BR
dc.relationDisponível em formato digitalpt_BR
dc.subjectTesespt_BR
dc.subjectAlgoritmos geneticospt_BR
dc.subjectProgramação (Computadores)pt_BR
dc.subjectSoftware - Validaçãopt_BR
dc.subjectCiencia da computaçãopt_BR
dc.titleTest data generation for testing mapreduce systemspt_BR
dc.typeDissertaçãopt_BR


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record