<?xml version="1.0" encoding="UTF-8"?>
<feed xmlns="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<title>Ciência da Computação</title>
<link href="https://hdl.handle.net/1884/98104" rel="alternate"/>
<subtitle/>
<id>https://hdl.handle.net/1884/98104</id>
<updated>2026-04-25T16:45:40Z</updated>
<dc:date>2026-04-25T16:45:40Z</dc:date>
<entry>
<title>PCI DSS Checklist : uma ferramenta aberta de conformidade de segurança de dados</title>
<link href="https://hdl.handle.net/1884/98316" rel="alternate"/>
<author>
<name/>
</author>
<id>https://hdl.handle.net/1884/98316</id>
<updated>2025-09-05T21:22:21Z</updated>
<published>2025-01-01T00:00:00Z</published>
<summary type="text">PCI DSS Checklist : uma ferramenta aberta de conformidade de segurança de dados
Resumo : O padrão Payment Card Industry Data Security Standard (PCI DSS) estabelece requisitos técnicos e organizacionais para proteger dados de cartões de pagamento, sendo aplicável a qualquer entidade que armazene, processe ou transmita tais informações. Contudo, sua adoção por Pequenas e Médias Empresas (PMEs) ainda é limitada, em grande parte devido à complexidade técnica dos requisitos e à escassez de recursos especializados. Este trabalho propõe e implementa uma ferramenta open source baseada em checklist interativo, capaz de auxiliar PMEs na autoavaliação de conformidade com o PCI DSS. A solução foi construída com foco em acessibilidade, clareza textual e automatização do processo, integrando uma lógica de perguntas condicionais, explicações detalhadas por sub-requisito e recomendações de software. O sistema foi desenvolvido como uma single-page application, com frontend em Angular e backend em .NET, possibilitando geração de relatórios em PDF diretamente no navegador, sem dependência de servidor. Para avaliação da usabilidade da ferramenta, foi empregada uma versão adaptada da metodologia HEART (Human Error Assessment and Reduction Technique), originalmente proposta para estimar a propensão a falhas humanas em tarefas operacionais. Nesta adaptação, o modelo foi utilizado de forma qualitativa para mapear tarefas críticas, identificar condições geradoras de erro (Error Producing Conditions) e mensurar seu impacto potencial na experiência do usuário. A análise revelou que as tarefas com maior risco de erro estão associadas à interpretação de conteúdos técnicos, sinalizando oportunidades de melhoria na linguagem e estrutura da interface. Os resultados confirmam a viabilidade da proposta como ponto de partida acessível para fomentar práticas de conformidade em ambientes de baixa maturidade em segurança da informação; Abstract :  The Payment Card Industry Data Security Standard (PCI DSS) defines technical and organizational requirements to protect payment card data, applying to any entity that stores, processes, or transmits such information. However, its adoption by Small and Medium-sized Enterprises (SMEs) remains limited, largely due to the technical complexity of the requirements and the lack of specialized resources. This work proposes and implements an open-source tool based on an interactive checklist to support SMEs in self-assessing their PCI DSS compliance. The solution was designed with a focus on accessibility, textual clarity, and automation, incorporating conditional questions, detailed explanations for each sub-requirement, and software recommendations. The system was developed as a single-page application, with a frontend in Angular and a .NET backend, enabling PDF report generation directly in the browser without server-side dependency. To evaluate the tool’s usability, an adapted version of the HEART methodology (Human Error Assessment and Reduction Technique) was applied. Originally developed to estimate the likelihood of human errors in operational contexts, the methodology was repurposed in this study as a qualitative model to identify critical tasks, map Error Producing Conditions (EPCs), and measure their potential impact on the user experience. The analysis showed that the tasks with the highest risk of error were related to interpreting technical content, highlighting opportunities to improve the language and interface structure. The results confirm the feasibility of the proposed tool as an accessible starting point for promoting compliance practices in environments with low information security maturity
Orientador: Vinícius Fülber Garcia; Monografia (graduação) - Universidade Federal do Paraná, Setor de Ciências Exatas, Curso de Graduação em Ciência da Computação; Inclui referências
</summary>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Efficient approximations of common neighbors in large networks via sampling</title>
<link href="https://hdl.handle.net/1884/98315" rel="alternate"/>
<author>
<name/>
</author>
<id>https://hdl.handle.net/1884/98315</id>
<updated>2025-09-05T21:18:08Z</updated>
<published>2025-01-01T00:00:00Z</published>
<summary type="text">Efficient approximations of common neighbors in large networks via sampling
Resumo :  Vizinhos Comuns (CN) é uma quantidade fundamental na análise de redes e mineração de dados, servindo de base para várias métricas e medidas de similaridade. Neste trabalho, abordamos o problema de contar aproximadamente o número de vizinhos comuns para todos os pares de vértices em um grafo. Como o cálculo exato aumenta com o tamanho do grafo, ele se torna computacionalmente proibitivo para redes de larga escala. Para superar essa limitação, propomos algoritmos eficientes baseados em amostragem que aproximam CN com fortes garantias probabilísticas. Com base nos resultados da teoria da dimensão VC, nossos algoritmos obtêm tamanhos de amostra que são independentes do tamanho do grafo e dependem apenas de seu grau máximo, oferecendo uma solução prática e escalável para análise de redes de larga escala. Introduzimos seis algoritmos, categorizados por normalização (normalizado ou não normalizado) e método de amostragem (baseado em vértice, aresta e wedge). Três algoritmos calculam CN normalizado com garantias de erro aditivo, enquanto os outros lidam com CN não normalizado com garantias de erro multiplicativo. Resultados experimentais demonstram que nossos algoritmos alcançam acelerações substanciais em relação aos métodos exatos, mantendo alta precisão; Abstract :  Common Neighbors (CN) is a fundamental quantity in network analysis and data mining,  underpinning various metrics and similarity measures. In this paper, we address the problem of approximately counting the number of common neighbors for all vertex pairs in a graph. Since exact computation scales with the size of the graph, it becomes computationally prohibitive for large-scale networks. To overcome this limitation, we propose efficient sampling-based algorithms that approximate CN with strong probabilistic guarantees. Building on results from VC-dimension theory, our algorithms obtain sample sizes that are independent of the size of the graph and depend only on its maximum degree, offering a practical and scalable solution for large-scale network analysis. We introduce six algorithms, categorized by normalization (normalized or unnormalized) and sampling method (vertex-, edge- and wedge-based). Three algorithms compute normalized CN with additive error guarantees, while the others handle unnormalized CN with multiplicative error guarantees. Experimental results demonstrate that our algorithms achieve substantial speedups over exact methods while maintaining high accuracy
Orientador: André Luís Vignatti; Monografia (graduação) - Universidade Federal do Paraná, Setor de Ciências Exatas, Curso de Graduação em Ciência da Computação; Inclui referências
</summary>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Robustez da descoberta de denial constraint sem cenários de dados ruidosos : implicações para o perfilamento de dados</title>
<link href="https://hdl.handle.net/1884/98314" rel="alternate"/>
<author>
<name/>
</author>
<id>https://hdl.handle.net/1884/98314</id>
<updated>2025-09-05T21:07:55Z</updated>
<published>2025-01-01T00:00:00Z</published>
<summary type="text">Robustez da descoberta de denial constraint sem cenários de dados ruidosos : implicações para o perfilamento de dados
Resumo :  A qualidade dos dados é um pilar para a tomada de decisão em ambientes corporativos e acadêmicos. O perfilamento de dados emerge como uma atividade essencial para avaliar essa qualidade, sendo a descoberta de Denial Constraints uma de suas técnicas mais expressivas para a detecção de inconsistências. Contudo, a eficácia e a robustez dos algoritmos de descoberta de Denial Constraints são desafiadas pela presença de ruídos, como erros e valores ausentes, comuns em dados do mundo real. Este trabalho apresenta, portanto, um estudo experimental que investiga o impacto da introdução de ruído na descoberta de Denial Constraints, com o objetivo de avaliar a robustez dos algoritmos e das métricas de qualidade. Para tal, foi desenvolvido um pipeline de avaliação sistemático onde se introduziu ruído sintético — especificamente, dados ausentes (nulos via MCAR) em diferentes níveis de poluição — em conjuntos de dados de referência. Os algoritmos DCFinder e Hydra foram então aplicados sobre os dados poluídos, e as Denial Constraints resultantes foram avaliadas através de métricas de qualidade consolidadas (coverage, succinctness e interestingness) e de uma análise de suas características estruturais, comparando-as com um conjunto ideal chamado de "Golden Denial Constraints". Os resultados demonstram que o aumento do ruído leva a uma degradação consistente em todas as métricas de qualidade. Observou-se que os algoritmos tendem a gerar regras mais longas e complexas para se adaptarem aos dados imperfeitos (diminuindo a succinctness) e que estas perdem sua generalidade (diminuindo a coverage). A análise estrutural revelou que o perfil das Denial Constraints descobertas se desvia significativamente do perfil das Golden Denial Constraints, tanto no uso de operadores quanto nos atributos de foco. Conclui-se que o processo de escoberta de Denial Constraints é sensível à presença de ruído, e que os algoritmos, embora se adaptem, o fazem à custa da qualidade e da relevância semântica das regras. Este estudo evidencia a importância crítica de se considerar a robustez dos algoritmos de perfilamento e de se interpretar seus resultados com cautela em cenários de dados imperfeitos; Abstract :  Data quality is a cornerstone for decision-making in both corporate and academic environments. Data Profiling emerges as an essential activity to assess this quality, with the discovery of Denial Constraints (DCs) being one of its most expressive techniques for detecting inconsistencies. However, the effectiveness and robustness of DC discovery algorithms are challenged by the presence of noise, such as errors and missing values, which are common in real-world data. This work, therefore, presents an experimental study that investigates the impact of noise introduction on DC discovery, aiming to evaluate the robustness of the algorithms and their quality metrics. To this end, a systematic evaluation pipeline was developed where synthetic noise—specifically, missing values (nulls through MCAR)—was introduced at different pollution levels into reference datasets. The DCFinder and Hydra algorithms were then applied to the polluted data, and the resulting DCs were evaluated using established quality metrics (coverage, succinctness, and interestingness), as well as through a structural analysis comparing them against an ideal set of "Golden DCs". The results demonstrate that increasing noise leads to a consistent degradation across all quality metrics. It was observed that the algorithms tend to generate longer and more complex rules to adapt to the imperfect data (decreasing succinctness), and that the rules lose their generality (decreasing coverage). The structural analysis revealed that the profile of the discovered DCs deviates significantly from the Golden DC baseline, both in operator usage and attribute focus. It is concluded that both algorithms are vulnerable to noise, albeit with distinct adaptive behaviors, highlighting the importance of considering the robustness of profiling algorithms in practical scenarios
Orientador:  Eduardo Almeida; Monografia (graduação) - Universidade Federal do Paraná, Setor de Ciências Exatas, Curso de Graduação em Ciência da Computação; Inclui referências
</summary>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</entry>
<entry>
<title>Testes de programas nas disciplinas iniciais dos cursos de bacharelado em Ciência da Computação e Informática Biomédica da Universidade Federal do Paraná</title>
<link href="https://hdl.handle.net/1884/98313" rel="alternate"/>
<author>
<name/>
</author>
<id>https://hdl.handle.net/1884/98313</id>
<updated>2025-09-05T21:06:06Z</updated>
<published>2025-01-01T00:00:00Z</published>
<summary type="text">Testes de programas nas disciplinas iniciais dos cursos de bacharelado em Ciência da Computação e Informática Biomédica da Universidade Federal do Paraná
Resumo :  Este Trabalho de Conclusão de Curso propõe ainserção de práticas de teste de programas nas disciplinas iniciais dos cursos de Bacharelado em Ciência da Computação e Informática Biomédica da UFPR. A partir do referencial teórico e prático sobre teste de programas, sugere-se que a introdução precoce de testes fomenta o raciocínio lógico, a autonomia do estudante e a qualidade dos programas desenvolvidos. Partindo da análise das ementas de Programação I, Programação II e Algoritmos e Estruturas de Dados I, II e III, foi elaborada uma tabela pedagógica que relaciona, para cada conteúdo destas disciplinas, o nível de teste, que neste trabalho será denominado escopo de teste (como unidade ou integração), as técnicas de projeto de casos de teste, aqui chamadas de técnicas de teste (como particionamento de equivalência, análise de valor limite, grafo de fluxo de controle e teste de caminhos independentes) e a abordagem ou critério de classificação, referida neste trabalho como família de técnica (estrutural ou funcional). A metodologia utilizada durante este trabalho envolveu levantamento documental, classificação temática e construção de exemplos comentados que ilustram a aplicação das técnicas em trechos de código típicos de cada disciplina. Além disso, são apresentadas sugestões de aulas complementares, exercícios e exemplos de código para cada disciplina, visando apoiar o docente na implementação prática dessas atividades. Pretende-se iniciar a integração de práticas de codificação com técnicas de teste desde os primeiros semestres, contribuindo para a formação de profissionais mais críticos e preparados para os desafios da indústria de software, além de fornecer recursos didáticos estruturados para o ensino; Abstract :  This Final Project proposes the inclusion of program testing practices in the initial courses of the Bachelor’s degree in Computer Science and Biomedical Informatics at UFPR. Based on the theoretical and practical framework of program testing, it is suggested that the early introduction of tests fosters logical reasoning, student autonomy, and the quality of the programs developed. Based on the analysis of the syllabuses of Programming I, Programming II, and Algorithms and Data Structures I, II, and III, a pedagogical table was developed that lists, for each content of these courses, the level of testing, which in this work will be called testing scope (such as unit or integration), the test case design techniques, herein called testing techniques (such as equivalence partitioning, boundary value analysis, control flow graph, and independent path testing), and the classification approach or criterion, referred to in this work as technique family (structural or functional). The methodology used in this study involved document collection, thematic classification, and the creation of annotated examples that illustrate the application of the techniques in typical code snippets for each discipline. Furthermore, suggestions for supplementary classes, exercises, and code examples for each discipline are presented to support instructors in the practical implementation of these activities. The aim is to begin integrating coding practices with testing techniques from the first semesters, contributing to the development of more critical professionals prepared for the challenges of the software industry, in addition to providing structured teaching resources
Orientador: Dr.ª Letícia Mara Peres; Monografia (graduação) - Universidade Federal do Paraná, Setor de Ciências Exatas, Curso de Graduação em Ciência da Computação; Inclui referências
</summary>
<dc:date>2025-01-01T00:00:00Z</dc:date>
</entry>
</feed>
