02 - Mestrado - Ciência da Computação
URI Permanente para esta coleção
Navegar
Navegando 02 - Mestrado - Ciência da Computação por Data de Publicação
Agora exibindo 1 - 20 de 133
Resultados por página
Opções de Ordenação
Item Automatic grading of portuguese short answers using a machine learning approach(2019-03-29) Galhardi, Lucas Busatta; Brancher, Jacques Duílio; Ayrosa, Pedro Paulo da Silva; Leal, Gislaine Camila Lapasini; Souza, Rodrigo Clemente Thom deAvaliações são rotineiramente utilizadas em contextos de aprendizado a fim de estimar o conhecimento retido pelos estudantes. Apesar de sua importância, professores geralmente consideram a tarefa de avaliar respostas discursivas como muito trabalhosa. As condições de trabalho do professor e a sua própria subjetividade podem influenciar nas suas avaliações, pois humanos estão sujeitos ao cansaço, à outras influências e a nota de um aluno pode depender até mesmo da ordem de correção. Esses problemas se apresentam de forma ainda mais intensa em ferramentas como Ambientes Virtuais de Aprendizagem e Cursos Onlines Abertos e Massivos, que recentemente aumentaram sua popularidade e são usados por muito mais estudantes de uma vez que salas de aula físicas. Visando auxiliar nesses problemas, essa dissertação explora a área de pesquisa da avaliação automática de respostas discursivas usando uma abordagem de aprendizado de máquina, com três principais objetivos: (1) realizar uma revisão sistemática da literatura sobre o assunto a fim de se obter uma visão geral do estado da arte e de suas principais técnicas; (2) coletar dados reais de exercícios discursivos escritos na Língua Portuguesa por estudantes; e (3) implementar, avaliar e comparar diferentes abordagens para o sistema de avaliação automática das respostas. Para o primeiro objetivo, 44 artigos foram sistematicamente revisados, analisando vários de seus aspectos, desde os dados utilizados até a avaliação do modelo. Para o segundo, foram coletadas 7473 respostas de 659 estudantes, além de 9558 avaliações feitas por 14 avaliadores humanos (algumas respostas receberam mais de uma avaliação). Para o último objetivo, seis abordagens diferentes foram experimentadas e um modelo final foi criado com a combinação das abordagens. A efetividade mostrada pelo modelo foi satisfatória, com os valores de kappa indicando uma concordância de moderada a substancial entre o modelo e a avaliação humana. Os resultados mostraram que uma abordagem de aprendizado de máquina pode ser eficientemente utilizada na avaliação automática de respostas curtas, incluindo respostas na Língua Portuguesa.Item GAIA LGPD: Um framework para a Proteção de Dados Pessoais(Universidade Estadual de Londrina, 2022-02-22) Farias, Francyelcyo Pussi; Barros, Rodolfo Miranda de; Zarpelão, Bruno Bogaz; Góis, Lourival Aparecido deResumo: A recente chegada da LGPD (Lei Geral de Proteção de Dados - Lei 13709) sancionada em setembro de 2020 obriga empresas de diversos setores a adotar práticas voltadas ao tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural, ou seja, dos titulares de dados pessoais. A adoção dessas práticas voltadas à proteção dos dados pessoais, ao mesmo tempo em que atende as exigências legais também é capaz de gerar valor aos negócios, uma vez que o aumento do nível de maturidade em segurança de dados pessoais pode se tornar um grande trunfo para atrair novos clientes. Assim sendo, o objetivo deste trabalho é desenvolver um framework que possa ser aplicado para ajudar a organização a identificar seu nível de maturidade em relação às práticas de proteção de dados pessoais e consequentemente ao nível de adesão aos requisitos da LGPD e a partir desse levantamento estabelecer as ações mitigatórias a serem implementadas. Com o uso do framework, esse trabalho é feito através da descoberta das vulnerabilidades relacionadas ao tratamento de dados pessoais, da análise dos riscos atrelados a essas vulnerabilidades e da elaboração de um plano de ação para mitigar os riscos mapeados. Para tanto, o presente trabalho é formado por cinco processos principais, um questionário de autoavaliação, composto por 7 eixos que classificam o nível de maturidade de acordo com as seções dos artigos da LGPD, uma matriz de análise de riscos e templates que poderão ser adotados de forma integral ou parcial, de acordo com a necessidade de cada organização. Dessa forma, espera-se que o plano de ação elaborado a partir da execução do framework, se converta em um robusto Programa de Proteção de Dados e Privacidade, que além de atender às regulamentações, também fortaleça a confiança dos clientes atuais, abrindo assim a possibilidade de atrair novos clientes com apreço pela seriedade com que seus dados pessoais são tratados e protegidos pela organização. Para validar o Framework proposto, foi realizado um estudo de caso em uma multinacional brasileira do setor de Químicos. O trabalho durou 5 meses e contou com a participação de Especialistas da áreas de Segurança da Informação, Tecnologia da Informação (TI) e da área Jurídica. Todas as etapas propostas pelo Framework foram aplicadas. O trabalho resultou em: relatório contendo a lista dos itens de não conformidades com a LGPD; levantamento das vulnerabilidades relacionadas à segurança de dados pessoais; análise e classificação dos riscos; e por fim, a elaboração de um plano de ação alinhado com os requisitos da LGPD. Em adicional, o estudo de caso permitiu identificar oportunidades de melhoria no modelo inicial do Framework e contribuiu para a definição de ações futuras. Abstract: The recent arrival of the LGPD (General Data Protection Law - Law 13.709), sanctioned in September 2020, forces companies from various sectors to adopt practices aimed at the processing of personal data, including in digital media, by natural person or legal Entity public or private, with the objective of protecting the fundamental rights of freedom and privacy and the free development of the personality of the natural person, that is, of the holders of personal data. The adoption of these practices, aimed at protecting personal data, while meeting legal requirements, is also capable of generating business value, since the increase in the level of maturity in personal data security can become a great asset to attract new customers. Therefore, the objective of this work is to develop a framework that can be applied to help the organization identify its level of maturity in relation to personal data protection practices and, consequently, the level of adherence to the requirements of the LGPD and from there provide a survey to establish the mitigating actions to be implemented. Using the framework, this work is done through the discovery of vulnerabilities related to the treatment of personal data, the analysis of the risks linked to these vulnerabilities and the elaboration of an action plan to mitigate the mapped risks. For this purpose, the present work consists of five main processes, a selfassessment ques- tionnaire, composed of 7 axes that classify the level of maturity according to the sections of the LGPD articles, a risk analysis matrix and templates that can be adopted. in Whole or in part, according to the needs of each organization. Thus, it is expected that the action plan elaborated from the execution of the framework, becomes a robust Data Protection and Privacy Program, which in addition to meeting the regulations, also strengthens the trust of current customers, thus opening the possibility of attracting new customers with appreciation for the seriousness with which their personal data is treated and protected by the organization.To validate the proposed Framework, a case study was carried out in a Brazilian multina-tional in the Chemicals sector. The work lasted 5 months and included the participation of Specialists from the Information Security, Information Technology (IT) and Legal ar-eas. All the steps proposed by the Framework were applied. The work resulted in: report containing the list of items of non-compliance with the LGPD; survey of vulnerabilities related to the security of personal data; risk analysis and classification; and finally, the elaboration of an action plan in line with the requirements of the LGPD. In addition, the case study made it possible to identify opportunities for improvement in the Framework’s initial model and contributed to the definition of future actions.Item GAIA Athenas: Um framework colaborativo para apoio nas tomadas de decisões de implementações, práticas, conceitos e processos em empresas de base tecnológica(Universidade Estadual de Londrina, 2022-09-10) Zampieri, Thiago Magalhães; Barros, Rodolfo Miranda de; Barros, Vanessa Tavares de Oliveira; Modesto, Lisandro RogérioResumo: Os sistemas de informação (SI) estão difundidos no cotidiano da vida moderna, além do que as pessoas estão cada vez mais dependentes dos softwares em suas atividades cotidianas [54]. Por sua vez, as empresas que desenvolvem tais soluções tecnológicas enfrentam cada vez mais desafios em seu ciclo de vida, desde demandas tradicionais, como: constante investimento para manter-se na vanguarda, altos custos com pessoas qualificadas e erros de especificações, também como demandas adjacentes que impactam na construção de softwares de qualidade, tais como: prazos bem apertados, agilidade na entrega e a manutenção da cultura da organização. Com isso, prever o caminho para uma evolução, torna-se uma tarefa árdua de se realizar. Mudanças nas regras de negócio ou regulamentações, falhas não previstas ou o surgimento de novos requisitos são exemplos de fatores que podem influenciar no sucesso ou insucesso de um determinado projeto de desenvolvimento de software. Assim sendo, o objetivo deste trabalho é desenvolver um modelo de maturidade e capacidade para complementar a outros frameworks / processos / rotinas que possa ajudar nas tomadas de decisões sobre implementações, práticas, conceitos, bibliotecas ou qualquer forma de apoio ao desenvolvimento de software no que tange aos tópicos de: estágio, tecnologia, organização & gestão, time & cultura, arquitetura e ambiente, vertical e dilema em negócio de base tecnológica, focando sempre no "como fazer" e não no "que fazer", e possa ser implementado de forma progressiva, possibilita um maior controle e domínio da organização em relação a adoção de prática e técnicas. Para tanto, o presente trabalho compreende 4 níveis de maturidade, dispostos em 7 perspectivas de conhecimento distintos, 5 serviços, um questionário para a avaliação diagnóstica, um processo de implantação e outro de uso. De forma a validar o modelo, o mesmo foi avaliado por especialistas, por meio de um questionário avaliativo, recebendo avaliação bastante positiva em relação aos seus processos, templates e documentação. Ainda de forma a contribuir para a validação do modelo, realizou-se um estudo de caso em uma empresa de TI, a fim de entender a realidade do processo de aquisição de uma organização real, validar o modelo e melhorá-lo como um todo (processos, documentação e templates), constatando uma melhora significativa no processo de aquisição da organização alvo após a implantação de alguns serviços do modelo proposto. Abstract: Information systems (IS) are widespread in modern life, and people are increasingly dependent on software in their daily activities [54]. In turn, companies that develop such technological solutions face more and more challenges in their life cycle, from traditional demands, such as: constant investment to stay at the forefront, high costs with qualified people and specification errors, as well as demands adjacent factors that impact the construction of quality software, such as: very tight deadlines, quick delivery and maintenance of the organization's culture. With this, predicting the path to evolution becomes an arduous task to accomplish. Changes in business rules or regulations, unforeseen failures or the emergence of new requirements are examples of factors that can influence the success or failure of a given software development project. Therefore, the objective of this work is to develop a model of maturity and capacity to complement other frameworks / processes / routines that can help in decision making about implementations, practices, concepts, libraries or any form of support for software development in what concerns the topics of: internship, technology, organization & management, team & culture, architecture and environment, vertical and technology-based business dilemma, always focusing on "how to do it" and not "what to do", and can be implemented progressively, it enables greater control and mastery of the organization in relation to the adoption of practices and techniques. Therefore, the presente work comprises 4 levels of maturity, arranged in 7 different perspectives of knowledge, 5 services, a questionnaire for the diagnostic evaluation, an implementation process and other use case implementation. In order to validate the model, it was evaluated by specialists, through an evaluation questionnaire, receiving a very positive evaluation in relation to its processes, templates and documentation. Still in order to contribute to the validation of the model, a case study was carried out in an IT company, in order to understand the reality of the acquisition process of a real organization, validate the model and improve it as a whole (processes, documentation and templates), noting a significant improvement in the acquisition process of the target organization after the implementation of some services of the proposed model.Item Attack Detection in Smart Home Networks using CluStream and Page-Hinkley Test(Universidade Estadual de Londrina, 2022-12-12) Nakagawa, Fernando Henrique Yoshiaki; Zarpelão, Bruno Bogaz; Barbon Junior, Sylvio; Miani, Rodrigo SanchesResumo: A expansão das redes IoT aumenta a procura por sistemas de segurança que detectem ataques contra estes novos alvos. Tais dispositivos têm hardware simples, com memória e poder de processamento limitados, e muitas vezes são obrigados a ter um baixo consumo de energia. Atualmente são utilizados algoritmos de aprendizagem supervisionada por lotes para resolver este problema, mas eles apresentam algumas limitações. Estes algoritmos exigem amostras benignas e maliciosas para serem treinados, o que pode ser difícil de obter em redes reais. Além disso, uma vez treinados, é difícil atualizar o modelo de aprendizagem com comportamentos recentemente encontrados. Neste trabalho, propomos um esquema online e não supervisionado para detectar ataques em redes IoT residenciais. Este esquema é baseado na combinação de dois algoritmos: CluStream e Page-Hinkley Test. O esquema proposto não requer amostras rotuladas para ser treinado e aprende de forma incremental à medida em que é utilizado. Os testes foram realizados sobre dados obtidos a partir de conjuntos de dados disponíveis publicamente, consistindo em múltiplos dispositivos domésticos inteligentes e os resultados são satisfatórios. Diferentes tipos de ataques foram detectados com uma taxa de detecção global acima de 92%, enquanto a precisão se manteve por perto de 81%, com atraso médio de 151 iterações. Abstract: The expansion of IoT networks increases the demand for security systems that detect attacks against these new targets. These devices have simple hardware, limited memory and processing power, and often are required to have low energy consumption. Batch supervised learning algorithms have been employed to address this issue, but they presente some limitations. These algorithms demand benign and malicious labeled samples to be trained, which can be hard to obtain in real networks. Also, once they are trained, it is hard to update the learning model with newly found behaviors. In this work, we propose na online and unsupervised scheme to detect attacks in smart home IoT networks. This scheme is based on the combination of two algorithms: CluStream and Page-Hinkley Test. It does not require labeled samples to be trained and learns incrementally as it is used. Tests were performed over data obtained from publicly available datasets consisting of multiple smart home devices and the results are encouraging. Different types of attacks were detected with a overall detection rate above 92%, while the precision stayed Around 81%, with an average delay of 151 iterations.Item Processamento da língua portuguesa na detecção de toxicidade na rede social twitter(2023-03-27) Mioni, José Luiz Villela Marcondes; Barbosa, Cinthyan Renata Sachs Camerlengo de; Felinto, Alan Salvany; Lima, Wagner FerreiraO crescimento de conteúdo ofensivo, comportamento tóxico e assédio de indivíduos em ambientes de internet aumentou significativamente à medida que a sociedade se torna cada vez mais digital. Diante desses eventos, diversas comunidades da web como redes sociais, portais e jogos online buscam dar suporte tecnológico na filtragem de conteúdo, proteção individual e verificação de dados. Apesar desses esforços, casos de depressão, ansiedade, outros traumas psicológicos e suicídio ainda são relatados em várias plataformas. Este trabalho descreve uma ferramenta de Processamento da Língua Portuguesa que sinalizará possível cyberbullying e discurso de ódio na rede social twitter por meio de categorização, classificação e concorrência para alcançar um índice binário de toxicidade pragmaticamente, assim como sua análise sobre um corpus alvo compilado a partir de conteúdo em redes sociais. Por meio da análise, um índice de 7,3% de toxicidade foi encontrado no corpus, reforçando a necessidade de atenção ao assunto, assim como expansões das ferramentas e pesquisas futuras na área.Item MDD4CPD : software development framework for cyber-physical devices(2023-04-12) Goncalves, Rafael Figueira; Menolli, André Luís Andrade; Bonifácio, Adilson Luiz; Oliveira Junior, Edson Alves de; Barros, Rodolfo Miranda deA Internet das Coisas oferece diversas possibilidades para soluções inovadoras usando dispositivos conectados. No entanto, a adoção dessa tecnologia também apresenta no vos desaĄos, especialmente para desenvolvedores com conhecimento limitado em domínio especíĄco para a Internet das Coisas, que podem ter diĄculdade em criar soluções eĄ cazes, deixando o software vulnerável a problemas como manutenção e segurança. Para contornar esses desaĄos, esta dissertação propõe um framework de desenvolvimento de software baseado em metodologia orientada a modelos (MDD) para apoiar a criação de novas soluções para a Internet das Coisas. As principais características do framework in cluem um meta-modelo baseado em hardware, uma etapa uniĄcada de modelagem, bem como um processo de geração de código instantâneo e completo. O framework proposto é concretizado por meio de uma ferramenta Low-Code que modela visualmente dispositivos ciberfísicos e gera código. O framework foi validado por meio de comparação por métricas de software, dentro do escopo limitado foi capaz de gerar código Arduino, com alta quali dade de software, e sem perda de desempenho. A validação externa foi aplicada por meio de um Modelo de Aceitação de Tecnologia, o que considerou a ferramenta fácil de usar e útil. A ferramenta de código aberto está disponível em https://github.com/rzfzr/mdd4.Item Inclusão do modelo MDA baseado em emoções no processo de avaliação de aprendizagem aplicado ao desenvolvimento de jogos educacionais: um estudo de caso de linguagens formais e autômatos(2023-08-31) Souza, Henrique Cristovão de; Felinto, Alan Salvany; Attrot, Wesley; Cirino, Marcelo MaiaJogos educacionais são ferramentas de ensino que proporcionam uma alternativa mais lúdica e interativa de transmitir um conteúdo pedagógico. As emoções possuem um papel único nas motivações e no incentivo ao aprendizado e, portanto, e importante levá-las em consideração durante o processo de desenvolvimento de jogos educacionais, a fim de promover experiências significativas que possam ter um impacto positivo no processo de aprendizagem do usuário. Sendo assim, e possível aliar o modelo de desenvolvimento de jogos MDA as emoções, buscando promover experiências significativas com jogos educacionais. Jogos educacionais possuem o objetivo de auxiliar o processo de aprendizagem de algum conteúdo pedagógico especifico e portanto, e recomendado que sejam realizadas avaliações de aprendizado ao longo do uso da ferramenta. Oliveira afirma que o processo de avaliação costuma ser negligenciado, ou realizado posteriormente ao contato do aluno com a ferramenta. Sendo assim, esse trabalho tem como objetivo realizar uma adaptação do modelo MDA aliado as emoções e aos processos de avaliação de aprendizagem, a fim de construir um guia de desenvolvimento de jogos educacionais que forneça experiências significativas, e seja capaz de avaliar aspectos pedagógicos, de forma qualitativa e quantitativa, durante a experiência do usuário com o jogo educacional. Para isso, foi realizado um estudo de caso na disciplina de Linguagens Formais e Autômatos, mais especificamente, Linguagens Regulares e Autômatos Finitos Determinísticos, visando incluir o modelo MDA, as emoções e os conceitos de avaliação de aprendizagem em um jogo educacionalItem Modelo de aprendizado de máquina para avaliação automática do desenvolvimento motor grosso(2023-09-29) Pilati Filho, Edson Luiz; Brancher, Jacques Duílio; Menolli, André Luís Andrade; Spinosa, Rodrigo Martins de OliveiraAs habilidades motoras grossas são atividades que envolvem os grandes músculos do corpo humano, como sentar, agachar, andar e correr. O Test of Gross Motor Development ou TGMD, é um teste muito utilizado por pesquisadores, pediatras, Ąsioterapeutas e edu cadores de diversos países para avaliar estas habilidades em crianças na faixa etária de 3 até 11 anos. Uma parte importante do teste é que o movimento executado pelas crianças precisa ser gravado e avaliado por dois ou mais proĄssionais. O processo de avaliação é trabalhoso e leva tempo, sendo sua automatização um dos principais pontos a serem desen volvidos. Nos últimos anos, têm sido propostos métodos para automatizar a avaliação dos movimentos de acordo com os critérios do TGMD. A hipótese investigada neste trabalho é a de que é possível induzir um modelo de aprendizado de máquina capaz de identiĄcar se o movimento da criança está correto. A proposta é avaliar automaticamente o primeiro critério da habilidade de salto do TGMD-3. Foi utilizada uma rede neural convolucional, PoseNet, para extrair o esqueleto das crianças, então foram modeladas características que representam o primeiro critério da habilidade de salto. K-nearest neighbors, Random Fo rest e One-class SVM foram testados para determinar sua acurácia na classiĄcação do movimento, usando um dataset de 350 imagens de crianças brasileiras, entre 3 e 11 anos, realizando o movimento preparatório para o salto. Os resultados experimentais mostram uma acurácia média de 84% para o K-nearest neighbors, 84% de acurácia média para o Random Forest e 77% de acurácia média para o One-class SVM.Item Aplicação do algoritmo de clusterização de fluxos contínuos de dados denstream na detecção de ataques em internet das coisas(2024-01-25) Tazima, Gabriel Keith; Zarpelão, Bruno Bogaz; Barros, Rodolfo Miranda de; Carvalho, Luiz FernandoA Internet das Coisas (Internet of Things - IoT) pode ser definida como a convergência da Internet e objetos que podem se comunicar e interagir entre si. Para os próximos anos, aplicações de IoT devem se expandir e crescer exponencialmente. Diversas áreas como logística, indústria, saúde pública, automação residencial e monitoramento ambiental se beneficiarão deste novo paradigma. A IoT tem o potencial de prover facilidades e melhorias na vida cotidiana. Com a aproximação entre essas aplicações e os usuários finais, atividades que antes estavam imunes a ataques cibernéticos, podem estar ameaçadas por ações maliciosas. Dispositivos domésticos de IoT podem se tornar alvos de ataques e potencialmente ameaçar a segurança e a privacidade de indivíduos. Diferente de redes de Internet das Coisas industriais, por exemplo, em cenários residenciais, os dispositivos utilizados são mais heterogêneos e, normalmente, tem menor custo e capacidade computacional. Além disso, eles contam com aplicações que muitas vezes são descentralizadas e desenvolvidas de forma diferente pelos diversos fabricantes envolvidos. Uma das possibilidades de medidas de defesa é o provisionamento de um Sistema de Detecção de Intrusão (Intrusion Detection System - IDS), que seria capaz de detectar atividades maliciosas e gerar registros das mesmas. Há outros trabalhos que fazem detecção de ataques utilizando aprendizado de máquina, mas a maioria das soluções utiliza técnicas de aprendizado supervisionado por lotes e precisam de amostras normais e maliciosas para serem treinados, o que pode ser problemático em cenários de redes reais. A utilização de algoritmos de clusterização de fluxos de dados contínuos pode oferecer uma solução para os dois problemas mencionados. Esses algoritmos não exigem amostras de tráfego benigno e malicioso para serem treinados e também são capazes de aprender incrementalmente. Por outro lado, o grande desafio na utilização deles é compreender melhor o que devemos monitorar no comportamento dos clusters para identificar a ocorrência de ataques. Este trabalho analisou diferentes indicadores extraídos do comportamento dos clusters gerados pelo DenStream, um algoritmo de clusterização de fluxos contínuos de dados baseado em densidade, para compreender como eles podem contribuir na detecção da ocorrência de ataques no tráfego de rede. O conjunto de dados públicos utilizado neste trabalho conta com pacotes de tráfego normal e malicioso de diversos dispositivos com diferentes protocolos de rede. Os ataques contidos no conjunto de dados são: Port Scanning, Negação de serviço e man-in-the-middle. Os resultados dos experimentos mostraram que o monitoramento da distância máxima entre os centros dos clusters pode sinalizar a ocorrência de diferentes tipos de ataquesItem Diretrizes para garantia de qualidade em portais da transparência(2024-02-28) Perez, Gabriel Vazarin; Barros, Vanessa Tavares de Oliveira; Fialho, Francisco Antônio Pereira; Barros, Rodolfo Miranda deA Transparência das ações tomadas na Administração Pública é um alicerce fundamental para o funcionamento de qualquer democracia hoje no mundo, garantindo o controle social por parte da população, os aproximando do Estado e fortalecendo sua cidadania. Algumas leis marcam a evolução do conceito de transparência pública no código de conduta brasileiro, evidenciando os Portais da Transparência, que são sítios digitais que possuem a finalidade de assegurar aos cidadãos a possibilidade de acessar informações relacionadas à gestão pública. Entretanto, diversos problemas são encontrados hoje nestes portais, dificultando que os cidadãos exerçam seu controle social. Problemas esses que vão desde a qualidade das informações publicadas até, principalmente, questões relativas à usabilidade, interatividade e acessibilidade. Sendo assim, este trabalho definirá diretrizes de usabilidade que busquem garantir a qualidade em Portais da Transparência. Para isso, realizou-se a pesquisa bibliográfica acerca das legislações, qualidade dos portais e conceitos fundamentais à Experiência do Usuário, preparando e aplicando, em seguida, questionários com profissionais de TI ligados a área pública, assim como, com os cidadãos compreendendo percepções dos cidadãos frente aos Portais da Transparência existentes, assim como, seus gostos e preferências no que diz respeito à interfaces web, compreendendo as maiores dores e expectativas das pessoas com o Portal da Transparência. Constataram-se três eixos para a aplicação das diretrizes, que vão desde a qualidade das informações oferecidas até o desenvolvimento de componentes de design que promovam eficiência de uso e melhorem a navegação. Após a definição das diretrizes, elas foram aplicadas e validadas em protótipos navegáveis por meio de testes de usabilidade, mensurando a efetividade das diretrizes propostas. As melhorias alcançadas com as diretrizes resultarão em Portais da Transparência mais fáceis de usar e mais intuitivos para os cidadãos realizarem o controle social e exercerem sua cidadania.Item Um framework para gestão ágil de desempenho de profissionais de tecnologia da informação(2024-02-28) Terra, Marcus Vinicius Alencar; Barros, Rodolfo Miranda de; Fialho, Francisco Antônio Pereira; Barros, Vanessa Tavares de OliveiraCom a constante evolução do setor de Tecnologia da Informação (TI) e o crescente reconhecimento da importância da agilidade nos processos organizacionais, surge a necessidade de desenvolver métodos eficazes para avaliar e melhorar o desempenho dos profissionais que atuam nesta área. Neste sentido, esta dissertação apresenta um framework destinado à otimização do desempenho dos profissionais no setor de TI, integrando princípios da gestão ágil com práticas de desenvolvimento humano e organizacional, visando promover uma cultura de melhoria contínua, auto-organização e responsabilidade compartilhada entre os membros da equipe. O trabalho baseia-se, portanto, na crescente demanda por ambientes de trabalho mais flexíveis, adaptativos e orientados para o crescimento pessoal, em consonância com as rápidas mudanças tecnológicas e de mercado. Assim, o framework propõe uma mudança paradigmática na gestão de desempenho, enfatizando a importância da adaptabilidade, do aprendizado contínuo e do desenvolvimento de competências. Ao invés de se concentrar exclusivamente em avaliações de desempenho periódicas e muitas vezes subjetivas, a solução incentiva uma abordagem mais holística e integrada, que reconhece a complexidade do trabalho em TI e a necessidade de um desenvolvimento pessoal e profissional constantes. Através da metodologia Design Science Research de pesquisa, envolvendo cenários simulados e análises qualitativas, o estudo demonstra como a implementação deste framework pode levar a melhorias significativas na satisfação dos colaboradores, na qualidade do trabalho produzido e na eficiência operacional. Além disso, a solução proposta fornece um modelo de capacidade e maturidade e um conjunto com diretrizes práticas para gestores de TI interessados em adotar abordagens mais humanizadas e eficazes para a gestão de desempenho, alinhando os objetivos organizacionais com o bem-estar e o desenvolvimento individual dos profissionaisItem Um processo baseado em seleção de atributos e aprendizagem de máquina para geração de modelos preditivos: um estudo sobre evasão no ensino superior brasileiro(2024-04-04) Dionisio, Gustavo Marcelino; Menolli, André Luís Andrade; Brancher, Jacques Duílio; Boscarioli, ClodisUm dos grandes desafios na aprendizagem de máquina em alguns domínios é a alta dimensionalidade de características. Assim, este estudo propõe um processo focado na seleção de atributos e redução de dimensões para aprimorar modelos preditivos, além de ter como uma das saídas os atributos mais relevantes para a predição em questão. O objeto de estudo para a aplicação deste processo é o fenômeno da evasão em Instituições de Ensino Superior brasileiras, com foco especial em cursos presenciais, utilizando dados providos pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira. Com a adoção de técnicas e algoritmos de Aprendizagem de Máquina, o processo visa identificar os atributos mais impactantes na evasão, otimizando a análise preditiva por meio da eliminação de variáveis irrelevantes ao contexto. Este procedimento inclui etapas essenciais, como transformação e balanceamento de dados, seleção de contexto, seleção empírica e algorítmica de atributos, além de possuir etapas iterativas para refinar os modelos preditivos, culminando na geração de modelos de aprendizagem de máquina especializados em contextos específicos. O processo foi aplicado em cinco diferentes contextos do ensino superior brasileiro. Com os resultados destes experimentos, por meio do processo proposto, foi possível gerar modelos preditivos de dimensionalidade reduzida de maior acurácia que os modelos originais. Além disso, comparando com outras técnicas de seleção de atributos os modelos gerados por meio do processo obteve acurácia superior. Com relação ao estudo sobre evasão, foi possível identificar as principais características relacionadas à contextos específicos. Por fim, foi constatado que existe um conjunto de características comum a todos os cenários estudados, que são essenciais na predição da evasão no ensino superior presencial no BrasilItem Explainable Time Series Tree: an explainable top-down time series segmentation framework(2024-04-19) Silva, Vitor de Castro; Zarpelão, Bruno Bogaz; Kaster, Daniel dos Santos; Miani, Rodrigo Sanches; Barbon Junior, SylvioExistem diversos algoritmos de Aprendizado de Máquina para modelar séries temporais para problemas de classificação, previsão e clusterização. Entretanto, séries temporais podem apresentar características que complicam essas tarefas, como padrões recorrentes e variações sazonais. A segmentação de séries temporais pode ser uma solução para esses problemas, mas as abordagens existentes precisam ser melhoradas. Várias delas utilizam regressão linear para solucionar problemas como detecção de mudanças no comportamento da série, ignorando ferramentas desenvolvidas especificamente para resolver esse tipo de problema, como detectores de mudança. Além disso, o conceito de explicabilidade raramente é abordado na segmentação de séries temporais. Para identificar diferentes padrões de séries temporais usando técnicas apropriadas e ao mesmo tempo prover explicabilidade, nós criamos a eXplainable Time Series Tree, ou XTSTree. A XTSTree transforma uma série temporal em uma árvore binária, dividindo-a de forma hierárquica de acordo com um critério baseado em detectores de mudança e encontrando um ponto de corte que cria as duas sub-séries mais diferentes entre si. O processo de segmentação continua até que chegue em um critério de parada baseado em um teste de estacionariedade que indica que a série tem um comportamento suficientemente homogêneo. A XTSTree abre caminho para uma explicação mais compreensível de padrões e também oferece suporte para o uso de outras abordagens explicáveis. Nosso estudo aplicou a XTSTree em diversas séries temporais reais para isolar os seus diferentes comportamentos. Para avaliar a eficácia da XTSTree, nós usamos uma implementação de Regressão Simbólica usando programação genética para encontrar a melhor representação da série e suas divisões usando fórmulas algébricas, e comparamos as diferenças em diversas métricas antes e depois da XTSTree. Mostramos uma melhora em complexidade da fórmula, melhorando a acurácia do modelo quando comparado com a série temporal originalItem Modelo lógico para gestão de riscos na criação de valor público no governo eletrônico(2024-09-30) Santana, José Eduardo; Barros, Rodolfo Miranda de; Azevedo, Anderson de; Barros, Vanessa Tavares de OliveiraA adoção de sistemas de governo eletrônico visa aprimorar a eficiência e a transparência nas operações governamentais e transformar a maneira como os governos interagem com os cidadãos, tornando os processos mais acessíveis e eficazes. A geração de valor público é um parâmetro essencial para medir o sucesso dessas iniciativas. No entanto, há uma lacuna significativa com relação à gestão dos riscos associados a esses sistemas, bem como ao seu impacto na geração de valor público. Neste contexto e após identificar percepções chave sobre o valor público dos serviços digitais na análise de dados coletados com servidores públicos e cidadãos, esta dissertação propõe um modelo lógico para a gestão de riscos em projetos de governo eletrônico, utilizando o Modelo Lógico Tearless como referencial. O modelo proposto tem o potencial de facilitar uma avaliação estruturada dos esforços de implementação e resultados, promovendo o alinhamento estratégico das ações governamentais com os valores e objetivos públicosItem Modelo de maturidade em gestão e uso de dados para Secretarias Municipais de Saúde(2024-09-30) Faccin, Deniz; Barros, Rodolfo Miranda de; Barros, Vanessa Tavares de Oliveira; Fialho, Francisco Antonio PereiraA administração pública tem como propósito fundamental atender às necessidades e demandas da coletividade, assegurando o bem-estar social. No contexto da saúde, sua missão é prover serviços que promovam a longevidade e a qualidade de vida da população. A gestão da saúde pública envolve decisões complexas sobre como alocar os recursos públicos de forma eficiente, equitativa e ética, visando à obtenção do melhor benefício para os cidadãos. Nesse cenário, o uso estratégico de dados surge como uma ferramenta com grande potencial para promover uma gestão da saúde pública mais eficaz. No entanto, muitas Secretarias Municipais de Saúde enfrentam dificuldades para implementar práticas eficientes de gestão e uso de dados, o que leva à subutilização desses ativos. Embora existam diversos frameworks e modelos relacionados ao uso de dados em organizações, faltam ferramentas adaptadas às necessidades específicas da saúde pública municipal. Assim, este estudo tem como objetivo desenvolver e avaliar um Modelo de Maturidade em Gestão e Uso de Dados que atenda às necessidades das Secretarias Municipais de Saúde no Brasil. O modelo visa auxiliar os gestores municipais a avaliarem o nível de maturidade de suas secretarias em relação à gestão e ao uso de dados, identificando áreas prioritárias para o desenvolvimento e promovendo ciclos de melhoria contínua. A pesquisa foi estruturada em duas fases: (1) desenvolvimento do modelo com base em revisão bibliográfica e análise de frameworks e modelos existentes; e (2) avaliação do modelo por meio de um questionário aplicado a gestores de Secretarias Municipais de Saúde, com o intuito de aprimorá-lo e verificar sua relevância, aplicabilidade e adequação ao contexto local. Os resultados indicam que o modelo proposto é abrangente, relevante e aplicável, permitindo a construção de planos de ação para promover uma cultura de uso de dados na saúde pública municipal. Este trabalho contribui para a prática de gestão em saúde ao fornecer uma ferramenta que auxilia os gestores a utilizarem dados de forma mais eficiente no planejamento, monitoramento e avaliação de ações e políticas públicas em saúdeItem Assessing the influences of procedural level generation through a digital math game : an empirical analysisRodrigues, Luiz Antonio Lima; Brancher, Jacques Duílio [Orientador]; Barbosa, Cinthyan Renata Sachs Camerlengo de; Aranha, Eduardo Henrique da SilvaResumo: O desenvolvimento de jogos é um processo custoso que normalmente requer uma equipe multidisciplinar A Geração Procedural de Conteúdo (PCG) pode remediar alguns dos problemas desse processo, auxiliando na criação de diferentes tipos de conteúdos (eg fases e gráficos), durante o desenvolvimento e a execução do jogo No entanto, pouca pesquisa tem sido feita em termos de como a PCG influencia os jogadores, especialmente em Jogos Digitais Matemáticos (DMG) Esta Dissertação ataca esse problema investigando como a PCG influencia jogadores de um DMG Para esse fim, um teste A/B foi executado em que a única diferença foi que uma versão (estática) tinha fases criadas por um humano enquanto que a outra (dinâmica) provia fases geradas proceduralmente Para validar esse estudo, um experimento com duas amostras foi designado onde cada amostra jogava em uma única versão Após isso, dados do jogo e de um questionário advindos de 724 jogadores foram coletados e empiricamente analisados Baseado nesses, o presente trabalho apresenta quatro contribuições principais: (1) um jogo que encoraja seus jogadores a praticar matemática, desperta a curiosidade e vontade de jogá-lo novamente dos mesmos e que foi avaliado como divertido; (2) mostra que, de acordo com dados do questionário, a experiência dos jogadores da versão dinâmica foi similar à daqueles da versão estática em todos menos um fator, enquanto foi mais difícil e promoveu engajamento equivalente; (3) evidencias empíricas de que a curiosidade dos jogadores tem uma forte correlação com a diversão e vontade de jogá-lo novamente; e (4) evidencias que dados demográficos e de desempenho destes sujeitos no jogo têm impacto de pequeno a moderado em suas experiências O trabalho discute esses achados, com relação a de onde surgiram essas diferenças, e como eles podem colaborar para o desenvolvimento de jogos, modelagem de jogador e no uso do jogo para fins educacionaisItem Alocação de recursos em sistemas DS/CDMA e redes de sensores : equilíbrio de potências, seleção de relays, tempo de vida e eficiência energéticaCamargo, Fábio Engel de; Abrão, Taufik [Orientador]; Zarpelão, Bruno Bogaz; Dias Neto, Fernando Ciriaco; Brante, Glauber Gomes de OliveiraResumo: O caráter de energia finita das baterias presentes nos dispositivos portáteis de comunicação sem fio é um fato motivador para o desenvolvimento de tecnologias que objetivam utilizar de modo eficiente o recurso energético Ao mesmo tempo, questões como a exigência de altas taxas de transmissão, menor latência e maior cobertura dos serviços, ie, aspectos de QoS, são de fundamental importância quando se tenta reduzir o consumo de energia Portanto, o uso de técnicas ou mecanismos que equilibram estes aspectos são de profundo interesse na área de telecomunicações Este trabalho de Dissertação de mestrado tem como meta analisar diferentes aspectos de sistemas de comunicação sem fio sob o ponto de vista da eficiência energética São abordados e aplicados conceitos relativos ao controle de potência, posicionamento otimizado de nós relays em redes de comunicação por sensores (WSN – wireless sensor networks), região de cooperação, bem como a aplicabilidade de técnicas de processamento digital de sinais na implementação de algoritmos capazes de incrementar o tempo de vida de uma rede de comunicação sem fioItem Um modelo de processo de engenharia de requisitos para padronização e aumento de qualidadeDorigan, José André; Barros, Rodolfo Miranda de [Orientador]; Góis, Lourival Aparecido de; Proença Junior, Mario Lemes; Felinto, Alan SalvanyResumo: Um dos maiores problemas encontrados na Engenharia de Requisitos é o fato dos requisitos estarem mal especificados, inconsistentes com a necessidade do cliente ou mal escritos Este trabalho apresenta um modelo de Processo de Engenharia de Requisitos que possibilita a padronização da descrição de requisitos, através do reuso de palavras, buscando aumentar a qualidade da especificação O processo aqui proposto atuará na área de Análise, Especificação e Validação de Requisitos auxiliando o Engenheiro de Requisitos na escrita dos requisitos em Linguagem Natural Apresenta-se um estudo comparativo entre processos que lidam com a garantia de qualidade em requisitos e um Estudo de Caso para avaliar e validar o processo proposto, identificando benefícios da sua utilização num desenvolvimento de softwareItem Detecção de anomalias utilizando assinatura digital de segmento de redeLima, Moisés Fernando; Proença Junior, Mário Lemes [Orientador]; Lima, José Valdeni de; Barros, Rodolfo Miranda de; Abrão, TaufikResumo: A detecção de anomalias em redes caracteriza-se pela busca de comportamentos incomuns no tráfego, que possam vir a comprometer a segurança, o desempenho e a integridade das informações Consiste de um problema importante e difícil que tem sido tratado dentro de diversos domínios e áreas de pesquisa, destacando-se principalmente a estatística, aprendizagem de máquina e mineração de dados, dentre outras tais como teoria da informação e teoria espectral Neste trabalho é realizada uma revisão da literatura sobre as técnicas recentemente utilizadas na detecção de anomalias, a fim de criar um embasamento para o desenvolvimento de um Sistema de Detecção de Anomalias (SDA) Deste modo, foi desenvolvido um sistema baseado em uma técnica heurística que analisa dados de tráfego coletados da MIB através do protocolo SNMP O sistema é baseado na utilização de três modelos, o primeiro é o algoritmo de clusterização K-means que consiste de um método de análise de clusters e classificação de dados O segundo método denominado Particle Swarm Optimization (PSO), classificado como um algoritmo evolucionário, consiste de uma ferramenta heurística de otimização numérica altamente eficiente, com baixa complexidade computacional e capacidade de escapar de ótimos locais O terceiro modelo denominado Assinatura Digital de Segmento de Rede (DSNS), caracteriza-se pela criação de perfis de comportamento normal de tráfego de rede, gerado pela ferramenta de Gerenciamento de Backbone Automatizado (GBA), com base em dados históricos da rede Da combinação das técnicas PSO e K-means deu-se origem o algoritmo denominado PSO-Cls, o qual é a base do SDA desenvolvido A fim de avaliar a qualidade do sistema desenvolvido, foram realizados diferentes experimentos sob a perspectiva de diferentes cenários Também foram realizados estudos a respeito da complexidade e otimização dos parâmetros do PSO-Cls Foram utilizados nos experimentos dados reais coletados na rede da Universidade Estadual de Londrina A fim de comparar os resultados obtidos pelo sistema desenvolvido foram implementados dois SDA’s,um baseado em algoritmo determinístico e outro baseado na Análise de Componentes Principais(do inglês Principal Component Analysis, PCA) Finalmente, os resultados obtidos através dos experimentos são apresentados e discutidosItem Um mecanismo de apoio à customização de sistemas web : um estudo de caso aplicado a um ERPLuizão, Fernando Migliorini; Palma, Jandira Guenka [Orientador]; Baccarin, Evandro; Barros, Rodolfo Miranda de; Huzita, Elisa Hatsue MoriyaResumo: Com o amadurecimento dos padrões Web, tornou-se possível desenvolver aplicações web quase tão ricas quanto aplicações desktop, de forma que muitos sistemas corporativos tem sido desenvolvidos nesta plataforma Este tipo de software frequentemente enfrenta necessidades de customizações, e grande parte destas alterações estão localizadas nas interfaces com o usuário Uma forma comum adotada para lidar com esta necessidade é copiar o código original e fazer as alterações Entretanto, essa estratégia é inviável, pois manter várias versões de um mesmo sistema torna-se uma tarefa custosa e propensa a erros Nesta perspectiva, o presente trabalho propõe um mecanismo para simplificar a customização de aplicações web, permitindo a sua composição de acordo com as necessidades Por meio da estrutura criada, interfaces gráficas são definidas a partir de modelos, e geradas dinamicamente em tempo de execução O mecanismo permite que modelos sejam combinados de acordo com regras de precedência, possibilitando customizações sem afetar o código original