02 - Mestrado - Ciência da Computação
URI Permanente para esta coleção
Navegar
Navegando 02 - Mestrado - Ciência da Computação por Assunto "Algoritmos de computador"
Agora exibindo 1 - 7 de 7
Resultados por página
Opções de Ordenação
Item Uma abordagem multicritério aplicada ao problema de seleção de portfólio de projetosGomede, Everton; Barros, Rodolfo Miranda de [Orientador]; Proença Junior, Mario Lemes; Zarpelão, Bruno Bogaz; Vieira, Saulo Fabiano AmâncioResumo: O Problema de Seleção de Portfólio de Projetos (PSPP) objetiva combinar os projetos disponíveis para aumentar o retorno e diminuir o risco da carteira resultante, ao mesmo tempo que respeita um conjunto de restrições Este problema é considerado, portanto, um problema de otimização multiobjetivo A literatura especializada discute o PSPP somente no contexto de disciplina, sendo que o método fica sob a responsabilidade da implementação Alguns autores abordam o problema sem uma formulação matemática adequada, sem um algoritmo de âmbito multiobjetivo e sem um método estruturado para a decisão pós-otimização Isto faz com que os resultados da Seleção de Portfólio de Projetos tenham pouca precisão Este trabalho propõe e avalia uma abordagem multicritério para a solução do PSPP A abstração matemática do problema é descrita em termos das funções risco e retorno As restrições são discutidas e adequadas ao modelo matemático e um método de covariação de riscos é proposto Esta abordagem é composta de duas fases: busca e decisão A primeira utiliza o algoritmo multiobjetivo Nondominated Sorting Genetic Algorithm II (NSGA-II) para obter uma aproximação da Fronteira de Pareto A segunda utiliza o Analytic Hierarchy Process (AHP) com uma hierarquia de critérios baseada em uma revisão bibliográfica Dentre os resultados obtidos pode-se destacar: (i) a Fronteira Eficiente com o conjunto de portfólios disponíveis para a fase de decisão, (ii) um método para a escolha de um portfólio com informações qualitativas (iii) e uma forma de covariação de riscos, que reduz o grau de exposição do portfólio aos riscos específicos dos projetos que o compõem A abordagem mostrou-se útil, avaliada por meio de um estudo de caso, nos seguintes aspectos: (i) permite a simulação de cenários, (ii) facilita a utilização de informação qualitativa, (iii) estrutura o processo de decisão e (iv) reduz as interferências no julgamento sobre quais projetos devem compor o portfólioItem Aprendizado de máquina aplicado à segmentação de imagens de lesão de peleSeixas Junior, José Luis; Felinto, Alan Salvany [Orientador]; Barbon Junior, Sylvio; França, José Alexandre de; Campos, Vitor Valério de SouzaResumo: O diagnóstico incorreto de doenças de pele pode resultar em complicações durante o processo de cura As imagens da pele fornecem informações importantes para a equipe médica no armazenamento e troca de informações na tentativa de prevenir que esse diagnóstico incorreto ocorra Para tal, é necessário um bom processo de segmentação A segmentação dessas imagens já está sendo usada e tem sido uma ferramenta eficaz para o reconhecimento de doenças de pele Este trabalho apresenta diferentes métodos para segmentação, como descoberta de sementes para crescimento de regiões, já que vários algoritmos de crescimento de regiões apresentam bons resultados de clusterização, porém são sensíveis a sementes, usando a energia do canal da cor em regiões, ao invés de usar o sistema de RGB separados para cada pixel Outras abordagens foram construídas com diferentes paradigmas de aprendizagem de máquina para a segmentação de imagens médicas de úlceras de pele em membros inferiores Para o aprendizado de máquina, foram usados os algoritmos de árvore de decisão, que trazem uma abordagem mais intuitíva e também, com redes neurais, que possuem desempenho adequado para problemas não lineares Os resultados foram comparados com modelo ouro obtido com a ajuda de especialistas, os resultados se mostraram adequados para a análise das características das lesões e abriram caminhos que poderão ser seguidos em trabalhos futuros, visto que, mesmo que adequados, os resultados ainda podem ser melhoradosItem Color flipping : minimização de spill code via troca de cores em um grafo de interferênciaSilva, Felipe Lopes da; Attrot, Wesley [Orientador]; Manhas Junior, Elieser Botelho; Barbon Junior, Sylvio; Brancher, Jacques DuílioResumo: Uma das estratégias mais eficientes de alocação de registradores é baseada na coloração por grafos Este trabalho descreve uma nova técnica, denominada color flipping, para trocar as cores em um grafo de interferência que minimiza a inserção de código spill Para isso, um alocador Chaitin-Briggs foi desenvolvido de duas maneiras: com a etapa de troca de cores ativada e desativada Foram realizados experimentos com um conjunto de 27921 grafos de programas reais e experimentos com os benchmarks do SPEC CPU26 no LLVM Os resultados mostraram que em alguns casos foi possível reduzir a quantidade de spill em mais de 12%Item Detecção on-line de k-Flocks com diâmetro como parâmetro livreSanches, Denis Evangelista; Kaster, Daniel dos Santos [Orientador]; Fileto, Renato; Bonifácio, Adilson Luiz; Vieira, Marcos Rodrigues [Coorientador]Resumo: É notória a ubiquidade dos dados espaço-temporais nos dias de hoje, demandando algoritmos eficientes para minerar informações importantes Neste cenário, destaca-se a busca por padrões de comovimento de objetos móveis, pois possuem inúmeras aplicações em diversas áreas O padrão flock, um dos mais conhecidos na literatura, por exemplo, identifica grupos de objetos móveis que se movimentam juntos, próximos entre si por uma distância máxima de um disco de diâmetro fixo predefinido Inúmeros trabalhos apresentam variações e até mesmo outros padrões para mitigar as conhecidas limitações do padrão flock que são a consecutividade temporal e a exigência do grupo em permanecer junto limitado a um disco de tamanho predefinido Para essa limitação do disco do padrão flock diversos trabalhos utilizam a busca por densidade argumentando ser mais flexível e menos restritiva Contudo, tanto a abordagem de busca baseada em disco quanto a baseada em densidade requerem uma distância fixa como entrada para seus algoritmos, portanto, não resolvendo por completo o problema da dificuldade de parametrização desses algoritmos Este trabalho de mestrado apresenta o conceito da descoberta de k-padrões de comovimento que, por meio de uma consulta exploratória exata, um critério de ranqueamento para as respostas e a liberação do usuário de fornecer um parâmetro fixo a uma condição dinâmica sobre o tempo, retorne a quantidade de padrões mais importantes segundo esse critério Especificamente para a identificação de flocks, são apresentadas novas definições de padrões para encontrar os ?? flocks mais significativos, usando como critério de ranqueamento, ou seja, considerando como os flocks mais relevantes, aqueles de tamanho e extensão mínimos (de diâmetros mínimos), e com a distância como parâmetro livre (????-Flocks) Define também um padrão para retornar ????-Flocks que respeitem uma dada distância máxima para refinamento das respostas Respondendo a esses novos padrões, três algoritmos exploratórios com abordagem top-down são apresentados e avaliados Um para detecção de ????-Flocks apenas em uma janela temporal de dados, outro com estratégia de janela deslizante para stream e conjuntos de dados inteiros, ambos livres do parâmetro de distância, e o terceiro de janela deslizante para consultar os ????-Flocks que respeitem a distância limite fornecida (Filtered-????-Flocks) Por fim, os experimentos demostram a importância da aplicação desse novo conceito e padrões para uma consulta exploratória, e uma análise de desempenho dos algoritmosItem A meta-learning approach for selecting image segmentation algorithmAguiar, Gabriel Jonas; Barbon Junior, Sylvio [Orientador]; Felinto, Alan Salvany; Carvalho, Luiz FernandoResumo: Sistemas de Visão Computacional são muito utilizados e importantes em diversas aplicações Dentro desses sistemas, o processo de detectação de uma região de interesse em imagens é de suma importância Esse processo é conhecido como segmentação Novos algoritmos de segmentação tem sido propostos nos últimos anos, porém nenhum é ótimo para qualquer imagem Os métodos, usualmente, utilizados para seleção do melhor algoritmo são testar todos os algoritmos ou utilizar algum conhecimento passado sobre o problema Meta-learning tem sido utilizado pela comunidade de pesquisa em Machine earning para a recomendação do melhor algoritmo de Machine Learning para uma nova base de dados Neste trabalho é investigado a hipótese que Meta-Learning também pode ser utilizado para recomendação do algoritmo de segmentação mais adequado Os experimentos foram conduzidos com oito algoritmos de segmentação, com diferentes abordagens, baseadas em custo e complexidade computacional em uma base de benchmark composta de 3 imagens originais e 21 imagens criadas por augmentation Os resultados mostraram que através do Meta-Learning é possível recomendar o algoritmo de segmentação mais adequado com mais de 8% de acurácia para um grupo de algoritmos e com 69% para o outro grupo, superando os baselines considerando performance preditiva e de segmentaçãoItem Minimização de spill code para minimizar o consumo de energiaLuna, Marcelo Fernandes de; Attrot, Wesley [Orientador]; Felinto, Alan Salvany; Zarpelão, Bruno Bogaz; Campos, Vitor Valério de SouzaResumo: Devido às restrições de potência da atual tecnologia de semi-condutores, o consumo de energia se tornou um importante fato rpara os sistemas de computadores Reduzir a energia consumida por esses sistemas pode significar mais tempo de bateria para dispositivos móveis ou redução dos custos financeiros para data centers Um dos gargalos de consumo de energia dos sistemas de computadores é o tráfego de informações entre o processador e a hierarquia de memória Neste trabalho, é realizada uma avaliação da redução do consumo de energia da nova técnica de minimização de spill code, chamada color flipping, em comparação com as abordagens clássicas Para realização dos experimentos, foi implementado no framework LLVM (Low-Level Virtual Machine), o alocador de Briggs com e sem a estratégia de color flipping e foram executados alguns benchmarks do conjunto SPEC CPU 26 com as duas estratégias em uma versão modificada do simulador gem5 para arquitetura ARM Cortex-A9 Então, o consumo de energia foi estimado para cada benchmark, utilizando o framework McPAT Os resultados mostram que a técnica pode reduzir aproximadamente 1% do consumo de energia de programas de aritmética inteiraItem Strict very fast decision tree : a memory conservative algorithm for data stream classificationCosta, Victor Guilherme Turrisi; Barbon Junior, Sylvio [Orientador]; Zarpelão, Bruno Bogaz; Mantovani, Rafael GomesResumo: Lidar com restrições de memória e tempo são desafios presentes quando deseja-se aprender com fluxos massivos de dados Diversos algoritmos foram propostos para lidar com essas dificuldades, entre eles, a Very Fast Decision Tree (VFDT) Apesar da VFDT ser amplamente utilizada para a mineração de fluxos de dados, nos últimos anos, diversos autores sugeriram mudanças para melhorar a capacidade preditiva desse algoritmo, mas ignorando os altos custos adicionais de memória e tempo ocasionados por essas modificações Além disso, mais recentemente, a maioria dos algoritmos para mineração de fluxos de dados são baseados em ensembles, sendo bem custosos considerando os recursos de memória e tempo Esse estudo apresenta um novo algoritmo baseado na VFDT chamado de Strict VFDT (SVFDT) que reduz custos de memória mantendo capacidade preditiva similar a VFDT Além disso, como as árvores de decisão geradas são mais rasas, a SVFDT acaba reduzindo o tempo computacional necessário para se processar um fluxo de dados Esse algoritmo aplica medidas heurísticas para bloquear divisões de folhas que não resultam em um aumento significativo na capacidade preditiva Foram realizados experimentos comparando a SVFDT com a VFDT em 26 fluxos de dados Após realizar diversas análises, cada qual focando em algum dos múltiplos aspectos dos algoritmos, foi possível observar que o algoritmo proposto é capaz de reduzir drasticamente o consumo de memória enquanto possui capacidade preditiva similar e sendo mais rápido em muitos casos