Programa de Pós Graduação em Modelagem Matemática e Computacional - PPGMMC
URI Permanente desta comunidade
Navegar
Navegando Programa de Pós Graduação em Modelagem Matemática e Computacional - PPGMMC por Assunto "Algoritmos"
Agora exibindo 1 - 20 de 20
Resultados por página
Opções de Ordenação
Item ADDIC – Algoritmo distribuído para a descoberta de comunidades sobrepostas em grandes grafos(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-09-26) Nascimento, João Paulo Barbosa; Pereira, Adriano César Machado; http://lattes.cnpq.br/6813736989856243; http://lattes.cnpq.br/8472333663591219; Pereira, Adriano César Machado; Freitas, Henrique Cota de; Martins, Carlos Augusto Paiva da Silva; Almeida, Paulo Eduardo Maciel de; Pádua, Flávio Luis CardealRedes complexas são sistemas grandes e dinâmicos que podem ser modelados por grafos. Muitos sistemas sociais, biológicos ou tecnológicos são considerados redes complexas, dentre eles a Internet e a Web, as redes sociais reais ou virtuais e as redes de infraestrutura física, tais como redes de transporte e de comunicação. A análise destas redes, na forma de grandes grafos, provê informações importantes acerca das características dos sistemas modelados. No entanto, o processamento sequencial destes grafos pode requerer alto custo computacional ou mesmo ser inviável, dependendo de seu tamanho e complexidade. Para solucionar esse problema recorre-se ao processamento paralelo e distribuído. Este trabalho propõe o algoritmo paralelo e distribuído ADDIC, indicado para o processo de detecção de comunidades sobrepostas em uma rede complexa de grande porte. O algoritmo foi projetado a partir de um importante algoritmo da literatura denominado DEMON e também por meio de um estudo criterioso do framework de programação paralela e distribuída Apache Spark, aliado a um planejamento detalhado de experimentos. Os experimentos foram executados em vários tipos de grafos de diferentes tamanhos, reais e sintéticos. O tempo de execução, consumo de recursos (CPU e Memória RAM) e medidas de escalabilidade e eficiência do algoritmo foi avaliado. Os resultados dos experimentos indicam que o ADDIC alcança seu objetivo, que é detectar comunidades sobrepostas, além de apresentar resultados de tempo de execução melhores que o principal algoritmo sequencial da literatura. Além disso, o algoritmo proposto apresenta escalabilidade próxima à linearidade e boas taxas de eficiência.Item Algoritmo GVNS aplicado ao problema das p-medianas capacitado abordagens determinística e robusta(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-12-20) Vasconcelos, Anderson Moreira; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Sá, Elisângela Martins de; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/6078945717558464; http://lattes.cnpq.br/6195947972246267; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Sá, Elisângela Martins de; Silva, Maria Amélia Lopes; Haddad, Matheus Nohra; Wanner, Elizabeth Fialho; Menezes, Gustavo CamposO Problema das p-Medianas Capacitado (PPMC) consiste em localizar p instalações em uma rede composta por n vértices e decidir qual mediana atenderá cada vértice, a fim de minimizar a soma das distâncias dos vértices à mediana a qual ele foi alocado e atender às restrições de capacidade de cada mediana. Considerando que as demandas dos clientes são incertas, é proposta a aplicação de uma abordagem de otimização robusta para lidar com a incerteza nestes parâmetros dando origem ao problema das p-Medianas Robusto Capacitado (PPMRC). Esta tese propõe algoritmos para resolução do PPMC e o PPMRC. Para resolver o PPMC, foram propostas quatro variantes da metaheurística General Variable Neighborhood Search (GVNS), que se diferem no método usado para construir uma solução inicial e nos métodos usados para realizar a busca local. Nas duas primeiras variantes, denominadas G-VND e G-RVND, a solução inicial é gerada de forma aleatória e os métodos de busca local são o Variable Neighborhood Descent (VND) e o Random Variable Neighborhood Descent (RVND), respectivamente. Nas duas últimas variantes, denominadas GG-VND e GG-RVND, a solução inicial é gerada através da fase de construção da metaheurística Greedy Randomized Adaptive Search Procedure (GRASP) e os métodos de busca local são o VND e o RVND, respectivamente. Os resultados de experimentos computacionais usando instâncias da literatura mostraram que o algoritmo GG-RVND apresentou melhor desempenho que os outros três algoritmos. Além disso, os resultados obtidos pelo algoritmo GG-RVND foram melhores do que aqueles da literatura, tanto em termos da qualidade das soluções geradas quanto em relação ao tempo de execução. Para o PPMRC, foi proposto um algoritmo baseado na metaheurística GVNS, com a solução inicial gerada através da fase construtiva do método GRASP e uma busca local realizada via VND. Os experimentos computacionais comparam os resultados do GVNS e as soluções do solver CPLEX. Para realizar esses experimentos computacionais, foram utilizadas instâncias da literatura, variando de 318 nós e cinco medianas a 4461 nós e 1000 medianas. Este estudo considera diversos cenários, valores variados dos parâmetros de robustez e de incerteza na demanda. Os resultados mostram que o Algoritmo GVNS tem um bom desempenho em encontrar boas soluções e supera o solver CPLEX, encontrando soluções melhores mesmo quando aplicado para resolver o conjunto de dados de menor dimensão.Item Algoritmos e modelos matemáticos para o problema da k-partição de números(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-02-16) Faria, Alexandre Frias; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; http://lattes.cnpq.br/8465270749629421; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/7284035698082266; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; Coleho, Alessandra Martins; Cardoso, Rodrigo Tomás NogueiraEsta dissertação de mestrado apresenta uma formulação matemática e algoritmos para a versão de otimização do Problema da k-Partição de Números. Este problema consiste em distribuir os elementos de uma sequência numérica em k subconjuntos disjuntos, de modo que os resultados das somas dos elementos de cada subconjunto fiquem contidos no menor intervalo possível. A formulação matemática proposta é baseada em dois problemas semelhantes da literatura. Elimina-se a multiplicidade de soluções do modelo de programação inteira, reduzindo ao mínimo o número de variáveis. Mostra-se a NP-completude do problema estudado. Estudam-se algoritmos heurísticos, aproximados e exatos da literatura aplicáveis aos problemas relacionados. Aplica-se a meta-heurística ILS (Iterated Local Search) à solução gerada por um algoritmo aproximado. A estratégia utilizada é aplicar método guloso em todas as fases do algoritmo, tanto na inicialização quanto para a escolha de movimentos do ILS. Propõe-se uma melhoria de métodos exatos Branch-and-Bound aplicados ao problema e presentes na literatura . Esta modificação refina os limitantes do método, usando a relaxação do modelo matemático e ILS propostos. Insere-se um critério de busca para que os nós mais promissores tenham prioridade. Os resultados mostram a solução do ILS superando as soluções de heurísticas construtivas listadas na literatura. A qualidade da solução do ILS é certificada por métodos exatos, um da literatura e outro com as melhorias propostas neste trabalho. As modificações do algoritmo exato se mostram eficazes em uma comparação entre a solução alcançada sobre o número de nós explorados nas duas versões.Item Algorítmos iterated local search e simulated annealing aplicados ao problema de localização com cobertura parcial(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-07-14) Cardoso, Leonardo Correa; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/7295935169153074; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; Diana, Rodney Oliveira Marinho; Menezes, Gustavo CamposO Problema de Localização com Cobertura Parcial consiste em localizar um conjunto de instalações de forma a minimizar o custo total de localização e garantir que uma quantidade predeterminada de demanda de clientes seja coberta por estas instalações. Este trabalho apresenta dois algoritmos para a resolução deste problema, sendo o primeiro baseado na meta-heurística Iterated Local Search e o segundo baseado na meta-heurística Simulated Annealing. Além disso, um conjunto de experimentos computacionais foram realizados e resultados demonstram que boas soluções podem ser encontradas para instâncias moderadamente grandes.Item Algoritmos para as versões determinística e robusta do problema de localização de concentradores com maximização do lucro(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-02-27) Oliveira, Fabricio Alves; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/4686246805500174; Elisângela Martins de Sá; Sérgio Ricardo de Souza; Mateus, Geraldo Robson; Morabito Neto, Reinaldo; Souza, Marcone Jamilson Freitas; Menezes, Gustavo CamposEsta tese estuda o problema de localização de concentradores, com objetivo direcionado para a maximização do lucro. Esse problema consiste em estabelecer a localização de concentradores, o projeto da rede e a alocação dos nós de demanda aos concentradores para maximizar o lucro total da rede. O problema considera que a rede de concentradores é incompleta, nenhuma estrutura topológica específica é requerida e é assumido que os concentradores e arcos entre concentradores possuem capacidade suficiente para lidar com o fluxo de demanda na rede. Este trabalho apresentou novas formulações e investigou suas propriedades. As formulações propostas assumem a estratégia de alocação múltipla; não impõem quaisquer restrições ao número de concentradores ou arcos entre concentradores instalados na rede; não permitem conexões diretas entre nós não concentradores e permitem que a demanda da rede seja parcialmente satisfeita, sendo atendida apenas quando for rentável. Essa última característica e o foco na maximização do lucro diferenciam o problema abordado nesta tese em relação aos problemas clássicos de localização de concentradores, nos quais a demanda completa entre todos os pares de origem e destino é atendida, e, além disso, os problemas são modelados sob o ponto de vista dos custos. Esta tese também investigou as propriedades e realizou uma análise comparativa das formulações propostas com outra da literatura. Para resolver o problema, foram desenvolvidos algoritmos baseados no método de decomposição de Benders, incluindo várias estratégias de aprimoramento. Uma vez que o problema aqui abordado é NP-difícil, também foram propostos dois algoritmos heurísticos baseados em busca local e troca sistemática de estruturas de vizinhança para solucionar instâncias do problema de grande porte. Para analisar a eficiência dos procedimentos de solução propostos, foram realizados extensivos experimentos computacionais com instâncias de referência na área de localização de concentradores. Os resultados desses testes mostraram que os algoritmos propostos possuem um bom desempenho. Em particular, com o método de decomposição de Benders, foram resolvidas até a otimalidade instâncias com até 150 nós. Por outro lado, com os algoritmos heurísticos, foram solucionadas instâncias contendo até 500 nós. Adicionalmente, foi realizada uma análise das estruturas de vizinhança consideradas nos algoritmos heurísticos e uma comparação estatística entre os dois algoritmos. Nesta tese também foi abordado o problema de localização de concentradores com maximização do lucro em que as demandas e os custos de instalação de concentradores e arcos entre concentradores são incertos. Uma formulação robusta, que permite controlar o grau de conservadorismo do modelo por meio de um budget de incerteza, é desenvolvida para este caso. São apresentadas discussões sobre a influência que a incerteza nos dados tem sobre a configuração da rede e sobre o lucro associado a ela. Para resolver o problema robusto, foram propostos um algoritmo exato baseado em decomposição de Benders e outro heurístico baseado na meta-heurística Iterated Local Search, adaptados dos melhores métodos identificados na resolução do problema determinístico. As soluções obtidas com o problema robusto possuem diferenças significativas em relação às soluções do problema determinístico, o que evidencia a importância de se estudar este tipo de problema, principalmente em aplicações reais. A incerteza nos dados pode levar a necessidade de um redesenho da rede de concentradores, o que influencia diretamente o lucro associado a ela.Item Classificação e reconhecimento de padrões: novos algoritmos e aplicações / Emmanuel Tavares Ferreira Affonso(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-28) Affonso, Emmanuel Tavares Ferreira; Silva, Alisson Marques da; Moita, Gray Farias; http://lattes.cnpq.br/2550201329788172; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/3453401178017064Este trabalho visa o desenvolvimento de novos algoritmos para tarefas de classificação e reconhecimento de padrões. Inicialmente é proposto um método para seleção de atributos (FS, do inglês feature selection) para classificadores com treinamento offline. A abordagem de FS proposta, chamada de Mean Ratio for Feature Selection (MRFS), é baseada na razão das médias dos atributos em cada classe. MRFS possui baixo custo computacional pois utiliza apenas operações matemáticas básicas como adição, divisão e comparação e realiza apenas uma passagem nos dados para ranquear os atributos. O MRFS foi implementado e avaliado como método filter (MRFS-F) e como wrapper (MRFS-W). O desempenho dos métodos foram avaliados e comparados com o estado da arte. As comparações realizadas sugerem que os métodos propostos possuem um desempenho comparável ou superior aos métodos alternativos. Além dos métodos de FS foram propostos três classificadores evolutivos com treinamento online. O primeiro chamado de evolving Fuzzy Mean Classifier (eFMC) é baseado em um algoritmo de agrupamento fuzzy que realiza a classificação com base no grau de pertinência dos grupos. Novos grupos são criados sempre que uma nova classe é descoberta e a atualização do centro dos grupos é através das médias amostrais calculadas de forma incremental. O segundo classificador introduzido é o evolving Fuzzy Classifier (eFC) que de maneira análoga utiliza as médias amostrais para atualização dos centros dos grupos. Seu diferencial está na capacidade de gerar mais de um grupo associado a uma mesma classe para mapear diferentes regiões do espaço dos dados, criação de novos grupos aplicando o conceito de procrastinação, união de grupos redundantes e exclusão de grupos obsoletos. Por fim, foi proposto um classificador evolutivo com seleção de atributos denominado evolving Fuzzy Classifier with Feature Selection (eFCFS). Este classificador foi construído utilizando o mesmo algoritmo do eFC e incorporando o método MRFS de seleção de atributos. Os classificadores evolutivos propostos foram avaliados e comparados com três classificadores evolutivos alternativos. Os resultados experimentais e as comparações sugerem que os métodos baseados no MRFS para auxiliar modelos com treinamento offline e os 3 modelos evolutivos com treinamento online são promissores como alternativas para tarefas de classificação e reconhecimento de padrões, com boa acurácia e baixo custo computacional.Item Coleta e tratamento de dados sobre a produção técnica brasileira um estudo baseado em patentes(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-17) Silva, Raulivan Rodrigo da; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Chalco, Jesús Pascual Mena; Silva, Alisson Marques daEste trabalho busca contribuir com a compreensão do cenário tecnológico nacional, tendo como principal objetivo coletar, agregar e realizar tratamentos em grandes conjuntos de dados de patentes, para que dessa forma seja possível traçar uma visão geral da produção técnica brasileira. Tal análise é fundamentada na coleta e tratamento de patentes depositadas no Instituto Nacional da Propriedade Industrial (INPI) e disponibilizadas no repositório internacional de patentes, Espacenet. Inicialmente, é apresentado um conjunto de estratégias que propiciou a coleta, tratamento e agregação dos dados contidos em documentos de patentes, processo este, que viabilizou a construção de uma base de dados local, flexível e ampla, composta por dados provenientes do INPI e Espacenet. Para agregar mais valor à base de dados, foram também coletados registros da base curricular da Plataforma Lattes do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). A fim verificar a representatividade das patentes registradas nos currículos da plataforma e sua validação junto aos dados coletados na Espacenet. Os dados coletados foram analisados e os resultados são apresentados sob diversas perspectivas, por meio de técnicas de bibliometria, patentometria, mineração de textos e algoritmos de processamento de linguagem natural, foram levantados indicadores quantitativos que caracterizam a produção técnica brasileira, tais como, evolução temporal, áreas do conhecimento que mais depositam patentes de acordo com as classificações obtidas, maiores depositantes, instituições de ensino superior que mais depositam patentes, entre outras. Consequentemente, foi possível salientar que estudar os diversos aspectos da evolução tecnológica com base em informações oriundas de documentos de patentes, além de ser relevante, possibilita compreender tendências tecnológicas e identificar especialistas em determinadas áreas do conhecimento. Além disso, gera uma formulação de políticas e estratégias que potencialize um diferencial competitivo para empresas e organizações atuantes no ramo da inovação e tecnologia. Ademais, destaca-se o grande esforço despendido para análise de um grande volume de dados de patentes, que corrobora com a proposição de uma base de dados local.Item Desenvolvimento de matrizes de distâncias para representar interações de proteínas combinadas com algoritmos de agrupamento(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-08-24) Monteiro, Otaviano Martins; Rodrigues, Thiago de Souza; Dias, Sandro Renato; http://lattes.cnpq.br/5300421458375793; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/5378637011361467; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Gomes, Rogério Martins; Cruz, André Rodrigues da; Menezes, Gustavo Campos; Silva, Alisson Marques daAs proteínas são macromoléculas formadas por aminoácidos e estão presentes em todos os seres vivos. Várias proteínas tiveram suas estruturas tridimensionais resolvidas experimentalmente e foram armazenadas através de arquivos de texto em bancos de dados biológicos como o Protein Data Bank (PDB). Essas informações proteicas podem ser utilizadas por softwares, como o LSQKAB, que verificam similaridades tridimensionais de proteínas através de sobreposições entre os átomos das estruturas comparadas. No entanto, a realização de sobreposições atômicas requer um alinhamento preciso entre os átomos de duas estruturas por meio de movimentos de rotação e translação. Esse procedimento é computacionalmente intensivo, sendo classificado como NP-Completo. Portanto, a realização de múltiplas sobreposições atômicas, algo frequente em softwares que propõem mutações em proteínas, acarreta em um elevado custo computacional. Assim sendo, o propósito deste estudo consiste em elaborar abordagens fundamentadas em matrizes de distâncias, combinadas com algoritmos agrupamento (clustering) com o intuito de criar conjuntos de interações de proteínas que compartilham conformações tridimensionais semelhantes. O objetivo principal é alcançar soluções de alta precisão e desempenho notável, com o propósito de minimizar a necessidade de realizar sobreposições atômicas. Com o intuito de cumprir esses objetivos, foram desenvolvidas matrizes de distâncias baseadas em diferentes abordagens. A Matriz de Ângulos (MA) foi desenvolvida a partir dos ângulos dos átomos. A Matriz de Distâncias Completa Mista (MDCM) foi desenvolvida através da fusão de diferentes técnicas. A Matriz de Distâncias Reduzida cujos Centroides são Carbonos Alfa (MDRCCA), a Matriz de Distâncias Reduzida a partir de um Ponto entre os Carbonos Alfa (MDRPCA), além da Matriz de Pontos Médios (MPM) foram desenvolvidas a partir da importância dos átomos de carbonos alfa (CA). A concepção da MPM também foi influenciada pela importância das distâncias entre todos os átomos na estrutura, uma vez que essas distâncias são cruciais para o enovelamento da mesma. Essas estratégias foram integradas a algoritmos de agrupamento e os resultados subsequentes foram comparados com o método de busca da ferramenta RID, por ser uma ferramenta especialista em trabalhar com interações de proteínas, além da atomic Cutoff Scanning Matrix (aCSM) por ser uma das versões da Cutoff Scanning Matrix (CSM), que é considerada o estado da arte na geração de assinaturas em grafos proteicos, e com a Matriz de Distâncias Completa (MDC), que apresentou resultados superiores ao método de busca da RID e aCSM, nos primeiros trabalhos deste projeto. Os resultados foram satisfatórios, principalmente os alcançados pela MPM, que superou as demais técnicas na maioria dos experimentos.Item Desenvolvimento de uma metodologia baseada em matriz de distâncias para a verificação de similaridades de proteínas(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-25) Monteiro, Otaviano Martins; Rodrigues, Thiago de Souza; Dias, Sandro Renato; http://lattes.cnpq.br/5300421458375793; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/5378637011361467; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Semenchenko, Anton; Lacerda, Anísio MendesAs proteínas são macromoléculas presentes em todos os seres vivos e desempenham funções importantes, tais como manutenção de órgãos e tecidos, diferenciação celular, transporte, entre outras diversas finalidades. Várias proteínas, possuem a sua estrutura tridimensional resolvida e armazenada em bancos de dados biológicos, como o Protein Data Bank (PDB). Existem diversos softwares que trabalham com informações extraídas do PDB. Algumas dessas ferramentas, tem como função a verificação de similaridades entre estruturas proteicas. Um exemplo é o LSQKAB, que pertence ao pacote CCP4, e tem o seu funcionamento baseado no algoritmo de Kabsch, uma técnica frequentemente utilizada na área de bioinformática que possibilita a comparação entre duas estruturas de proteínas. Este trabalho tem como objetivo desenvolver uma metodologia baseada em uma matriz de distâncias, que verifique a similaridade de trechos de proteínas. A sua precisão deve ser a mesma do LSQKAB e ainda deve ser possibilitado o agrupamento de resíduos de acordo com as similaridades de seus valores de distâncias atômicas. Os experimentos foram realizados com arquivos de interações de resíduos de uma mesma proteína e os resultados foram comparados com o Cutoff Scanning Matrix (CSM) e com a técnica do arquivo de referência, utilizada na busca de pares interagentes pela ferramenta RID. Foi possível formar diversos grupos com arquivos similares através de cada técnica avaliada. A metodologia apresentada obteve resultados interessantes diante das outras técnicas comparadas, obtendo uma maior precisão.Item Design configuration for MMAS algorithm applied for the travelling salesman problem with dynamic demands(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-06-24) Oliveira, Sabrina Moreira de; Souza, Sérgio Ricardo de; Wanner, Elizabeth Fialho; Bezerra, Leonardo César Teonácio; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/0664132257054306; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/9822253950704581; Souza, Sérgio Ricardo de; Wanner, Elizabeth Fialho; Bezerra, Leonardo César Teonácio; Marcelino, Carolina Gil; Stüzle, Thomas; Sá, Elisângela Martins de; Martins, Flávio Vinícius CruzeiroOs algoritmos Ant Colony Optimization (ACO) foram inicialmente desenvolvidos para problemas de otimização estática, em que os dados do problema são conhecidos a priori e não sofrem alterações durante a execução. No entanto, sua estrutura baseada em memória mostrou-se eficaz também em Problemas de Otimização Combinatória Dinâmicos (POCD), nos quais os dados podem mudar em tempo real, sem previsibilidade. A partir de uma revisão da literatura, identificaram-se adaptações para melhorar o desempenho do ACO em POCD, incluindo o algoritmo Population-Based ACO (P-ACO), projetado especificamente para essa classe de problemas. Embora o P-ACO tenha se destacado por seu processamento rápido, faltam estudos conclusivos sobre a eficácia dos métodos ACO em cenários dinâmicos. Neste trabalho, realiza-se uma extensiva campanha experimental para avaliar as principais versões do ACO aplicáveis a POCD: o MAX-MIN Ant System (MMAS) e o P-ACO. Utilizou-se como estudo de caso uma variação dinâmica do Problema do Caixeiro-Viajante (PCVDD), amplamente adotado na literatura. As principais contribuições incluem: (i) a proposta de um setup experimental pioneiro, com configuração automática de parâmetros para POCD; (ii) a introdução da métrica de hipervolume para avaliação de desempenho em horizontes temporais variáveis; e (iii) a comparação entre MMAS e P-ACO, demonstrando que o MMAS supera o P-ACO quando combinado com busca local, enquanto o inverso ocorre sem essa técnica. Os resultados também indicam que procedimentos adaptativos têm impacto significativo apenas quando a busca local é desativada.Item Formulações de programação matemática e um algoritmo heurístico para o problema de localização de mamógrafos(Centro Federal de Educação Tecnológica de Minas Gerais, 2020-10-19) Campos, Marcos Vinícius Andrade de; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/2103966273210204; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Chaves, Antônio Augusto; Silva, Maria Amélia Lopes; Sá, Elisângela Martins deO câncer de mama é o mais comum na população feminina. O diagnóstico precoce desta doença, por meio do rastreamento por mamografia, pode elevar as chances de cura a 95%. Estudos mostram que o Brasil tem um número de mamógrafos relativamente satisfatório, mas esses equipamentos estão mal distribuídos geograficamente. O foco, neste trabalho, é o Problema de Localização de Mamógrafos (PLM), o qual visa a encontrar uma distribuição eficiente dos equipamentos de mamografia, de forma a aumentar a demanda coberta. Para tratar esse problema, inicialmente é desenvolvida uma formulação de programação linear inteira mista, cujo objetivo é maximizar a cobertura de mamografias dado o número de equipamentos disponíveis. Considerando que o PLM é da classe NP-difícil, também desenvolvemos um algoritmo baseado na meta-heurística Simulated Annealing, para tratar instâncias maiores do problema. Instâncias baseadas em dados reais dos Estados de Minas Gerais e Rondônia foram usadas para testar os dois métodos de solução. A comparação entre os métodos é feita com relação à qualidade da solução e o tempo gasto para obtê-la. Com foco no Estado de Minas Gerais, também é feita uma análise considerando que, na prática, há dificuldade de realocar equipamentos já instalados. Assim, é feita uma proposta de designação gradativa de novos mamógrafos até que o acréscimo de um novo equipamento não aumente a cobertura. Outros dois cenários são abordados: o primeiro restringe o fornecimento de exames de mamografia a cidades da mesma microrregião; e o segundo, em locais em que o tipo de gestão do mamógrafo é considerado no cálculo da cobertura atual. Os resultados mostraram que há possibilidade de melhoria na distribuição atual dos equipamentos, uma vez que tanto o método exato quanto o algoritmo heurístico conseguiram fornecer uma cobertura significativamente maior.Item k-in-a-TREE: an integer programming approach(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-10-16) Ferreira, Lucas Saldanha; Santos, Vinícius Fernandes dos; http://lattes.cnpq.br/6270626469557436; Santos, Vinícius Fernandes dos; Melo, Rafael Augusto de; Valle, Cristiano Arbex; Sá, Elisângela Martins de; Martins, Flávio Vinícius CruzeiroChudnovsky e Seymour (2010) propuseram o algoritmo THREE-IN-A-TREE, que resolve o seguinte problema em tempo polinomial: dado um grafo simples e finito e três vértices fixos, verificar se existe uma árvore induzida contendo esses vértices. Neste trabalho, lidamos com uma generalização natural desse problema, denominada k-IN-A-TREE. Este problema pergunta se um grafo contém uma árvore induzida que abrange k vértices predeterminados. Quando k faz parte da entrada, o problema é conhecido por ser NP-completo, se k ≥ 4 é um número fixo, sua complexidade está aberta. Entretanto existem algoritmos eficientes para casos restritos, como grafos livres de garras, grafos com circunferência pelo menos k e grafos cordais. Neste trabalho apresentamos formulações de programação inteira mista para o problema em questão e mostramos que instâncias com até 25.000 vértices podem ser resolvidas em tempo computacional razoável. Também agregamos mais de três anos de tempo computacional em experimentos projetados para explorar quais variáveis impactam o tempo de execução das várias instâncias geradas; essas análises fornecem um perfil para o problema k-IN-A-TREE em sua forma mais genérica. As contribuições deste trabalho incluem demonstrar que o k-IN-A-TREE pode ser eficientemente resolvido usando Programação Linear Inteira (ILP), permitindo a solução de instâncias de tamanhos relativamente grandes. Além disso, apresentamos análise detalhada que foi conduzida para identificar e caracterizar as principais variáveis que influenciam a dificuldade computacional do problema, fornecendo dados valiosos sobre como a estrutura do grafo, tamanho, conectividade dos vértices e a distribuição dos elementos obrigatórios, afetam a dificuldade. Outra contribuição significativa é a demonstração de que o problema pode ser resolvido de forma eficaz em intervalos de tempo que seriam insuficientes para resolver outros problemas combinatórios complexos, como o Problema do Caixeiro Viajante (TSP). Isso destaca a tratabilidade computacional do problema em ambientes com restrições de tempo, onde outros problemas de complexidade semelhante permanecem mais desafiadores. Essas contribuições avançam o entendimento do problema, estabelecendo um novo marco para a habilidade de resolver o problema e abrindo caminho para futuras explorações teóricas e práticas.Item Meta-heurísticas GRASP e ILS aplicadas ao problema de localização de instalações indesejadas(Centro Federal de Educação Tecnológica de Minas Gerais, 2020-10-02) Lancuna, Wesley de Matos; Sá, Elisangela Martins de; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/5933268630752537; Sá, Elisangela Martins de; Souza, Sérgio Ricardo de; Camargo, Ricardo Saraiva de; Souza, Marcone Jamilson Freitas; Cardoso, Rodrigo Tomás NogueiraEste trabalho tem seu foco no problema de localização de instalações indesejadas. O problema consiste em localizar instalações, de modo que as mesmas estejam o mais afastado possível dos clientes. As instalações serão selecionadas de forma a maximizar a soma das distâncias dos clientes à instalação mais próxima. Possíveis aplicações desse problema são instalações de aterros sanitários, usinas nucleares, barragens de rejeitos de minério e penitenciárias. Como o problema é considerado NP-difícil, para buscar melhores soluções para o problema, propõe-se dois algoritmos meta-heurísticos, um que combina as técnicas do GRASP e do ILS, e o outro que combina as técnicas de inserção mais barata e o ILS. Os resultados mostram que as técnicas propostas apresentam resultados equivalentes aos melhores algoritmos da literatura estatisticamente e são mais simples de serem reproduzidas.Item Modelos e algoritmos para um problema integrado de planejamento, sequenciamento, alocação de pátio e alocação de berço em terminais portuários graneleiros(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-04-21) Andrade, João Luiz Marques da; Menezes, Gustavo Campos; http://lattes.cnpq.br/6903109160065321; http://lattes.cnpq.br/1800299836312312; Menezes, Gustavo Campos; Storck, Carlos Renato; Sá, Elisângela Martins; Souza, Sérgio Ricardo deA integração entre os processos operacionais e logísticos é de fundamental importância para garantir uma operação eficiente e produtiva de um terminal portuário. Este trabalho estuda um problema integrado de planejamento e sequenciamento, alocação de pátio e alocação de berço em um terminal portuário graneleiro. O problema pretende definir a quantidade e destino de cada produto de entrada ou saída do terminal, alocar cada produto nos pátios, estabelecer um conjunto de rotas viáveis que garantam que os produtos sejam estocados e transportados para os berços, e determinar a sequência, o tempo de atracação e a posição de cada navio simultaneamente, minimizando os custos de operação e o tempo de serviço dos navios. Os principais objetivos são desenvolver modelos matemáticos e projetar algoritmos eficientes para solucionar o problema integrado em estudo com instâncias de larga escala. As contribuições desta pesquisa referem-se a duas formulações matemáticas para o problema integrado e um algoritmo de solução para cada formulação. Um algoritmo combina o método de geração de coluna com uma heurística de mergulho com backtracking, uma heurística relax-and-fix e o algoritmo branch-and-cut. O outro algoritmo combina uma heurística de mergulho com backtracking, uma heurística local branching, duas heurísticas relax-and-fix e uma heurística rolling horizon com uma estratégia de fixação de variáveis. Os resultados dos testes computacionais mostram que ambas as abordagens de solução foram capazes de oferecer um limite superior de qualidade para suas respectivas formulações para instâncias de grande porte, com destaque para o desempenho da heurística que aplica a técnica de geração de colunas.Item Multi- and many-objective optimization some advances towards theoretical aspects in performance quality indicators and evolutionary frameworks(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-11-30) Lopes, Cláudio Lúcio do Val; Martins, Flávio Vinicius Cruzeiro; Wanner, Elizabeth Fialho; Deb, Kalyanmoy; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/9356922762318218; Martins, Flávio Vinicius Cruzeiro; Wanner, Elizabeth Fialho; Deb, Kalyanmoy; Takahashi, Ricardo Hiroshi Caldeira; Fonseca, Carlos Manuel Mira de; Sá, Elisângela Martins de; Lisboa, Adriano ChavesA otimização com muitos objetivos (MaO) refere-se a problemas com quatro ou mais objetivos, os quais introduzem desafios complexos, incluindo a ineficácia da dominância de Pareto, dificuldades no cálculo de indicadores de qualidade, visualização de conjuntos de soluções e equilíbrio entre convergência e diversidade. Um dos principais problemas nesse contexto é a comparação e avaliação de conjuntos de soluções gerados por algoritmos de otimização, já que tais conjuntos frequentemente contêm soluções incomparáveis. A seleção adequada de indicadores de qualidade é crucial para caracterizar a frente de Pareto de maneira precisa. Nesta tese, abordamos inicialmente o indicador Dominance Move (DoM), propondo novos métodos para seu cálculo, incluindo modelos de programação inteira mista (MIP) e uma abordagem aproximada baseada em aprendizado de máquina. O DoM demonstrou ser uma ferramenta eficaz para medir e comparar soluções em problemas MaO. Em seguida, apresentamos uma estrutura multiestágio que emprega algoritmos evolutivos baseados em vetores de referência para gerar conjuntos de soluções bem distribuídas e convergentes. Essa abordagem visa corrigir progressivamente deficiências em estágios anteriores, assegurando a obtenção de soluções Pareto-ótimas representativas. Os resultados desta pesquisa incluem a análise sistemática de métodos existentes e extensões inovadoras, tanto em indicadores de qualidade quanto em técnicas para equilibrar convergência e diversidade em algoritmos evolutivos.Item Problemas de programação de tarefas com janelas de conclusão e penalidades por antecipação e atraso: algoritmos e formulações(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-10-27) Rosa, Bruno Ferreira; Michelon, Philippe Yves Paul; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/6925570277196451; http://lattes.cnpq.br/9733200718349659; Souza, Sérgio Ricardo de; Souza, Marcone Jamilson Freitas; Michelon, Philippe Yves Paul; Ronconi, Débora Pretti; Ochi, Luiz Satoru; Souza, Maurício Cardoso de; França Filho, Moacir Felizardo de França; Sá, Elisângela Martins de; Martins, Flávio Vinícius CruzeiroEste trabalho trata o problema de programação de tarefas em uma máquina com janelas de conclusão distintas e tempos de preparação da máquina dependentes da sequência de exe- cução das tarefas, denominado SMSPETP-SDS. O objetivo é minimizar a soma ponderada das antecipações e dos atrasos na conclusão das tarefas. Em termos práticos, as penalidades por antecipação são decorrentes de custos gerados pela necessidade de estocagem, enquanto as penalidades por atraso são consequências de multas contratuais. O SMSPETP-SDS possui muitas aplicações em indústrias metalúrgicas, têxteis, químicas, entre outras. Além do grande número de aplicações, é um problema difícil de ser resolvido na otimalidade, visto pertencer à classe NP-difícil. A união entre a aplicabilidade e a dificuldade de encontrar uma solução ótima motiva o desenvolvimento de algoritmos eficientes para resolvê-lo. Apesar disso, o problema de programação de tarefas com as características consideradas neste trabalho ainda não recebeu a devida atenção. O SMSPETP-SDS tem sido tratado basicamente por meio de procedimentos heurísticos que dividem o problema em dois subproblemas: determinar a melhor programa- ção de uma dada sequência de tarefas, considerando-se a possibilidade de inserção de tempos ociosos entre a execução de tarefas consecutivas; e determinar uma sequência de tarefas que, associada à sua programação ótima, minimize a soma das penalidades geradas pelas tarefas. Neste trabalho, o SMSPETP-SDS é tratado sob uma perspectiva ainda não considerada na literatura. Inicialmente é proposto um novo algoritmo de programação ótima de uma dada. sequência de tarefas. Esse algoritmo, de complexidade O(n2), é utilizado nos algoritmos heu- rísticos propostos para resolver o problema de sequenciamento das tarefas. Esse algoritmo de programação ótima também é utilizado em um algoritmo exato de enumeração implícita para o caso particular com tempos de preparação da máquina independentes da sequência de exe- cução das tarefas, denominado SMSPETP-SIS. O algoritmo de enumeração implícita proposto faz uso de resultados teóricos desenvolvidos exclusivamente para o SMSPETP-SIS. Em um segundo momento, propõem-se várias formulações matemáticas para o SMSPET P-SDS. Um horizonte de planejamento para a execução de cada tarefa é proposto a fim de ser utilizado na determinação dos parâmetros de entrada dessas formulações. Por último, são propostas novas famílias de restrições válidas para as formulações baseadas em variáveis indexadas no tempo, bem como algoritmos de separação para essas famílias. Experimentos computacionais mostram que: o algoritmo de programação ótima de uma dada sequência de execução das tarefas pro- posto é mais rápido que o algoritmo até então utilizado para esse fim; os algoritmos heurísticos propostos para o problema de sequenciamento das tarefas são melhores que dois algoritmos da literatura na maioria dos problemas-teste considerados; o algoritmo de enumeração implí- cita é uma boa alternativa para a resolução exata do SMSPET P-SIS; e os limites inferiores construídos com os algoritmos de separação propostos são muito melhores que as soluções das respectivas relaxações line ares das formulações matemáticas apresentadas.Item Tomada de decisão em problemas de otimização de portfólios financeiros(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-02-01) Mendonça, Gustavo Henrique Massula; Martins, Flávio Vinícius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/1601775261467908; Martins, Flávio Vinícius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; Paiva, Felipe Dias; Pedro, Luciana Rocha; Wanner, Elizabeth FialhoQuando se deseja realizar um investimento financeiro, é aconselhável procurar as soluções de compromisso entre retorno e risco. Estes dois objetivos são conflitantes em um investimento, pois maiores retornos esperados são acompanhados de maiores riscos de perdas. Mesmo quando todas as soluções de compromisso entre risco e retorno estão disponíveis, ainda existe a necessidade de escolher uma delas para concretizar o investimento. Em geral, esta escolha é melhor estruturada quando guiada por algum método de tomada de decisão que reflita as preferências da pessoa responsável por esta decisão, que chamaremos aqui simplesmente de decisor. Neste trabalho, é realizada a otimização de soluções para o problema de portfólio financeiro por meio de um algoritmo evolutivo e são aplicados métodos de auxílio à tomada de decisão em ambientes multiobjetivo. Três métodos disponíveis na literatura são aplicados, sendo eles o Rank Order Centroid Weights (ROCW), método Achievement Scalarizing Function (ASF) e Neural Network Decision-Maker method (NNDM), além de serem propostos mais dois métodos (Decision Maker Queries (DMQ) e Neural Network Decision-Maker method (NNDM 2)), que são testados e comparados. Também são realizadas simulações com séries históricas reais de modo a verificar na prática o comportamento e desempenho dos métodos, considerando diferentes perfis de investidores. No que diz respeito ao número de consultas necessárias ao decisor, o método DMQ foi o que demandou o menor número. O método NNDM com rede neural do tipo RBF foi o que apresentou maior taxa de acerto da melhor solução possível (métrica QA), simulando os diferentes perfis de investidores. No entanto, obteve resultados piores que o método NNDM 2 com rede neural do tipo MLP, que acertou a melhor solução 80% das vezes durante os testes, e obteve melhores resultados para as métricas Kendall-tau distance (KTD) e Distância da Melhor Solução (DMS). Os testes estatísticos realizados com os métodos que utilizam pontos de referência mostraram não haver diferença significativa quando comparados os resultados do método aplicado a priori e a posteriori. Todos os métodos aplicados com a otimização do portfólio conseguiram um alto valor de retorno acumulado nos testes Out of Sample (que utilizam dados posteriores àqueles utilizados para alimentar o modelo de otimização), estando inclusive acima do retorno acumulado da Ibovespa e Selic para o período simulado. Nestes testes, foram simulados diferentes perfis de investidores, sendo eles conservador, moderado e agressivo. Os métodos foram capazes de modelar os perfis, direcionando soluções de acordo com as preferências esperadas de cada um. No entanto, os testes comparando o Drawdown (maior perda no período) nos investimentos dos diferentes investidores não apresentaram diferenças estatísticas significativas.Item Um algoritmo híbrido baseado em colônia de formigas e programação linear aplicado ao problema de roteamento de veículos capacitados(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-10) Papa, Larissa Camila; Martins, Flávio Vinicius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/8327916913062595; Martins, Flávio Vinicius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; Alexandre, Rafael Frederico; Santos, Vinicius Fernandes dos; Sarubbi, João Fernandes MachryNeste trabalho é abordado o Problema de Roteamento de Veículos Capacitados. Ele compreende a obtenção de um conjunto de rotas, que devem ser percorridas por uma frota de veículos homogêneos e de igual capacidade, atendendo assim as demandas de um conjunto de clientes. Seu objetivo é a minimização do custo total das rotas, sabendo-se que elas devem iniciar e terminar no depósito central, além de cada cliente somente pode ser atendido uma única vez por um único veículo. Este problema possui natureza NP-difícil, sendo comumente resolvido por meio de heurísticas. Outra técnica utilizada é a programação linear inteira, cuja particularidade corresponde a confiança na solução obtida, uma vez que por meio da solução final retornada pode-se provar que é o ótimo global. Como desvantagem, os problemas de natureza combinatória são, na maioria dos casos, computacionalmente custosos, tornando improvável encontrar uma solução ótima em tempo computacional aceitável. A proposta deste trabalho é desenvolver um algoritmo híbrido que combine a natureza ágil das heurísticas com a precisão dos métodos de solução por Programação Linear. A heurística utilizada foi a Otimização por Colônia de Formigas (ACO), a qual irá trabalhar de forma híbrida com o CPLEX, software distribuído pela IBM. Estuda-se a melhor forma de interação entre estes dois métodos, analisando os seus possíveis modos de comunicação. Estes compreendem duas diferentes formas de hibridização, uma caracterizada pela ausência do processo de realimentação, e a outra fazendo uso deste recurso. Os resultados obtidos pelas hibridizações foram comparados com os produzidos pelos métodos executados individualmente, bem como com as soluções presentes na literatura.Item Um estudo com abordagem heurística para problemas de roteamento de veículos com janelas de tempo e múltiplos depósitos(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-02-27) Bezerra, Sinaide Nunes; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/5654731681042767; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Ochi, Luiz Satoru; Penna, Puca Huachi Vaz; Sá, Elisângela Martins de; Wanner, Elizabeth FialhoEste trabalho trata de alguns problemas de roteamento de veículos com janelas de tempo e múltiplos depósitos. Nesse conjunto estão problemas com roteamento fechado e aberto que objetivam a redução na distância ou na quantidade de veículos. Esse conjunto de problemas é NP-difícil, pois eles têm como subproblema, o Problema de Roteamento de Veículos (PRV), onde os clientes são atendidos por uma frota de veículos de mesma capacidade homogênea, em que os custos são dados pela distância total percorrida ou quantidade total de veículos utilizados no atendimento aos clientes. Para resolver esses problemas, o Smart General Variable Neighborhood Search com Busca Local Adaptativa (SGVNSBLA) é apresentado. O algoritmo alterna o mecanismo de busca local entre duas estratégias diferentes. Na primeira estratégia, o método Randomized Variable Neighborhood Descent (RVND) realiza a busca local e, ao aplicar essa estratégia, as vizinhanças com os melhores vizinhos recebem uma pontuação maior. Na segunda estratégia, o método de busca local é aplicado apenas em uma única vizinhança, escolhida pelo método da roleta. Assim, a aplicação da primeira estratégia de busca local serve como método de aprendizagem para aplicação da segunda estratégia. Para testar esses algoritmos, usamos instâncias de benchmark do MDVRPTW envolvendo até 960 clientes, 12 depósitos e 120 veículos, num total de 48 instâncias teste. Para fins de comparação, outros algoritmos baseados em vizinhança também foram implementados. Os resultados encontrados permitiram avaliar a contribuição das estruturas de vizinhanças utilizadas nas soluções que buscam a redução na quantidade de veículos. Os resultados mostram que o desempenho do SGVNSBLA superou o dos outros algoritmos implementados visando a redução da frota. Houve uma redução da frota de veículos em 91,18% das instâncias avaliadas e o tamanho da frota alcançou uma redução média de até 23,32% em problemas com janelas de tempo e múltiplos depósitos. Ao se avaliar essas instâncias com roteamento aberto, houve redução na quantidade de veículos em 100% das instâncias, com baixa variabilidade.Item Uma abordagem evolutiva e híbrida para a solução de problemas de fluxo de potência ótimo(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-06-09) Marcelino, Carolina Gil; Almeida, Paulo Eduardo Maciel de; Wanner, Elizabeth Fialho; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/6099942406051896; http://lattes.cnpq.br/3289676418940953; Almeida, Paulo Eduardo Maciel de; Wanner, Elizabeth Fialho; Bernadino, Heder Soares; Pinto, Felipe Campelo Franca; Souza, Marcone Jamilson Freitas; Martins, Flávio Vinicius CruzeiroNos últimos anos, tem-se percebido uma preocupação crescente em relação ao uso racional da energia. Os países desenvolvidos têm realizado campanhas relacionadas à projeção e prospecção de novas soluções eficazes na indústria, entre elas a busca objetiva pelo uso adequado das fontes de energia elétrica. Esta forma de energia é considerada de suma importância para o desenvolvimento social e econômico. Garantir a eficiência energética visando a sustentabilidade e a minimização do uso de recursos se torna um grande desafio. Controlar grandes sistemas de geração e transmissão de energia elétrica é uma tarefa complexa, por ser um problema não-linear e possuir um alto número de restrições agregadas. Neste contexto, o estudo e a proposição de novos métodos para solucionar problemas de Fluxo de Potência Ótimo (OPF) se tornam temas de alta prioridade no cenário mundial. Este trabalho propõe e implementa algoritmos evolucionários híbridos e os aplica para solução destes problemas. Dois novos algoritmos híbridos C-DEEPSO e hC-DEEPSO são propostos e apresentados, os quais resolvem dada a dificuldade de cada problema elétrico em sua necessidade os problemas: de despacho elétrico em uma usina hidrelétrica, do controle da geração elétrica em uma planta eólica, os problemas OPF com restrições de segurança em grandes redes e o problema do despacho elétrico em um modelo de microgrid híbrido aperfeiçoado. Neste caso, um método de tomada de decisão foi utilizado a posteriori para definir o melhor sistema de armazenamento de energia para a rede proposta. Experimentos simulados foram executados em um computador de alto desempenho, e a análise deles foi realizada a partir de técnicas de inferência estatística, indicando que os algoritmos propostos se mostraram eficientes e competitivos na solução dos problemas estudados.