Doutorado em Modelagem Matemática e Computacional
URI Permanente para esta coleção
Navegar
Submissões Recentes
Item Uma análise temporal dos principais tópicos de pesquisa da ciência brasileira a partir das palavras-chave de publicações científicas(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-12-19) Gomes, Jether Oliveira; Moita, Gray Farias; Dias, Thiago Magela Rodrigues; http://lattes.cnpq.br/2550201329788172; http://lattes.cnpq.br/6063087854331543; Moita, Gray Farias; Dias, Thiago Magela Rodrigues; Pinto, Adilson Luiz; Meireles, Magali Rezende Gouvêa; Borges, Henrique Elias; Almeida, Paulo Eduardo Maciel deA produção de trabalhos científicos apresentou um crescimento significativo nas últimas décadas, sendo a internet o principal meio para seu acesso e difusão. Consequentemente, nota-se um esforço global de todas as áreas do conhecimento na confecção de estudos sobre dados da produção científica, a fim de conhecer o que tem sido pesquisado. Tais estudos podem servir a diversos propósitos, como fornecer embasamento para a construção de políticas de incentivo à pesquisa visando novos avanços na ciência. No entanto, a maioria dos trabalhos encontrados analisam conjuntos restritos de dados, que são originados de repositórios internacionais, geralmente específicos de uma determinada área. Por outro lado, poucos e recentes trabalhos utilizam fontes de dados nacionais, manipulando, no entanto, uma quantidade restrita dos dados disponíveis em análises preliminares. Apesar de tais trabalhos apresentarem resultados significantes, não foram encontrados estudos prévios que englobem, de forma abrangente, o que é produzido pela comunidade científica brasileira. Além disso, a estratégia principal de alguns desses estudos, principalmente os que utilizam repositórios de dados nacionais, é analisar os títulos das publicações. Em outra perspectiva, uma estratégia que vem se destacando é a análise das palavras-chave das publicações científicas, tendo em vista que as mesmas foram selecionadas cuidadosamente por seus autores com o foco de evidenciar os principais assuntos que permeiam o trabalho de forma clara e objetiva. Nesse contexto, esta tese apresenta-se como uma proposta de análise textual sobre o desenvolvimento científico brasileiro registrado ao longo da história na base curricular da Plataforma Lattes. Concomitantemente, é também a primeira análise sobre todo o conjunto de palavras-chave das publicações dos indivíduos com doutorado concluído que possuem currículos cadastrados na Plataforma Lattes. Para tanto, foi desenvolvido um arcabouço de componentes com a finalidade de filtrar e tratar os dados dos currículos para padronização e definição das informações essenciais a serem analisadas, e, ao mesmo tempo, diminuir o processamento computacional para geração dos resultados desejados. Os resultados iniciais são apresentados a partir da aplicação de análises bibliométricas e técnicas baseadas em análises de redes sociais sobre as palavras-chave de artigos publicados em anais de congressos e em periódicos do conjunto selecionado. Assim, quantitativamente, foi possível apresentar uma caracterização geral das palavras-chave utilizadas pelos doutores, e, com isso, destacar os principais tópicos de pesquisa desenvolvidos por eles ao longo dos últimos anos. No entanto, a análise apenas quantitativa dos tópicos pode não explorar por completo as características existentes nos dados contidos na Plataforma Lattes. Por isso, foi desenvolvida nesta tese a medida de importância de tópicos TF.FI, que leva em consideração tanto as características quantitativas das palavras-chave dos artigos quanto as características qualititativas (Fator de Impacto) dos periódicos em que tais artigos foram publicados. Como resultado final, as palavras-chave dos artigos publicados em periódicos entre 1997 e 2016 foram ranqueadas utilizando a medida TF.FI e analisadas em suas respectivas grandes áreas do conhecimento. Os resultados apresentados servirão de base para diversos outros estudos que visam entender o desenvolvimento da ciência brasileira nas diversas áreas do conhecimentoItem Proposição e análise de modelos determinísticos com parâmetros meteorológicos para descrição da população de mosquitos Aedes SPP, e otimização da eficácia do controle entomológico(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-05-11) Silva, Lillia dos Santos Barsante; Fernandes, José Luiz Acebal; Cardoso, Rodrigo Tomás Nogueira; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/0824886862509279; http://lattes.cnpq.br/6972706454904139; Fernandes, José Luiz Acebal; Cardoso, Rodrigo Tomás Nogueira; Resende, Marcelo Carvalho; Loaiza, Anibal Munoz; Souza, Sérgio Ricardo; Magalhães, Arthur Rodrigo Bosco deApesar do crescente empenho das autoridades públicas e da população na prevenção da dengue, da febre chikungunya, da febre amarela e do zika vírus, muitos casos de infecção humana têm sido registrados periodicamente no mundo. As fêmeas infectadas dos mosquitos do gênero Aedes destacam-se como transmissoras destas arboviroses. O estudo destes mosquitos é de grande importância para a saúde pública mundial e, em especial, no Brasil, onde as condições ambientais e climáticas são favoráveis à sua infestação. A modelagem matemática possibilita prever a dinâmica populacional do Aedes e de suas arboviroses através da simulação de modelos entomológicos e/ou epidemiológicos. Este trabalho propõe o estudo da dinâmica populacional e do controle do Aedes através de modelos determinísticos de equações diferenciais ordinárias não lineares. Os parâmetros destes modelos são identificados com parâmetros entomológicos e possuem dependência de variáveis meteorológicas. Os modelos foram confrontados com dados amostrais de fêmeas Aedes capturadas em campo nos municípios de Caratinga, Lavras e Sete Lagoas, estado de Minas Gerais, Brasil. Os resultados indicaram um aumento na infestação do vetor com o incremento das variáveis meteorológicas nas três cidades. Usando técnicas de otimização, foi verificado que as intervenções realizadas no Verão, na Primavera-Verão e no Verão-Outono agem como uma medida preventiva contra a infestação do mosquito, sendo possível verificar horizontes livres da infestação vetorial.Item Análise de sentimentos multimodal aplicada à computação de níveis de tensão em vídeos de notícias(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-04-23) Pereira, Moisés Henrique Ramos; Pádua, Flávio Luis Cardeal; Silva, Giani David; http://lattes.cnpq.br/8863282319980625; http://lattes.cnpq.br/6545115051079964; http://lattes.cnpq.br/5471286139284637; Pádua, Flávio Luis Cardeal; Silva, Giani David; Souza, Fabrício Benevenuto de; Bax, Marcelo Peixoto; Lacerda, Anísio Mendes; Pereira, Adriano César MachadoEsta tese aborda o desenvolvimento de uma nova abordagem para estimar os níveis de tensão em vídeos de notícias por meio de técnicas de análise de sentimentos multimodal. As mídias de notícias constituem um tipo específico de discurso e se tornaram uma parte central da vida moderna de milhões de pessoas. Neste contexto, é muito importante estudar e entender como a indústria de notícias funciona e como ela afeta o cotidiano da sociedade. Para isso, especialmente sob a perspectiva da análise do discurso, a abordagem proposta calcula níveis de tensão como pontuações de sentimento (polaridades) ao longo da narrativa das notícias, revelando os diferentes padrões de comunicação utilizados. A fim de atingir esse objetivo, combinou-se pistas visuais e de áudio extraídas dos participantes das notícias, tais como repórteres, âncoras, entrevistados, dentre outros, usando métodos para: (1) reconhecimento de emoção a partir das expressões faciais, (2) estimativa do plano fílmico e (3) extração de recursos de áudio (p. ex., características de croma, coeficientes mel-cepstrais no domínio da frequência e características espectrais), bem como sentenças textuais obtidas a partir da (4) análise de sentimento das transcrições de fala da narrativa das notícias. Os resultados experimentais com um conjunto de dados contendo 960 vídeos de notícias rotuladas para telejornais brasileiros e americanos mostram que a abordagem proposta atinge uma precisão global de 64,17% na tarefa de classificação de níveis de tensão. Ao ser comparado também com um baseline, o método proposto alcançou uma precisão próxima de um método supervisionado, mas sem a necessidade de um treinamento rotulado. Esses resultados demonstram o alto potencial da abordagem proposta para ser usada por analistas de mídia em várias aplicações, especialmente no domínio jornalístico.Item Modelagem computacional híbrida ergonomicamente embasada de movimentação humana por agentes fuzzy(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-04-19) Braga, Henrique Costa; Moita, Gray Farias; Almeida, Paulo Eduardo Maciel; Moita, Gray Farias; Almeida, Paulo Eduardo Maciel; Kruger, Paulo Gustavo von; Neves, Francisco de Assis das; Souza, Sérgio Ricardo de; Silva, Alisson Marques daNeste trabalho foram realizados o desenvolvimento, a implementação computacional, a verificação e a validação de um novo modelo por agentes para a simulação computacional da movimentação humana, utilizando, como premissas, um enfoque híbrido discreto-contínuo da estrutura espacial, a utilização de uma abordagem ergonômica formal mais acurada das principais grandezas envolvidas e o uso da lógica fuzzy para emulação do processo de decisão humana. Desenvolveu-se, também, um algoritmo de busca e exploração, denominado BR – Busca Referenciada, cujos resultados são superiores aos algoritmos tradicionais de pesquisa para a geração de mapas de distância. A utilização da lógica fuzzy incorporou o conceito da tabela fuzzy, o que propicia um aumento da velocidade de processamento sem perda de conhecimento. Diversos exemplos são mostrados, atestando a efetividade e eficiência do modelo proposto. Também é incluída uma aplicação prática do novo modelo, com um estudo relacionado à tragédia da Boate Kiss, no qual simulações de abandono foram realizadas de forma a se compreender melhor a razão para tal tragédia no que tange ao dimensionamento das saídas de emergência e se propor melhorias, inclusive abordando alguns aspectos legais.Item Calibração de parâmetros entre as escalas de voos difusivos anômalos: prescrição para corresponder simulação e modelos(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-03-23) Pereira, Ana Paula de Paiva; Fernandes, José Luiz Acebal; Faria, Allbens Atman Picardi; Fernandes, José Luiz Acebal; Faria, Allbens Atman Picardi; Mendes, Remo dos Santos; Ferreira Júnior, Silvio da Costa; Magalhães, Arthur Rodrigo Bosco de; Faria, José Geraldo Peixoto deA difusão anômala é um fenômeno onipresente que tem sido estudado por meio de diferentes abordagens, incluindo simulações, análise de métodos e experimentos. Tanto a equação de difusão fracionária quanto a equação de difusão não linear foram capazes de descrever tal fenômeno, em particular, os casos onde aparecem funções densidade de probabilidade com caudas pesadas. Observa-se, no entanto, uma falta de um controle sistemático nas simulações de processos de difusão anômala. Consequentemente, a relação de quais os modelos mais adequados para a descrição destes processos fica prejudicada. Neste trabalho, exploramos as relações os parâmetros coeficientes de difusão e entre os expoentes de difusão, ordem da derivada fracionária e o parâmetro q-gaussiano, através de um procedimento de ajuste sistemático dos dados das simulações usando abordagens lineares e não lineares. Os dados simulados são gerados por um random walk de tempo contínuo com média do tempo de espera entre os saltos e variância do comprimento dos saltos controlados para gerar casos de subdifusão, superdifusão e difusão normal. Os modelos teóricos são expressos por meio de equações de difusão generalizadas ora por derivadas fracionárias no tempo ou espaço, ora pela não linearidade da equação de meios porosos. A avaliação dos parâmetros coeficientes de difusão e dos expoentes de difusão obtidos a partir das simulações é feita utilizando duas diferentes abordagens: (1) estudando a evolução temporal da variância amostral dos deslocamentos e, (2) otimizando as soluções dos modelos teóricos aos histogramas de soluções. A precisão dos modelos também é estudada para cada regime de difusão anômala. São analisadas as relações entre os parâmetros obtidos por meio das simulações e os parâmetros teóricos. Dentre os quais, a relação de Tsallis-Buckman é verificada. Faz-se, ainda, uma discussão sobre os métodos para relacionar os parâmetros das simulações com os parâmetros dos modelos.Item Modelagem de mercados financeiros via autômatos baseados em equações de diferença(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-08-20) Xavier, Paloma de Oliveira Campos; Magalhães, Arthur Rodrigo Bosco de; Faria, Allbens Atman Picardi; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/6122907819049400; http://lattes.cnpq.br/4613992656785003; Magalhães, Arthur Rodrigo Bosco de; Faria, Allbens Atman Picardi; Castro, Eduardo Carvalho de; Paiva, Felipe Dias; Faria, José Geraldo Peixoto de; Fernandes, José Luiz AcebalPropomos uma abordagem via método de elementos discretos inspirada em equações diferenciais, com características de autômatos celulares, para construir um modelo baseado em agentes que visa reproduzir estatísticas observadas em mercado financeiros. É investigada a dinâmica de preços de um ativo financeiro que é transacionado em um mercado onde N agentes interagem demandando ou ofertando um único ativo. Consideramos que os agentes possuem restrição orçamentária devido a uma quantidade de recursos financeiros finita. A soma de todos os recursos financeiros dos agentes compõe a riqueza total do mercado. O modelo não considera alavancagem financeira. Apresenta duas componentes estocásticas de naturezas distintas. A primeira, de caráter endógeno, modela diferentes interpretações dos agentes quanto à percepção do valor intrínseco do ativo. Já a segunda, de caráter exógeno, modela efeitos das perturbações inesperadas que influenciam o mercado de forma proeminente. A atuação, em conjunto, da limitação de recursos financeiros e da variável estocástica de caráter endógeno, leva a oscilações na dinâmica de preços, que foram analisadas por meio de uma avaliação microeconômica do mercado. Através de uma aproximação do modelo, baseada em equações diferenciais, encontramos resultados analíticos que indicam que a dinâmica de preços estabiliza em torno do preço justo médio idealizado pelos agentes que mantém suas negociações ativas no mercado. Também investigamos como o processo de percepção do preço justo do ativo impacta a acumulação de riqueza dos agentes, bem como os riscos a que estão expostos. Observamos que a eficiência do agente em avaliar o preço justo está diretamente relacionada a riqueza acumulada e inversamente ao risco. Analisamos a distribuição logarítmica dos retornos das séries de preços sintéticas, e mostramos que apresentam caudas pesadas, conforme observado em mercados reais. Realizamos uma análise multifractal das séries sintéticas, e averiguamos a presença de correlações de longo alcance. Concluímos que o modelo consegue produzir estatísticas equivalentes às observadas em mercados reais. Através do estudo da sensibilidade do modelo aos parâmetros de controle, montamos um arcabouço que permite compreender melhor as forças subjacentes ao mercado financeiro e suas inter relações.Item ADDIC – Algoritmo distribuído para a descoberta de comunidades sobrepostas em grandes grafos(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-09-26) Nascimento, João Paulo Barbosa; Pereira, Adriano César Machado; http://lattes.cnpq.br/6813736989856243; http://lattes.cnpq.br/8472333663591219; Pereira, Adriano César Machado; Freitas, Henrique Cota de; Martins, Carlos Augusto Paiva da Silva; Almeida, Paulo Eduardo Maciel de; Pádua, Flávio Luis CardealRedes complexas são sistemas grandes e dinâmicos que podem ser modelados por grafos. Muitos sistemas sociais, biológicos ou tecnológicos são considerados redes complexas, dentre eles a Internet e a Web, as redes sociais reais ou virtuais e as redes de infraestrutura física, tais como redes de transporte e de comunicação. A análise destas redes, na forma de grandes grafos, provê informações importantes acerca das características dos sistemas modelados. No entanto, o processamento sequencial destes grafos pode requerer alto custo computacional ou mesmo ser inviável, dependendo de seu tamanho e complexidade. Para solucionar esse problema recorre-se ao processamento paralelo e distribuído. Este trabalho propõe o algoritmo paralelo e distribuído ADDIC, indicado para o processo de detecção de comunidades sobrepostas em uma rede complexa de grande porte. O algoritmo foi projetado a partir de um importante algoritmo da literatura denominado DEMON e também por meio de um estudo criterioso do framework de programação paralela e distribuída Apache Spark, aliado a um planejamento detalhado de experimentos. Os experimentos foram executados em vários tipos de grafos de diferentes tamanhos, reais e sintéticos. O tempo de execução, consumo de recursos (CPU e Memória RAM) e medidas de escalabilidade e eficiência do algoritmo foi avaliado. Os resultados dos experimentos indicam que o ADDIC alcança seu objetivo, que é detectar comunidades sobrepostas, além de apresentar resultados de tempo de execução melhores que o principal algoritmo sequencial da literatura. Além disso, o algoritmo proposto apresenta escalabilidade próxima à linearidade e boas taxas de eficiência.Item AMAM framework multiagente para otimização usando metaheurísticas(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-06-24) Silva, Maria Amélia Lopes; Souza, Sérgio Ricardo de; Souza, Marcone Jamilson Freitas; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/1584173805850799; Souza, Sérgio Ricardo de; Souza, Marcone Jamilson Freitas; Bazzan, Ana Lúcia Cetertich; Goldbarg, Elizabeth Ferreira Gouvêa; Lacerda, Anísio Mendes; Borges, Henrique EliasEsta tese apresenta um framework multiagente para otimização usando metaheurísticas, denominado Arquitetura Multiagente para Metaheurísticas (AMAM). O framework AMAM é uma estrutura genérica e flexível, que tem, como principal característica, a facilidade de hibridização de metaheurísticas, a partir da utilização de conceitos relacionados a sistemas multiagentes. Nesta proposta, cada agente atua independentemente no espaço de busca de um problema de otimização combinatória. Os agentes compartilham informações e colaboram entre si através do ambiente. Esta tese tem, como principal contribuição, a consolidação do framework AMAM como uma ferramenta capaz de resolver diferentes problemas de otimização e que permita a fácil hibridização de metaheurísticas. Para tal, propõe a revisão da estrutura do framework AMAM, com a incorporação de novos recursos que permitam dinamizar e aperfeiçoar o processo de solução. A estrutura do framework foi dividida em dimensões, ao se considerar suas diferentes perspectivas. A remoção de estruturas de coordenação explícita e de elementos que intermediavam a comunicação permitiram aumentar a autonomia do agente. A cooperação entre os agentes foi aprimorada, buscando maior diversidade nas soluções disponíveis na estrutura cooperativa, através da definição de novos critérios de inserção de novas soluções. É proposta também a incorporação de capacidades auto-adaptativas nos agentes. O objetivo é permitir que o agente modifique suas ações com base nas experiências obtidas na interação com os outros agentes e com o ambiente, usando conceitos de Aprendizagem de Máquina. Neste sentido, são apresentadas duas propostas de agentes adaptativos baseados no algoritmo Q-Learning e em Autômatos de Aprendizagem. Para melhor introdução e validação do framework AMAM, esta tese utiliza instanciações do framework para dois problemas clássicos de otimização combinatória: Problema de Roteamento de Veículos com Janelas de Tempo (sigla em inglês, VRPTW) e o Problema de Sequenciamento de Máquina Paralela Não Relacionada com Tempos de Configuração Dependentes de Sequência (sigla em inglês, UPMSP-ST). Os experimentos demonstraram a efetiva redução nos custos das soluções com o uso de agentes cooperativos e a escalabilidade da proposta. Os experimentos também confirmaram que a capacidade de aprender atribuída ao agente influencia diretamente a qualidade das soluções, tanto do ponto de vista individual quanto do ponto de vista do trabalho em equipe. Sendo assim, a adaptabilidade dos agentes é confirmada, demonstrando que as técnicas de aprendizado utilizadas conseguem superar a necessidade de conhecimento das características específicas do problema a ser tratado. Os resultados obtidos possibilitaram concluir que o framework aqui apresentado é um passo à frente em relação aos demais frameworks da literatura quanto à adaptação aos aspectos particulares dos problemas tratados.Item Sistema de tomada de decisão autônomo de compra e venda de ações baseado em máquinas de vetores suporte e otimização de portfólios(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-05-23) Hanaoka, Gustavo Peixoto; Cardoso, Rodrigo Tomás Nogueira; Paiva, Felipe Dias; http://lattes.cnpq.br/1422795875369677; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/4941896019083181; Cardoso, Rodrigo Tomás Nogueira; Paiva, Felipe Dias; Castro, Paulo André Lima de; Dalip, Daniel Hasan; Sá, Elisângela Martins de; Pereira, Adriano César MachadoO presente trabalho propõe um sistema de tomada de decisão autônomo de compra e venda diária de ações que utiliza o método de máquinas de vetores suporte (SVM - Support Vector Machines), otimização de portfólios e uma estratégia de venda. Por meio da votação majoritária de um comitê de classificadores SVM, é feita a identificação dos ativos capazes de atingirem rendimentos específicos ao longo do dia, considerando os retornos alvos de ganho de 1%, 2% e 3%. Os classificadores que compõem o comitê são definidos a partir de diferentes funções kernel, bem como diferentes valores dos hiperparâmetros da SVM. De posse dos ativos capazes de atingirem o retorno alvo estipulado, um modelo de otimização linear inteira mista, que busca minimizar o risco, representado pelo valor em risco condicional (CVaR - Conditional Value-at-Risk), ao mesmo tempo que estipula um limite mínimo para o retorno esperado, realiza a alocação ótima de recursos levando em consideração apenas os ativos indicados pela classificação. O modelo de otimização realiza a alocação de recursos a partir de um portfólio inicial, permitindo assim o rebalanceamento, além de estipular um valor mínimo e máximo de proporção de investimento em cada ativo presente no portfólio, levando em consideração os custos de transação incorridos nas operações de compra e venda. Os ativos utilizados nesta pesquisa consistem nos ativos presentes no portfólio teórico do índice Bovespa (Ibovespa) do ano de 2005 a 2016. Para testar a eficácia do sistema proposto como um todo, é realizada uma etapa in-sample, compreendendo o período de 2005 a 2006, com o intuito de decidir qual o retorno alvo de ganho mais ideal, de acordo com a precisão da classificação, definir o número de dados a ser utilizado no conjunto de treinamento dos classificadores, definir o número de dados a ser utilizado como entrada do modelo de alocação de recursos e verificar a otimalidade das soluções encontradas. Em sequência, é realizada uma etapa out-of-sample, compreendendo o período de 2007 a 2016, em que o sistema integrado proposto é comparado com sistemas baseados nos métodos individuais que o compõem, em que se compara os rendimentos financeiros obtidos por cada sistema. Os resultados alcançados mostram a superioridade do sistema integrado proposto, quando comparado com a utilização dos sistemas baseados nos métodos individuais e do rendimento do Ibovespa.Item Adsorção de CO2 em fosfato de cálcio experimento e modelagem computacional(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-05-17) Galvão, Breno Rodrigues Lamaghere; Galvão, Breno Rodrigues Lamaghere; Silva, Sidney Nicodemos da; http://lattes.cnpq.br/7962146839706796; http://lattes.cnpq.br/7962146839706796; Galvão, Breno Rodrigues Lamaghere; Silva, Sidney Nicodemos da; Faria, Allbens Atman Picardi; Braga, João Pedro; Belchior, Jadson Cláudio; Lima, Leonardo dos SantosAs propriedades físico-químicas dos fosfatos de cálcio vêm sendo estudadas recentemente. Numa tentativa de explicar os fenômenos físicos da adsorção de CO2 a nível atômico, são feitas neste trabalho, correlações entre a mitigação de gases de efeito estufa (dados experimentais) com as implicações de caráter superficial dos materiais particulados (modelos teóricos baseados na mecânica quântica). Este trabalho teve como proposta a modelagem das características adsortivas do fosfato de cálcio para mitigação de dióxido de carbono (CO2). Ensaios preliminares de adsorção foram realizados com CO2 em níveis compatíveis aos encontrados em chaminés das indústrias siderúrgicas, usinas termoelétricas e de outras fontes a carvão ou gás natural. As propriedades físico-químicas do fosfato de cálcio utilizado no estudo do processo de adsorção do CO2 estão especialmente relacionadas com aspectos da composição química, estrutura cristalina, área superficial e distribuições de tamanhos de partículas ou poros. O objetivo desta pesquisa foi modelar a adsorção da molécula de CO2 nas superfícies de fosfatos de cálcio, através da determinação das energias de ligação que promovem os fenômenos adsortivos de CO2 nos sítios de menor energia. Para calcular as energias utilizadas no processo foi aplicado o programa SIESTA (“Spanish Initiative for Electronic Simulation with Thousands of Atoms”), para dessa forma, quantificar a saturação do material adsorvente a partir da tecnologia de captura do CO2. Os cálculos realizados possibilitaram um entendimento de como as ligações químicas entre o adsorvente e o adsorvato (CO2) ocorrem na interface deste sistema bem como os envolvimentos energéticos a nível quântico. Para o estudo computacional utilizou-se a Teoria do Funcional da Densidade (DFT) e a Teoria do Pseudopotencial. Para avaliação dos resultados obtidos foi utilizado o programa SIESTA, que resolve equações de Kohn-Sham e implementa numericamente a DFT. O funcional que melhor se adequou aos dados experimentais da Hidroxiapatita (HAp) foi o vdW-DF/BH.Item Predição de tendências em séries financeiras utilizando metaclassificadores(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-04-24) Assis, Carlos Alberto Silva de; Pereira, Adriano César Machado; Carrano, Eduardo Gontijo; http://lattes.cnpq.br/4022838844024162; http://lattes.cnpq.br/6813736989856243; http://lattes.cnpq.br/4301459614232149; Pereira, Adriano César Machado; Carrano, Eduardo Gontijo; Pereira, Marconi de Arruda; Paiva, Felipe Dias; Dalip, Daniel Hasan; Pádua, Flávio Luís Cardeal; Cardoso, Rodrigo Tomás NogueiraA previsão do comportamento de ativos financeiros é uma linha de pesquisa que vem sendo investigada por diversas técnicas ao longo dos últimos anos. Mesmo com inúmeras pesquisas, prever preços de ativos ou tendências continua sendo uma tarefa extremamente difícil, uma vez que tal comportamento está ligado às incertezas do mercado financeiro e outros fatores. Desta forma, neste trabalho foi desenvolvido um meta-classificador baseado em métodos de inteligência computacional para descobrir tendências de preço para ativos de bolsa de valores, como a B3. O kernel do meta-classificador é baseado na ferramenta WEKA, onde 7 classificadores são combinados para serem otimizados na etapa seguinte pela meta-classificação. Testes foram realizados com alguns dos ativos mais líquidos de diferentes setores e o ativo que acompanha o índice Bovespa da B3, são eles: BOVA11, CIEL3, ITUB4, PETR4, USIM5, CMIG4, GGBR4, KROT3 e GOLL4. Os resultados foram satisfatórios, apresentando uma boa acurácia na classificação com até 57%, além de resultados financeiros com ganhos de até 100% do valor de capital inicialmente investido. Também tivemos bons resultados quando comparamos com os baselines buy-and-hold, aleatório e estratégia inversa.Item Heurísticas computacionais aplicadas a um problema flowshop híbrido multiobjetivo(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-03-21) Siqueira, Eduardo Camargo.; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/1383558830607731; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Arroyo, José Elias Cláudio; Cota, Luciano Perdigão; França Filho, Moacir Felizardo de; Sá, Elisângela Martins de; Martins, Flávio Vinícius CruzeiroEsta tese trata do problema de sequenciamento de tarefas em ambiente Flow Shop Híbrido Multiobjetivo, no qual um conjunto de tarefas deve ser executado em vários estágios, cada um com máquinas paralelas não relacionadas, sendo que algumas tarefas não passam por todos os estágios. O problema considera características como elegibilidade de máquinas, datas de entrega e custos por atrasos e antecipações, com os objetivos iniciais de minimizar o makespan, a soma ponderada dos atrasos e a soma ponderada das antecipações, configurando um problema multiobjetivo com três critérios conflitantes, onde não é possível otimizar todos simultaneamente. Posteriormente, foram incluídos mais dois critérios: a minimização do tempo de ociosidade e do número de tarefas atrasadas. A resolução desses problemas é dificultada pela deterioração da seleção por dominância de Pareto e pelo crescimento exponencial do número de soluções necessárias para aproximar a frente de Pareto. Para enfrentar esses desafios, foram propostos dois algoritmos: o primeiro baseado na metaheurística Multi-Objective General Variable Neighborhood Search (MO-GVNS) e o segundo na metaheurística Pareto Iterated Local Search (P-ILS). Esses algoritmos foram testados em instâncias adaptadas da literatura, e seus resultados comparados com outros métodos existentes, utilizando as métricas Hypervolume, Epsilon, Spacing e Hierarchical Cluster Counting (HCC), além de validação estatística por meio do teste de Levene e gráficos de intervalo de confiança. Os resultados demonstraram a superioridade dos algoritmos propostos em relação às métricas Hypervolume, Epsilon e HCC, confirmando sua eficácia na solução dos problemas abordados.Item Análise e síntese de regras de adaptação em estratégias evolutivas usando funções de Lyapunov estocásticas(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-02-28) Corrêa, Cláudia Raquel Martins; Wanner, Elizabeth Fialho; Fonseca, Carlos Manuel Mira da; http://lattes.cnpq.br/0398907021926383; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/0859784566522265; Wanner, Elizabeth Fialho; Fonseca, Carlos Manoel Mira da; Peres, Pedro Luis Dias; Takahashi, Ricardo Hirsohi Caldeira; Souza, Sérgio Ricardo de; Cardoso, Rodrigo Tomás NogueiraAs Estratégias Evolutivas (EEs) constituem uma classe particular de Algoritmos Evolutivos (AEs). As pesquisas que tratam da análise de estratégias evolutivas têm sido focadas nas aplicações destes algoritmos, usados para resolver problemas das mais diversas áreas, principalmente em espaços de busca contínuos, mas também em espaços discretos. As investigações das EEs também demonstram que estes algoritmos, ainda suscetíveis a diversas pesquisas, são eficientes e populares. Uma análise contendo provas rigorosas de convergência de EEs é uma tarefa difícil devido à estocasticidade destes algoritmos, apesar desta aleatoriedade permitir sua análise sob uma perspectiva matemática. Neste trabalho são propostas Estratégias Evolutivas com um único progenitor e λ descendentes (1 +, λ)-EE. Na primeira delas, o tamanho do passo do algoritmo é modificado de acordo com uma regra de adaptação simples baseada em sucesso, denominada Regra 1. Uma extensão desta regra de adaptação do tamanho do passo, denominada Regra 2, também é proposta. Nesta estratégia o tamanho do passo é adaptado de acordo com o número de descendentes bem sucedidos. Além destas, a generalização a qualquer número de descendentes e qualquer limiar, de uma EE com controle de mutação baseado no tamanho do passo, também é explorada e nomeada Regra 3. Finalmente é formulada uma EE com regra de adaptação do tamanho do passo baseada na combinação da Regra 1 com a Regra 3. A análise teórica destes algoritmos evolutivos concentra-se na investigação sobre sua convergência, quando aplicados em problemas de otimização em espaços de busca contínuos em uma classe de funções estritamente unimodais de uma variável. O estudo sobre a convergência das EEs segue uma abordagem usando funções de Lyapunov estocásticas, no contexto da teoria de martingais. Expressões gerais para as esperanças condicionais dos próximos valores do tamanho do passo e para a distância para o ótimo são analiticamente derivadas para todas as Estratégias, e uma função de Lyapunov apropriada é construída. Os limites superiores da taxa de convergência, bem como os valores dos parâmetros de adaptação, são obtidos através da otimização numérica para valores crescentes de λ, permitindo também uma seleção informada desse parâmetro. Os resultados experimentais contribuem para uma análise dos limites de convergência teóricos obtidos e fornecem uma visão adicional sobre os pontos fortes e fracos da metodologia adotada.Item Controle preditivo baseado em modelo via otimização dinâmica multiobjetivo de portfólios de investimentos(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-11-19) Cardoso, Rodrigo Tomás Nogueira; Cardoso, Rodrigo Tomás Nogueira; Jesus, Tales Argolo; http://lattes.cnpq.br/6617001066819762; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/5174842920583671; Cardoso, Rodrigo Tomás Nogueira; Jesus, Tales Argolo; Valle, Cristiano Arbex; Raffo, Guilherme Vianna; Souza, Sérgio Ricardo de; Martins, Flávio Vinícius CruzeiroCom o advento da tecnologia é possível aliar os modelos matemáticos complexos que representam o problema de otimização de portfólios de investimentos com técnicas computacionais extremamente eficientes e práticas. Busca-se construir neste trabalho um arcabouço matemático e computacional capaz de lidar com as peculiaridades reais do mundo financeiro ao mesmo tempo que se utiliza o conhecimento teórico disponível, utilizando-se um algoritmo genético para fazer a otimização e manipular as restrições. Portanto, propõese neste trabalho um arcabouço matemático e computacional composto por diferentes modelos que usam a metodologia de Controle Preditivo baseado em Modelo (do inglês, Model Predictive Control-MPC) na otimização de portfólios de investimentos. É proposta uma estratégia inovadora obtida pela combinação do MPC e da otimização multiobjetivo sujeita a restrições realísticas do mercado financeiro, como limites de investimento, autofinanciamento, cardinalidade e custos de transação. Os critérios de desempenho (funções objetivo) são os valores esperados da riqueza, da variância e do Conditional Value at Risk. Com os experimentos realizados foi possível obter uma variedade de constatações que envolvem o horizonte de predição, a cardinalidade, o risco e o retorno do portfólio. Por meio da análise in-sample, destacam-se: o horizonte de predição de fato beneficia o problema de otimização de portfólios, uma vez que proporciona valores de riqueza não obtidos pela estratégia miópica; portfólios com cardinalidades menores apresentam menor risco por estabelecerem maior alocação de capital no ativo livre de risco. As carteiras com cardinalidade cinco apresentam os maiores valores de riqueza. Na análise out-of-sample, a riqueza acumulada da estratégia proposta superou o Ibovespa e fundos de investimento de prestígio em 2020.Item Caminho para a complexidade o papel da topologia de rede na difusão de informação e dinâmica de mercado(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-10-21) Ducha, Fernando Andrade; Magalhães, Arthur Rodrigo Bosco de; Faria, Allbens Atman Picardi; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/6122907819049400; http://lattes.cnpq.br/7340606465850279; Magalhães, Arthur Rodrigo Bosco de; Faria, Allbens Atman Picardi; Oliveira, Marcelo Martins de; Ribeiro, Leonardo Costa; Fernandes, José Luiz Acebal; Mattos, Thiago Gomes deApresenta-se um modelo no qual o fluxo de informação em redes sociais influencia o comportamento de agentes em um mercado financeiro. A difusão de informação segue um modelo baseado no Twitter, incorporando mecanismos de memória para simular interesses endógenos e atenção limitada. Os agentes negociam um único ativo com base em percepções modeladas por distribuições gaussianas. Analisam-se quatro topologias de rede: Albert-Barabási (AB), Erdős-Rényi (ER), circular regular (CR) e um novo modelo baseado na distribuição de Zipf (Z). Resultados demonstram que a topologia da rede determina estatísticas de retorno, com a rede AB reproduzindo leis de potência típicas de mercados tradicionais, enquanto ER e CR aproximam-se de distribuições gaussianas. A análise multifractal revela correlações não-lineares alinhadas com fenômenos de clusterização de volatilidade. Conclui-se que a estrutura da rede é determinante na emergência de propriedades estatísticas complexas, mesmo com entradas gaussianas.Item Monotonicidade do valor crítico em modelos de percolação e de Ising(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-09-14) Amaral, Charles Souza do; Atman, Allbens; Lima, Bernardo Nunes Borges de; http://lattes.cnpq.br/6614000692805715; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/1202901189979381; Faria, Allbens Atman Picardi; Lima, Bernardo Nunes Borges de; Dickman, Ronald; Silva, Roger William Câmara; Magalhães, Arthur Rodrigo Bosco de; Mattos, Thiago Gomes deModelos de percolação e de Ising possuem aplicações em diversas áreas das ciências e estão entre os modelos mais estudados na Mecânica Estatística. Eles exibem uma transição de fase e a determinação do valor crítico no qual ela ocorre é uma das principais questões relacionadas a esses modelos. O presente trabalho tem como objetivo estudar três modelos, dois de percolação e um de Ising, em que o valor crítico varia em função de algum parâmetro. O primeiro modelo apresentado é o Modelo de Percolação com Múltiplos Alcances (MPMA). Nele consideramos o modelo clássico de percolação na rede hipercúbica Lº e adicionamos elos de tamanhos mi, ma, ..., mn, paralelos a cada eixo coordenado, de forma que os tamanhos dos elos maiores sejam múltiplos dos menores e m, > 1 para todo Há resultado analítico mostrando que o ponto crítico desse modelo converge para o do modelo clássico na rede hipercúbica Lº+1) quando m, — co para todo i. Nós encontramos evidências numéricas de que, se d = 2, essa convergência é monótona e segue uma lei de potência quando n = 1 e n = 2. Com o intuito de verificar se a convergência relacionada ao ponto crítico no MPMA também ocorre em outros modelos que exibem transição de fase, estudamos o Modelo de Ising com Múltiplos Alcances, que é definido de forma similar ao MPMA. Nós verificamos que, se analisarmos a temperatura crítica ao invés do ponto crítico, também ocorrerá a convergência para as mesmas situações estudadas no MPMA. Por fim, também estudamos o Modelo de Percolação com Grau Restrito (MPGR). Nele, tentamos abrir os elos do grafo em uma ordem aleatória que é definida previamente. Cada elo é aberto se satisfizer uma determinada restrição que depende de um parâmetro k. Esse modelo possui aplicações no estudo de dímeros e polímeros e o simulamos na rede hipercúbica 1º para d E (2,3,4). Através de uma análise numérica, nós mostramos que o valor crítico do modelo decresce em função da restrição k. Além disso, encontramos evidências de que o MPGR está na mesma classe de universalidade que o modelo clássico de percolação.Item Numerical simulation of granular materials: Brazil nut effect and sediment transport(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-08-30) Martins, Gustavo Henrique Borges; Faria, Allbens Atman Picardi; Claudin, Philippe; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/8927063386078425; Faria, Allbens Atman Picardi; Claudin, Phillipe; Sobral, Yuri Dumaresq; Magalhães, Felipe Galvão Rafael; Morgado, Welles Antonio Martinez; Faria, José Geraldo Peixoto deA simulação de materiais granulares é amplamente estudada em diversos centros de pesquisa ao redor do mundo, sendo aplicada em indústrias e empresas de engenharia. Para a compreensão e quantificação das propriedades dos materiais granulares, o Método dos Elementos Discretos (DEM) se destaca como uma das técnicas mais utilizadas para simular o comportamento desses materiais. Muitos dos desafios para entender o comportamento dos materiais granulares começam no fenômeno de segregação de grãos secos. Classicamente, temos o Efeito Brazil Nut (BNE) - que consiste em um material granular confinado contendo grãos de diferentes tamanhos que, quando agitados, exibem segregação, com os grãos maiores subindo para a superfície. Durante muitos anos, acreditou-se que essa segregação ocorria devido à presença de paredes que confinam o material. Na primeira parte desta tese, demonstramos que em sistemas com condições de contorno periódicas (pbc), o BNE também pode ocorrer. Também propomos que o BNE exibe efeito de ressonância, e diferenciamos sistemas com paredes e pbc utilizando a função de Grande Desvio (LDF). Na segunda parte desta tese, estudamos uma área diferente dos materiais granulares: o transporte de sedimentos. O transporte de sedimentos ocorre na interação entre grânulos e fluidos. Para simular o comportamento de materiais granulares imersos em um fluido, utilizamos uma técnica de Dinâmica dos Fluidos Computacional (CFD). Os sedimentos sólidos se movem no campo de velocidade transportado pelo fluido. Três parâmetros adimensionais são necessários para descrever o transporte: o número de Reynolds, que relaciona as forças inerciais com as forças viscosas, e consequentemente os efeitos de turbulência do fluido; o número de Shields, que está relacionado às forças de arrasto e às forças inerciais do fluido; e finalmente, a razão de densidade entre as fases sólida e fluida. É possível reproduzir os diferentes modos de transporte apenas alterando esses parâmetros adimensionais. Nesta tese, calculamos e caracterizamos o tempo de saturação para o modo de transporte de fundo no regime viscoso, e também prevemos o comprimento de saturação para este modo de transporte.Item Projeto e análise de métodos computacionais para problemas de sequenciamento de tarefas em ambientes de máquinas paralelas não relacionadas(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-08-27) Diana, Rodney Oliveira Marinho; Souza, Sérgio Ricardo de; Wanner, Elizabeth Fialho; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/5802108825109375; Souza, Sérgio Ricardo de; Wanner, Elizabeth Fialho; Ochi, Luiz Satoru; Arroyo, José Elias Claudio; França Filho, Moacir Felizardo de; Sá, Elisângela Martins de; Souza, Marcone Jmailson FreitasEsta tese estuda uma importante classe de problemas de scheduling, denominada sequenciamento de tarefas em máquinas paralelas não relacionadas com tempos de preparação dependentes da sequência e das máquinas. Para isto, é realizada uma minuciosa revisão bibliográfica, que identifica três lacunas na literatura: (i) pouca importância é dada à construção e, principalmente, à validação de componentes utilizados em métodos de busca local e, assim, não há informações suficientes para se determinar padrões que podem potencializar a construção de operadores de busca local; (ii) as metaheurísticas construídas para resolução dos problemas incorporam muitas características dos critérios de otimização no processo de busca, dificultando a adaptação destas a critérios de otimização com pouca visibilidade teórica; (iii) não são encontrados estudos para problemas que envolvam o sequenciamento guiado por uma política Just-in-Time (JIT), considerando janelas de tempo. Esta tese tem como principal objetivo apresentar três estudos a respeito dessas lacunas. No primeiro estudo é proposta uma metodologia para o projeto de operadores de busca local de metaheurísticas. Esta metodologia é avaliada em três metaheurísticas propostas previamente na literatura. O estudo mostra que a utilização da metodologia leva a um incremento significativo nas três metaheurísticas avaliadas, inclusive encontrando resultados superiores às abordagens de estado da arte para o problema avaliado. Além disto, através das análises dos componentes de busca local, foram encontrados padrões que podem ser usados para construção de operadores de busca local em outros cenários. Já o segundo estudo é destinado à construção de uma abordagem metaheurística híbrida para a classe de problemas de sequenciamentos avaliada nesta tese. A abordagem reduz o uso de características do critério de otimização no processo de busca. Ao mesmo tempo, a abordagem não reduz a qualidade dos resultados encontrados, quando comparada a abordagens projetadas especificamente para um critério de otimização. Neste estudo é mostrado, através de quatro estudos de caso, que a abordagem proposta encontra, na maior parte dos cenários avaliados, resultados superiores ou similares às abordagens de estado da arte. Por fim, realizamos um estudo a respeito da importância e dificuldade do projeto de metaheurísticas para a classe de problemas estudados, quando guiados por uma política JIT, permitindo a inserção de tempos ociosos em conjunto com janelas de tempo. Neste estudo é proposto adaptar, para máquinas paralelas não relacionadas, um método de inserção ótima de tempos ociosos para ambientes de máquina única. Este método acarreta em incremento significativo da ordem de complexidade das abordagens. Devido a isto, é proposto um método de busca local com estruturas de vizinhança reduzidas. Os métodos propostos são integrados a quatro metaheurísticas previamente propostas na literatura e à metaheurística híbrida proposta nesta tese. É avaliado como as metaheurísticas se comportam para resolução do problema. Os resultados mostram que a metaheurística híbrida apresenta resultados superiores às demais abordagens na maior parte dos cenários avaliados. Além disto, é avaliado qual a influência do tamanho das janelas de tempo nos resultados advindos do sequenciamento. Os resultados indicam a existência de uma correlação linear entre o tamanho da janela de tempo com os custo advindos dos atrasos e avanços das tarefas.Item Modelo matemático-computacional para previsão de tendência de preços abordagem com múltiplos ativos buscando oportunidades em desvios da hipótese de mercado eficiente(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-02-26) Resende, Charlene Cássia de; Magalhães, Arthur Rodrigo Bosco de; http://lattes.cnpq.br/6122907819049400; http://lattes.cnpq.br/1618821921549627A teoria econômica clássica defende que os mercados são eficientes, que os preços caminham em direção a um ponto de equilíbrio no longo prazo e que não há possibilidades de arbitragens. Para investigar esta Hipótese de Mercado Eficiente (HME), definimos um modelo de previsão de tendências de retornos de ativos financeiros, baseado em um sistema de equações diferenciais lineares acopladas discretizado. Neste modelo, consideramos que as relações entre os desvios dos preços das ações em relação a um preço considerado justo traz informação sobre a dinâmica dos preços das ações. Tais desvios são calculados utilizando-se a diferença logarítmica entre os preços reais e os preços justos, modelados por uma média móvel exponencial. Visando a comparação entre um mercado emergente e um desenvolvido, aplicamos o modelo para a bolsa de valores brasileira e norte-americana. A consistência do modelo foi investigada comparando-se resultados em quadrimestres diferentes. A relação entre a acurácia do modelo e o expoente de Hurst foi estudada. Parâmetros de execução do modelo, tais como, janela de ajuste, número de ações e frequência de amostragem dos dados, são explorados com o objetivo de encontrar uma combinação que apresente taxas de acurácia relevantes. Testes de hipóteses foram aplicados aos resultados da previsão para investigar se o modelo tem uma taxa de acerto de tendência de preços diferente de um processo totalmente aleatório. Diante dos parâmetros explorados, escolhemos um conjunto que apresentou resultados satisfatórios e aplicamos o modelo em simulação realística do mercado utilizando uma plataforma de algotrading. Na simulação, definimos dois modelos de operação para as estratégias de negociação: MO1 e MO2. No MO1, as operação são abertas de acordo com o sinal enviado pelo preditor e encerradas no fechamento do mesmo candle. Para MO2, as operações são encerradas por meio de stops. Os resultados foram comparados levando em consideração indicadores de desempenho, tais como: risco de exposição ao mercado, retorno financeiro, taxas operacionais e capital alocado.Item Algoritmo GVNS aplicado ao problema das p-medianas capacitado abordagens determinística e robusta(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-12-20) Vasconcelos, Anderson Moreira; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Sá, Elisângela Martins de; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/6078945717558464; http://lattes.cnpq.br/6195947972246267; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Sá, Elisângela Martins de; Silva, Maria Amélia Lopes; Haddad, Matheus Nohra; Wanner, Elizabeth Fialho; Menezes, Gustavo CamposO Problema das p-Medianas Capacitado (PPMC) consiste em localizar p instalações em uma rede composta por n vértices e decidir qual mediana atenderá cada vértice, a fim de minimizar a soma das distâncias dos vértices à mediana a qual ele foi alocado e atender às restrições de capacidade de cada mediana. Considerando que as demandas dos clientes são incertas, é proposta a aplicação de uma abordagem de otimização robusta para lidar com a incerteza nestes parâmetros dando origem ao problema das p-Medianas Robusto Capacitado (PPMRC). Esta tese propõe algoritmos para resolução do PPMC e o PPMRC. Para resolver o PPMC, foram propostas quatro variantes da metaheurística General Variable Neighborhood Search (GVNS), que se diferem no método usado para construir uma solução inicial e nos métodos usados para realizar a busca local. Nas duas primeiras variantes, denominadas G-VND e G-RVND, a solução inicial é gerada de forma aleatória e os métodos de busca local são o Variable Neighborhood Descent (VND) e o Random Variable Neighborhood Descent (RVND), respectivamente. Nas duas últimas variantes, denominadas GG-VND e GG-RVND, a solução inicial é gerada através da fase de construção da metaheurística Greedy Randomized Adaptive Search Procedure (GRASP) e os métodos de busca local são o VND e o RVND, respectivamente. Os resultados de experimentos computacionais usando instâncias da literatura mostraram que o algoritmo GG-RVND apresentou melhor desempenho que os outros três algoritmos. Além disso, os resultados obtidos pelo algoritmo GG-RVND foram melhores do que aqueles da literatura, tanto em termos da qualidade das soluções geradas quanto em relação ao tempo de execução. Para o PPMRC, foi proposto um algoritmo baseado na metaheurística GVNS, com a solução inicial gerada através da fase construtiva do método GRASP e uma busca local realizada via VND. Os experimentos computacionais comparam os resultados do GVNS e as soluções do solver CPLEX. Para realizar esses experimentos computacionais, foram utilizadas instâncias da literatura, variando de 318 nós e cinco medianas a 4461 nós e 1000 medianas. Este estudo considera diversos cenários, valores variados dos parâmetros de robustez e de incerteza na demanda. Os resultados mostram que o Algoritmo GVNS tem um bom desempenho em encontrar boas soluções e supera o solver CPLEX, encontrando soluções melhores mesmo quando aplicado para resolver o conjunto de dados de menor dimensão.
- «
- 1 (current)
- 2
- 3
- »