Mestrado em Modelagem Matemática e Computacional
URI Permanente para esta coleção
Navegar
Navegando Mestrado em Modelagem Matemática e Computacional por Data de Publicação
Agora exibindo 1 - 20 de 72
Resultados por página
Opções de Ordenação
Item Algoritmos e modelos matemáticos para o problema da k-partição de números(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-02-16) Faria, Alexandre Frias; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; http://lattes.cnpq.br/8465270749629421; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/7284035698082266; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; Coleho, Alessandra Martins; Cardoso, Rodrigo Tomás NogueiraEsta dissertação de mestrado apresenta uma formulação matemática e algoritmos para a versão de otimização do Problema da k-Partição de Números. Este problema consiste em distribuir os elementos de uma sequência numérica em k subconjuntos disjuntos, de modo que os resultados das somas dos elementos de cada subconjunto fiquem contidos no menor intervalo possível. A formulação matemática proposta é baseada em dois problemas semelhantes da literatura. Elimina-se a multiplicidade de soluções do modelo de programação inteira, reduzindo ao mínimo o número de variáveis. Mostra-se a NP-completude do problema estudado. Estudam-se algoritmos heurísticos, aproximados e exatos da literatura aplicáveis aos problemas relacionados. Aplica-se a meta-heurística ILS (Iterated Local Search) à solução gerada por um algoritmo aproximado. A estratégia utilizada é aplicar método guloso em todas as fases do algoritmo, tanto na inicialização quanto para a escolha de movimentos do ILS. Propõe-se uma melhoria de métodos exatos Branch-and-Bound aplicados ao problema e presentes na literatura . Esta modificação refina os limitantes do método, usando a relaxação do modelo matemático e ILS propostos. Insere-se um critério de busca para que os nós mais promissores tenham prioridade. Os resultados mostram a solução do ILS superando as soluções de heurísticas construtivas listadas na literatura. A qualidade da solução do ILS é certificada por métodos exatos, um da literatura e outro com as melhorias propostas neste trabalho. As modificações do algoritmo exato se mostram eficazes em uma comparação entre a solução alcançada sobre o número de nós explorados nas duas versões.Item Modelo para dinâmica de mercado financeiro baseado no modelo SIR.(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-02-21) Fonseca, Carla Liliane Guedes; Magalhães, Arthur Rodrigo Bosco de; http://lattes.cnpq.br/6122907819049400; http://lattes.cnpq.br/3820958597707901; Magalhães, Arthur Rodrigo Bosco de; Oliveira, Adélcio Carlos de; Faria, Allbens Atman Picardi; Fernandes, José Luiz AcebalNeste trabalho, busca-se modelar a dinâmica de preços de ativos, através de equações diferenciais. A pesquisa tem como referência um modelo epidêmico que visa contribuir para a modelagem de sistemas financeiros, considerados complexos, através de sistemas determinísticos simples que agregam características estocásticas. Em analogia ao modelo SIR (Suscetíveis - Infectados - Recuperados), foi construído um modelo de mercado composto de quatro populações, infectados de compra, infectados de venda, suscetíveis de compra e suscetíveis de venda, que resultou em um sistema de quatro equações diferenciais não lineares. Em paralelo às equações inspiradas no modelo SIR, foi formulada a equação do preço. O modelo foi investigado por meio da análise dos autovalores de sua matriz jacobiana nos pontos críticos, e foram extraídas diversas dinâmicas, todas simuladas em um programa específico, construído através do software MATLAB. Num segundo momento, foi inserida aleatoriedade no modelo para novas análises, o que, aparentemente, tornou as curvas de preço por ele produzidas mais parecidas com as curvas encontradas em séries reais. Dois tipos de aleatoriedade foram considerados, uma em que a liquidez no mercado não muda e outra em que tal liquidez varia. Para efeito de validação do modelo, foram realizadas investigações estatísticas através da ferramenta expoente de Hurst e por meio do cálculo da curtose das séries produzidas. As curvas sintéticas extraídas do modelo foram comparadas estatisticamente à curvas reais advindas de ativos do Índice Bovespa. Ao mesmo tempo foram analisadas estatísticas relativas a um caminhante aleatório, para servirem de referência. As estatísticas foram calculadas para candles completos, oriundos de séries empíricas ou construídos a partir de séries sintéticas. Os resultados mais interessantes encontrados foram diferenças consistentes nos expoentes de Hurst e nas curtoses quando calculados sobre preços de abertura e fechamento, em relação aos valores relativos a máximo e mínimo. Até onde sabemos, tais resultados não foram reportados na literatura.Item Simulação de materiais granulares aplicada a transportadores de correia(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-02-24) Tavares, Abraão Marques; Faria, Allbens Atman Picardi; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/3743860013798719; Faria, Allbens Atman Picardi; Magalhães, Arthur Rodrigo Bosco de; Pádua, Flávio Luis Cardeal; Mattos, Thiago Gomes deNesta dissertação, tratamos do desenvolvimento de simulações para o estudo do comportamento de materiais granulares em situações típicas da indústria. Estudamos o transporte via transportadores de correia, uma importante etapa nos processos da indústria de mineração e manuseio de matérias-primas. Desse modo, focamo-nos em um fenômeno de aumento de velocidade de grãos no ponto de descarga de transportadores, que, em nosso conhecimento, é inédito na literatura. Para tal, desenvolvemos um sistema de simulação que utiliza a técnica da Dinâmica Molecular e realizamos uma série de simulações com o intuito de investigar fatores que influenciam o supracitado fenômeno, tais como altura da camada de material, inclinação da correia e distribuição granulométrica. A partir dos resultados de nosso sistema e de outro previamente utilizado, formulamos hipóteses sobre os mecanismos físicos subjacentes ao comportamento observadoItem Uma abordagem evolutiva e híbrida para a solução de problemas de fluxo de potência ótimo(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-06-09) Marcelino, Carolina Gil; Almeida, Paulo Eduardo Maciel de; Wanner, Elizabeth Fialho; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/6099942406051896; http://lattes.cnpq.br/3289676418940953; Almeida, Paulo Eduardo Maciel de; Wanner, Elizabeth Fialho; Bernadino, Heder Soares; Pinto, Felipe Campelo Franca; Souza, Marcone Jamilson Freitas; Martins, Flávio Vinicius CruzeiroNos últimos anos, tem-se percebido uma preocupação crescente em relação ao uso racional da energia. Os países desenvolvidos têm realizado campanhas relacionadas à projeção e prospecção de novas soluções eficazes na indústria, entre elas a busca objetiva pelo uso adequado das fontes de energia elétrica. Esta forma de energia é considerada de suma importância para o desenvolvimento social e econômico. Garantir a eficiência energética visando a sustentabilidade e a minimização do uso de recursos se torna um grande desafio. Controlar grandes sistemas de geração e transmissão de energia elétrica é uma tarefa complexa, por ser um problema não-linear e possuir um alto número de restrições agregadas. Neste contexto, o estudo e a proposição de novos métodos para solucionar problemas de Fluxo de Potência Ótimo (OPF) se tornam temas de alta prioridade no cenário mundial. Este trabalho propõe e implementa algoritmos evolucionários híbridos e os aplica para solução destes problemas. Dois novos algoritmos híbridos C-DEEPSO e hC-DEEPSO são propostos e apresentados, os quais resolvem dada a dificuldade de cada problema elétrico em sua necessidade os problemas: de despacho elétrico em uma usina hidrelétrica, do controle da geração elétrica em uma planta eólica, os problemas OPF com restrições de segurança em grandes redes e o problema do despacho elétrico em um modelo de microgrid híbrido aperfeiçoado. Neste caso, um método de tomada de decisão foi utilizado a posteriori para definir o melhor sistema de armazenamento de energia para a rede proposta. Experimentos simulados foram executados em um computador de alto desempenho, e a análise deles foi realizada a partir de técnicas de inferência estatística, indicando que os algoritmos propostos se mostraram eficientes e competitivos na solução dos problemas estudados.Item Aprendizado por reforço baseado em agrupamentos para recomendação na ausência de informação prévia(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-02) Rodrigues, Otávio Augusto Malheiros; Lacerda, Anísio Mendes; Pádua, Flávio Luis Cardeal; http://lattes.cnpq.br/6545115051079964; http://lattes.cnpq.br/2034607422210997; http://lattes.cnpq.br/2125546646444157; Lacerda, Anísio Mendes; Pádua, Flávio Luis Cardeal; Bax, Marcelo Peixoto; Pereira, Adriano César MachadoAtualmente, com a popularização e aumento da quantidade de páginas Web, o volume de informação compartilhada tem crescido, ampliando cada vez mais a quantidade de conteúdo disponível para os usuários dessa rede. Assim, surge a necessidade de ferramentas capazes de identificar conteúdo relevante a partir desse grande volume de informação disponível. Os sistemas de recomendação são ferramentas computacionais que possuem este objetivo, ou seja, esses sistemas focam em auxiliar os usuários a encontrar informação relacionada às suas preferências de forma personalizada. As técnicas estado-da-arte na literatura de sistemas de recomendação são baseadas no histórico de interação dos usuários com os itens disponíveis no sistema. Assim, estas técnicas são limitadas no cenário de ausência de informação prévia sobre as preferências dos usuários. Este é um problema bem conhecido na literatura de sistemas de recomendação, chamado cold-start de usuários e é o foco desta dissertação. Mais especificamente,aborda-se o problema de recomendar itens para usuários de forma contínua (i.e.,online) por meio de algoritmos baseados em aprendizado por reforço. A classe de algoritmos na qual baseia-se este trabalho é Multi-Armed Bandits (MAB) e refere-se a algoritmos de tomada de decisão sequencial com retro-alimentação. Neste trabalho, modelamos a recomendação no cenário de cold-start como um algoritmo MAB de dois passos. Assumimos que os itens podem ser agrupados considerando sua descrição textual, o que leva a agrupamentos de itens semanticamente semelhantes. Primeiramente, seleciona-se o agrupamento de itens mais relevante para o usuário-alvo da recomendação. A seguir, dado o agrupamento previamente selecionado, escolhe-se o item mais relevante dentro desse agrupamento, o qual é sugerido para o usuário-alvo. Para avaliar a qualidade do algoritmo proposto, o seu desempenho foi mensurado utilizando um conjunto de dados real. A avaliação experimental mostra que o algoritmo proposto produz melhorias significativas em termos de qualidade de recomendação em relação aos algoritmos MAB estado-da-arte.Item Um arcabouço de recomendação multimodal de imagens baseado em fatores latentes de baixa dimensionalidade.(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-04) Anício, Anna Claudia Almeida; Lacerda, Anísio Mendes; Pádua, Flávio Luis Cardeal; http://lattes.cnpq.br/6545115051079964; http://lattes.cnpq.br/2034607422210997; http://lattes.cnpq.br/8461592367063314; Lacerda, Anísio Mendes; Pádua, Flávio Luis Cardeal; Pereira Júnior, Álvaro Rodrigues; Rodrigues, Thiago de SouzaA popularização de dispositivos fotográficos, como smartphones e câmeras digitais, tem levado as pessoas ao hábito de registrar momentos por meio de fotos. Assim, todos os dias, uma grande quantidade de imagens são disponibilizadas em redes sociais de compartilhamento de fotos, como Flickr, Pinterest e Instagram. Esta dissertação propõe um arcabouço de recomendação de imagens, que visa ajudar os usuários a lidar com a enorme quantidade de informação disponível, por meio de uma experiência personalizada. Sistemas de Recomendação são ferramentas computacionais que auxiliam usuários a encontrar informação relevante (por exemplo: imagens, músicas, filmes) de acordo com seus interesses. Tradicionalmente, esses sistemas utilizam informação colaborativa das preferências dos usuários para sugerir itens. Porém, nem sempre essa informação está disponível. Por exemplo, quando novos itens são inseridos no sistema não existe informação de preferência dos usuários sobre eles, fato que leva à necessidade de explorar o conteúdo desses itens. Neste trabalho, o foco é explorar informação de natureza multimodal para recomendação de imagens, sendo essas representadas por meio de características (i) visuais e (ii) textuais. As características visuais são extraídas da própria imagem (ex., cor e textura), utilizando técnicas de Visão Computacional e Processamento de Imagens. Por outro lado, as características textuais são extraídas de metadados das imagens (ex., do título e da descrição), utilizando técnicas de Recuperação de Informação. Dessa forma, é possível descrever uma imagem sob diferentes dimensões. Os sistemas de recomendação estado-da-arte são baseados em informação colaborativa e descrição dos itens. Esses sistemas sofrem do problema da "maldição da dimensionalidade". As características de alta dimensão dos itens dificulta a identificação de itens similares, dado que a distribuição dos dados originais é extremamente esparsa. A fim de aliviar esse problema, propõe-se projetar a representação dos itens de alta dimensão em um espaço de fatores latentes de dimensão inferior. O arcabouço de recomendação proposto é baseado no algoritmo Sparse Linear Methods with Side Information (SSLIM) que, por sua vez, consiste na construção de matrizes de (i) relação entre usuários e itens e de (ii) relação entre itens. O trabalho proposto é avaliado em uma base de dados real coletada do Flickr; e comparado com técnicas do estado-da-arte. Conforme demonstrado nos experimentos, o arcabouço proposto apresenta melhora na qualidade das recomendações e fornece ganhos de 15% a 17% em termos de taxa de acertos em relação aos métodos de referência.Item Um algoritmo híbrido baseado em colônia de formigas e programação linear aplicado ao problema de roteamento de veículos capacitados(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-10) Papa, Larissa Camila; Martins, Flávio Vinicius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/8327916913062595; Martins, Flávio Vinicius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; Alexandre, Rafael Frederico; Santos, Vinicius Fernandes dos; Sarubbi, João Fernandes MachryNeste trabalho é abordado o Problema de Roteamento de Veículos Capacitados. Ele compreende a obtenção de um conjunto de rotas, que devem ser percorridas por uma frota de veículos homogêneos e de igual capacidade, atendendo assim as demandas de um conjunto de clientes. Seu objetivo é a minimização do custo total das rotas, sabendo-se que elas devem iniciar e terminar no depósito central, além de cada cliente somente pode ser atendido uma única vez por um único veículo. Este problema possui natureza NP-difícil, sendo comumente resolvido por meio de heurísticas. Outra técnica utilizada é a programação linear inteira, cuja particularidade corresponde a confiança na solução obtida, uma vez que por meio da solução final retornada pode-se provar que é o ótimo global. Como desvantagem, os problemas de natureza combinatória são, na maioria dos casos, computacionalmente custosos, tornando improvável encontrar uma solução ótima em tempo computacional aceitável. A proposta deste trabalho é desenvolver um algoritmo híbrido que combine a natureza ágil das heurísticas com a precisão dos métodos de solução por Programação Linear. A heurística utilizada foi a Otimização por Colônia de Formigas (ACO), a qual irá trabalhar de forma híbrida com o CPLEX, software distribuído pela IBM. Estuda-se a melhor forma de interação entre estes dois métodos, analisando os seus possíveis modos de comunicação. Estes compreendem duas diferentes formas de hibridização, uma caracterizada pela ausência do processo de realimentação, e a outra fazendo uso deste recurso. Os resultados obtidos pelas hibridizações foram comparados com os produzidos pelos métodos executados individualmente, bem como com as soluções presentes na literatura.Item Algoritmos híbridos aplicados ao problema de roteamento de veículos com janela de tempo(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-25) Pinto, Aguinaldo Alves; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/7686232310898524; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; França Filho, Moacir Felizardo de; Moita, Gray FariasNesta dissertação é tratado o Problema de Roteamento de Veículos com Janela de Tempo (PRVJT). O objetivo é atender um conjunto de clientes geogra camente distribuídos com um número de veículos limitado. É considerado um único depósito, a partir do qual os veículos partem e retornam após visitar todos os clientes de sua respectiva rota. Há uma janela de tempo associada ao depósito, que indica seu período de funcionamento, além de uma janela de tempo correspondente a cada cliente, que indica o intervalo de tempo para iniciar o atendimento. Todos os veículos possuem a mesma capacidade de carga em uma dada instância e há uma demanda correspondente a cada cliente. Esta dissertação propõe, para a solução de instâncias do PRVJT, uma hibridização das metaheurísticas Iterated Greedy Search (IGS) e Greedy Randomized Adaptive Search Procedure (GRASP), integrada às heurísticas Push-Forward Insertion Heuristic (PFIH) e Variable Neighborhood Descent (VND). Os testes computacionais realizados utilizam as 56 instâncias propostas por Solomon (1987) e comparam com os melhores resultados heurísticos da literatura para esta classe de instâncias do PRVJT.Item Desenvolvimento de uma metodologia baseada em matriz de distâncias para a verificação de similaridades de proteínas(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-25) Monteiro, Otaviano Martins; Rodrigues, Thiago de Souza; Dias, Sandro Renato; http://lattes.cnpq.br/5300421458375793; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/5378637011361467; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Semenchenko, Anton; Lacerda, Anísio MendesAs proteínas são macromoléculas presentes em todos os seres vivos e desempenham funções importantes, tais como manutenção de órgãos e tecidos, diferenciação celular, transporte, entre outras diversas finalidades. Várias proteínas, possuem a sua estrutura tridimensional resolvida e armazenada em bancos de dados biológicos, como o Protein Data Bank (PDB). Existem diversos softwares que trabalham com informações extraídas do PDB. Algumas dessas ferramentas, tem como função a verificação de similaridades entre estruturas proteicas. Um exemplo é o LSQKAB, que pertence ao pacote CCP4, e tem o seu funcionamento baseado no algoritmo de Kabsch, uma técnica frequentemente utilizada na área de bioinformática que possibilita a comparação entre duas estruturas de proteínas. Este trabalho tem como objetivo desenvolver uma metodologia baseada em uma matriz de distâncias, que verifique a similaridade de trechos de proteínas. A sua precisão deve ser a mesma do LSQKAB e ainda deve ser possibilitado o agrupamento de resíduos de acordo com as similaridades de seus valores de distâncias atômicas. Os experimentos foram realizados com arquivos de interações de resíduos de uma mesma proteína e os resultados foram comparados com o Cutoff Scanning Matrix (CSM) e com a técnica do arquivo de referência, utilizada na busca de pares interagentes pela ferramenta RID. Foi possível formar diversos grupos com arquivos similares através de cada técnica avaliada. A metodologia apresentada obteve resultados interessantes diante das outras técnicas comparadas, obtendo uma maior precisão.Item Classificadores para pacientes com câncer de mama de acordo com a sensibilidade quimioterápica neoadjuvante(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-30) Carvalho, Pedro Kássio Ribeiro Matos Loureiro de; Rodrigues, Thiago de Souza; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/1889558989512152; Rodrigues, Thiago de Souza; Sarubbi, João Fernando Machry; Santos, Vinícius Fernandes dosO câncer de mama é tipo de câncer mais comum entre as mulheres. O seu tratamento é geralmente efetuado por meio da utilização de quimioterapia neoadjuvante, também conhecida como pré-operatória, seguida da operação para remoção do tumor e posteriormente a quimioterapia pós-operatória. A quimioterapia neoadjuvante pode ter Resposta Patológica Completa (PCR), quando a doença é eliminada, ou pode possuir Doença Residual (RD). Este projeto busca utilizar informações de subtipos moleculares do câncer de mama, para identificar cinco tipos específicos destas expressões gênicas e, por meio da implementação de diversos tipos diferentes de classificadores, avaliar o efeito da quimioterapia neoadjuvante nos portadores da doença. O melhor classificador obtido foi o Extreme Learning Machine, que possui um tempo de execução baixo e 80% de acerto em média, indicando um bom resultado.Item Problemas de programação de tarefas com janelas de conclusão e penalidades por antecipação e atraso: algoritmos e formulações(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-10-27) Rosa, Bruno Ferreira; Michelon, Philippe Yves Paul; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/6925570277196451; http://lattes.cnpq.br/9733200718349659; Souza, Sérgio Ricardo de; Souza, Marcone Jamilson Freitas; Michelon, Philippe Yves Paul; Ronconi, Débora Pretti; Ochi, Luiz Satoru; Souza, Maurício Cardoso de; França Filho, Moacir Felizardo de França; Sá, Elisângela Martins de; Martins, Flávio Vinícius CruzeiroEste trabalho trata o problema de programação de tarefas em uma máquina com janelas de conclusão distintas e tempos de preparação da máquina dependentes da sequência de exe- cução das tarefas, denominado SMSPETP-SDS. O objetivo é minimizar a soma ponderada das antecipações e dos atrasos na conclusão das tarefas. Em termos práticos, as penalidades por antecipação são decorrentes de custos gerados pela necessidade de estocagem, enquanto as penalidades por atraso são consequências de multas contratuais. O SMSPETP-SDS possui muitas aplicações em indústrias metalúrgicas, têxteis, químicas, entre outras. Além do grande número de aplicações, é um problema difícil de ser resolvido na otimalidade, visto pertencer à classe NP-difícil. A união entre a aplicabilidade e a dificuldade de encontrar uma solução ótima motiva o desenvolvimento de algoritmos eficientes para resolvê-lo. Apesar disso, o problema de programação de tarefas com as características consideradas neste trabalho ainda não recebeu a devida atenção. O SMSPETP-SDS tem sido tratado basicamente por meio de procedimentos heurísticos que dividem o problema em dois subproblemas: determinar a melhor programa- ção de uma dada sequência de tarefas, considerando-se a possibilidade de inserção de tempos ociosos entre a execução de tarefas consecutivas; e determinar uma sequência de tarefas que, associada à sua programação ótima, minimize a soma das penalidades geradas pelas tarefas. Neste trabalho, o SMSPETP-SDS é tratado sob uma perspectiva ainda não considerada na literatura. Inicialmente é proposto um novo algoritmo de programação ótima de uma dada. sequência de tarefas. Esse algoritmo, de complexidade O(n2), é utilizado nos algoritmos heu- rísticos propostos para resolver o problema de sequenciamento das tarefas. Esse algoritmo de programação ótima também é utilizado em um algoritmo exato de enumeração implícita para o caso particular com tempos de preparação da máquina independentes da sequência de exe- cução das tarefas, denominado SMSPETP-SIS. O algoritmo de enumeração implícita proposto faz uso de resultados teóricos desenvolvidos exclusivamente para o SMSPETP-SIS. Em um segundo momento, propõem-se várias formulações matemáticas para o SMSPET P-SDS. Um horizonte de planejamento para a execução de cada tarefa é proposto a fim de ser utilizado na determinação dos parâmetros de entrada dessas formulações. Por último, são propostas novas famílias de restrições válidas para as formulações baseadas em variáveis indexadas no tempo, bem como algoritmos de separação para essas famílias. Experimentos computacionais mostram que: o algoritmo de programação ótima de uma dada sequência de execução das tarefas pro- posto é mais rápido que o algoritmo até então utilizado para esse fim; os algoritmos heurísticos propostos para o problema de sequenciamento das tarefas são melhores que dois algoritmos da literatura na maioria dos problemas-teste considerados; o algoritmo de enumeração implí- cita é uma boa alternativa para a resolução exata do SMSPET P-SIS; e os limites inferiores construídos com os algoritmos de separação propostos são muito melhores que as soluções das respectivas relaxações line ares das formulações matemáticas apresentadas.Item Avaliação mecânica e de durabilidade de concretos fabricados com resíduos de construção e demolição(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-01-02) Salles, Pedro Valle; Rodrigues, Conrado de Souza; Pogiali, Flávia Spitale Jacques; http://lattes.cnpq.br/6824739413179983; http://lattes.cnpq.br/2053934196878623; http://lattes.cnpq.br/2374575346465708; Rodrigues, Conrado de Souza; Pogiali, Flávia Spitale Jacques; Ludwig, Peter; Santos, White JoséO uso de agregados reciclados no Brasil é limitado, sendo restrito a funções não estruturais. A grande heterogeneidade dos resíduos de construção e demolição (RCD) dificulta o uso sistemático desses resíduos em concretos estruturais, apesar disso, está aplicação já ocorre em diversos países, tendo respaldo de normas técnicas. Sendo assim, a presente dissertação propõe-se a analisar os efeitos de substituições (25, 50 e 100%) dos agregados naturais (AN) graúdos por agregados reciclados de construção e demolição (três diferentes tipos) em concretos estruturais. São aferidas características mecânicas e de durabilidade desses novos concretos. Tendo em vista a heterogeneidade da composição do RCD, é exposta metodologia de separação e limpeza dos agregados reciclados. Caracterizou-se os agregados naturais e os três tipos de resíduos e confirmou-se a menor qualidade – para fabricação de concretos estruturais – do RCD em relação ao AN, sendo o agregado reciclado de maior qualidade o ARC seguido pelos ARM e ARV. Os RCD apresentam menores massas, maiores absorções de água, maiores volumes de vazios e menores resistências à abrasão, em relação aos agregados naturais. Com os corpos-de-prova de concreto reciclado prontos, realizaram-se os seguintes ensaios: Determinação da consistência pelo abatimento do tronco de cone; Ensaio de resistência à compressão; Determinação do módulo estático de elasticidade à compressão; Ensaio de resistência à tração por compressão diametral; Ensaio de determinação da absorção de água por imersão; Ensaio de resistividade elétrica do concreto; Ensaio de carbonatação acelerada. De maneira geral o uso de RCD afeta, as características do concreto. Trabalhabilidade, resistência à compressão, índice de vazios, absorção de água e módulo de elasticidade são parâmetros afetados negativamente pela adição de RCD. Já a resistência ao avanço da frente de carbonatação é uma característica melhorada com o uso de agregados reciclados. Com relação a existência à tração por compressão diametral, o uso de RCD não afetou esse parâmetro.Item Compatibilidade e aderência entre argamassa de reparo álcali-ativada reforçada com fibra e substrato de concreto(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-01-15) Nunes, Vitor Alencar; Borges, Paulo Henrique Ribeiro; Zanotti, Cristina; http://lattes.cnpq.br/2894639825694344; http://lattes.cnpq.br/5399317473703342; http://lattes.cnpq.br/5525081275110037; Borges, Paulo Henrique Ribeiro; Zanotti, Cristina; Ludvig, Peter; Gutiérrez, Ruby Méjia deO reparo de estruturas de concreto é uma tarefa complexa que requer um conhecimento especial de regulamentos e normas técnica de construção, mecanismo de deterioração, princípios e métodos de reparo, materiais de reparo, execução de trabalhos de reparo, inspeções, monitoramento e manutenção. Até o momento, as argamassas de reparo mais utilizadas se dividem em duas categorias, (i) as argamassas baseadas em ligantes inorgânicos (cimento Portland) e (ii) as baseadas em ligantes orgânicos (polímeros). Pesquisas recentes revelam uma terceira categoria de argamassas com alto potencial para serem utilizadas como reparo de concreto; as argamassas álcali-ativadas. Os materiais álcali-ativados (MAA) vêm sendo amplamente promovidos como um ligante mais verde para construções sustentáveis. Estes ligantes podem ser obtidos a partir da ativação alcalina de uma ampla variedade de aluminossilicatos para a produção de componentes endurecidos. Este estudo, portanto, visa avaliar a compatibilidade e a aderência entre argamassas álcali-ativadas reforçadas com fibra e um substrato de concreto. Diferentes formulações de MAA foram inicialmente estudadas, com base na ativação alcalina de metacaulim (MK) e de escória do alto-forno (BFS); suas propriedades mecânicas e seu módulo de elasticidade foram avaliados. Cinco formulações foram selecionadas para a produção de argamassas de reparo e aplicação sobre substratos de concreto. Uma fração 0,25% de fibra de PP foi utilizada para mitigar a retração em pequenas idades e aumentar aderência da argamassa. A aderência foi medida pelo ensaio de pull-off. Os comportamentos de fissuração e delaminação foram avaliados pelo mecanismo crack trapping . As propriedades físicas também foram estudadas: absorção de água, porosidade aparente e densidade aparente. Os resultados apresentaram uma boa compatibilidade e aderência entre as argamassas de reparo e o substrato. Resistências à aderência satisfatórias foram encontradas, atendendo os requisitos da norma de reparo BS EN 1504. O problema de delaminação foi observado apenas na argamassa com 100% de MK e o comportamento de fissuração foi típico de materiais frágeis. A formulação 80MK-20BFS com razão molar SiO2/Al2O3 de 3.0 e reforçada com fibra foi selecionada como a mais promissora para o uso em reparo de estruturas de concreto.Item Diferentes estratégias de dispersão de nanotubos de carbono para reparação e caracterização de nanocompósitos de cimento(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-01-25) Rocha, Vanessa Vilela; Ludvig, Péter; http://lattes.cnpq.br/7848995220297181; http://lattes.cnpq.br/1336916560483025; Ludvig, Péter; Calixto, José Márcio; Rodrigues, ConradoOs nanotubos de carbono (NTCs) têm sido estudados devido às suas extraordinárias propriedades, como elevada resistência a tração e baixa densidade. Porém, a dispersão efetiva dos NTCs é crucial para alcançar melhorias nas propriedades mecânicas, e o principal desafio para a incorporação de NTCs na matriz de cimento Portland é a natureza hidrofóbica, fazendo com que em meio aquoso eles tendam a aglomerar, o que dificulta a homogeneização. O presente trabalho analisou diferentes técnicas de dispersão. Foi verificado a dispersão dos NTCs em surfactantes à base de lignosulfonato e policarboxilato em meio aquoso por meio do granulômetro a laser, sugerindo a dispersão efetiva do nanomaterial em presença dos aditivos em solução aquosa. No entanto, ensaios de caracterização mecânica das pastas de cimento com NTCs em proporções de 0% à 0,50% dispersos nos mesmos aditivos com uso de frequências ultrassônicas não indicaram ganhos de resistência expressivos, sugerindo que nas proporções estudadas a dispersão dos NTCs não ocorreu de maneira efetiva. Dispersando os NTCs nas partículas de cimento em solução de isopropanol e sonificação, no entanto, foi registrado ganhos de resistência à compressão e tração por compressão diametral de aproximadamente 50% para o incremento de 0,05%, além de um aumento de 70% na energia de fratura. Esse resultado sugere forte ligação entre os NTCs e as partículas de cimento e sugere também que em tais proporções os NTCs estão bem ligados aos produtos de hidratação e atuam como controladores da propagação da fissura. Em decorrência dos resultados, é aludido que o limite de dispersão por tal metodologia foi alcançado nessa proporção de 0,05%. A mesma técnica de dispersão em meio a solução de isopropanol foi adotada para verificar a dispersão dos NTCs nas partículas de areia e preparação de argamassas. Os resultados, no entanto, não identificaram ganhos de resistência tão expressivos quanto observado para a preparação das pastas de cimento, o que sugere fraca interação entre os NTCs e as partículas de areia. Os ensaios de termogravimetria sugerem redução de porosidade e maior presença de silicato de cálcio hidratado (C-S-H) em presença dos NTCs, sugerindo que o nanomaterial atua como nucleador dos produtos de hidratação das pastas de cimento.Item Modelos mono e multiobjetivo para o problema de localização de máxima cobertura estudo de caso SAMU-BH(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-02-07) Guimarães, Mariana Mendes; Martins, Flávio Vinicius Cruzeiro; Silva, Fábio Rocha da; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/0810552471549148; Martins, Flávio Vinicius Cruzeiro; Silva, Fábio Rocha da; Carrano, Eduardo Gontijo; Cunha Júnior, Joaquim José da; Sá, Elisângela Martins deO Problema de Localização de Facilidades (Facility Location Problem - FLP) é um dos temas clássicos na Pesquisa Operacional e se propõe a definir os melhores pontos de instalação de p facilidades para que n demandas sejam atendidas. O modelo visa minimizar custos ou maximizar algum benefício sob determinadas restrições (de capacidade, tempo, equipe etc). Uma de suas versões, o Problema de Máxima Cobertura (Maximal Covering Location Problem - MCLP), tem o objetivo de cobrir a maior demanda possível dentro de um limite preestabelecido (de tempo ou distância). Neste trabalho, o problema do tipo MCLP foi aplicado à realidade do Serviço de Atendimento Móvel de Urgência da cidade de Belo Horizonte, Minas Gerais, SAMU-BH, com o objetivo de maximizar a cobertura dos chamados atendidos dentro de um tempo de resposta de até oito minutos para as unidades de suporte básico (USBs) e de até dez minutos para as unidades de suporte avançado (USAs). Foram coletados dados dos prontuários referentes às ocorrências de Maio/2016 a Abril/2017, totalizando 29.048 registros. Os dados foram utilizados para a criação de instâncias do problema baseadas no comportamento dos chamados e representam a realidade do estudo de caso. Foi desenvolvido um modelo de programação linear inteira, adaptado de um modelo da literatura, e mapeados 427 nós de demanda e 1.527 nós candidatos à instalação de facilidades. Os tempos de resposta entre os nós foram calculados pelo aplicativo GoogleMaps Direction API. O modelo foi implementado em IBM ILOG CPLEX R 12.7.1, em tempos computacionais satisfatórios. Foram construídos três cenários para localização das 26 ambulâncias disponíveis. Considerou-se o remanejamento entre as bases existentes, a localização ótima em novos pontos mapeados e as taxas de ocupação para cada tipo de ambulância conforme níveis de confiança predefinidos. Os resultados foram comparados com o cenário real de localização das bases, vigente em 2017. Houve um aumento de 9% a 25% na taxa de cobertura, que variou conforme parâmetros estabelecidos, e chegou à cobertura de 100% dos chamados com empenho de USBs. Novos cenários também foram testados, com a aquisição de ambulâncias conforme planejamento para o triênio 2018-2020. O resultado apresentou uma cobertura das ocorrências com o empenho de unidades avançadas 36% maior que a atual. No caso das unidades básicas, o tempo de resposta desejado foi reduzido para 6 minutos e a cobertura aumentou em 20%. Uma abordagem multiobjetivo foi apresentada, utilizando o método da Soma Ponderada, a posteriori, com os objetivos de aumentar a cobertura total e reduzir o número de bases instaladas. Foram encontradas 25 soluções Pareto-Ótimas, sendo alternativas para a tomada de decisão gerencial.Item Estudo comparativo de modelos e técnicas para otimização de portfólios com restrição de cardinalidade(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-02-08) Cardoso, Rodrigo Tomás Nogueira; Cardoso, Rodrigo Tomás Nogueira; Cardoso, Rodrigo Tomás Nogueira; Pinto, Felipe Campelo França; Pereira, Adriano César Machado; Martins, Flávio Vinicius CruzeiroA teoria moderna do portfólio introduz o conceito de risco para investimentos financeiros, iniciando um problema de decisão em uma relação de compromisso entre o risco e retorno, que são características conflitantes em um investimento. Recentemente, estudos vêm utilizando otimização multiobjetivo para tratar esse problema, mas modelos e técnicas ainda estão sendo aprimorados. Deseja-se, portanto, contribuir para o desenvolvimento desse processo de otimização, especificamente com restrição de quantidade de diferentes ativos em um investimento, propondo modificações em modelos e técnicas já propostos. Para isso, quatro experimentos foram planejados, estabelecendo comparação de técnicas e modelos para otimização, simulações para validação desses e desenvolvimento de técnicas paralelas objetivando a redução do tempo computacional desses métodos de otimização, respectivamente. Resultados dos dois primeiros experimentos sugerem superioridade do modelo e técnica proposta em relação a outros presentes na literatura. O terceiro experimento valida o modelo e técnica escolhidos nos experimentos anteriores em uma simulação de negociações no mercado de ações, e o quarto experimento apresenta melhorias à técnica que apresentou melhor desempenho, melhorando a qualidade das soluções geradas com um aumento mínimo de tempo.Item Avaliação de retorno e risco em alocação de recursos de fundo de pensão(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-06-15) Reis, Jésus Amarante dos; Reis, Jésus Amarante dos; Pereira, Marconi de Arruda; http://lattes.cnpq.br/0211598484585754; Reis, Jésus Amarante dos; Pereira, Marconi de Arruda; Magalhães, Arthur Rodrigo Bosco de; Paiva, Felipe DiasAs alterações de fatores econômicos e sociais ocorridas nos últimos anos estão modificando significativamente a maneira de se planejar para aposentadoria. A gradativa redução da capacidade laboral, que acontece naturalmente com o passar dos anos, faz refletir sobre o período da incapacidade para o trabalho e, neste momento, reconhecemos a importância dos benefícios pagos pela Previdência Oficial, que há tempos vive uma expectativa de crise financeira favorecendo o surgimento e posterior crescimento das Entidades Fechadas de Previdência Complementar (EFPC). Neste mercado de previdência complementar, o período de acumulação de recursos é muito importante e a rentabilidade obtida nesta fase interfere diretamente na reserva financeira acumulada para a aposentadoria. Por isso, este trabalho tem como objetivo criar uma modelagem para selecionar e sugerir aos gestores de EFPC um portfólio de investimentos usando também renda variável em sua composição e que tenha rentabilidade suficiente para o cumprimento das expectativas do plano a um baixo nível de risco, medido pelo CVaR. Para tornar possível esta seleção de ativos é necessário observar a legislação atual relacionada aos limites da meta atuarial e da composição da carteira conforme a classificação dos ativos na B3. Dispondo das cotações diárias da BOVESPA do período de 2008 a 2016 será aplicada a Teoria do Portfólio de Markowitz para obter uma carteira ativos com o retorno adequado à legislação e risco minimizado. As simulações realizadas apresentaram retorno acumulado em oito anos superior em 128,45% à meta atuarial e 193,55% ao IBOVESPA que em média representa retorno anual superior em 16,00% e 24,00%, respectivamente. Os resultados foram validados com Fundos de Investimentos selecionados e com uma solução proposta pelo algoritmo evolutivo multiobjetivo NSGA-II, que também foram superados. De posse dos melhores ativos selecionados, pode-se então recomendar sugestões de carteiras para fundos de pensão.Item Autômatos celulares aplicados à dinâmica de doação emparelhada de rins(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-08-31) Melo, Mariana de Mendonça; Mattos, Thiago Gomes de; Faria, José Geraldo Peixoto de; http://lattes.cnpq.br/7536181384159078; http://lattes.cnpq.br/9832733706852720; http://lattes.cnpq.br/9220534097454750; Mattos, Thiago Gomes de; Faria, José Geraldo Peixoto de; Falcão, Ricardo de Carvalho; Magalhães, Arthur Rodrigo Bosco de; Lima, Leonardo dos SantosEmbora o transplante seja o melhor tratamento para o doente renal crônico, há um déficit constante entre a quantidade de doadores de rins para a realização do transplante e o número de doentes renais na fase terminal. Em decorrência desse desequilíbrio, a fila única de espera por um rim de doador falecido cresce consideravelmente, e quanto maior o tempo em que o doente renal em tratamento dialítico espera por um rim, maior é o risco de morte e doenças mórbidas. Dessa forma, para estender o acesso ao transplante e melhorar a taxa de sobrevivência com qualidade de vida para o paciente, este trabalho visa desenvolver um modelo simulacional de doação emparelhada de rins associada à díade formada por doador vivo e paciente. O modelo baseia-se em solucionar a incompatibilidade e/ou a baixa compatibilidade envolvida em um par doador-receptor trocando-se o doador de dois pares distintos. No modelo proposto descrevemos a propagação dos transplantes renais a cada passo de tempo sob influência do grau de altruísmo do doador, da duração da dinâmica e da (in)compatibilidade entre os pares. Através de estudos estatísticos, analisamos o comportamento do modelo que consiste na dinâmica de evolução de uma rede aleatória de autômatos celulares probabilísticos, no qual cada nó da rede corresponde a um par doador-receptor. Os resultados obtidos indicaram a eficácia do modelo quanto ao aumento do número de transplantes. Definimos uma relação de equilíbrio entre os parâmetros grau de altruísmo crítico e duração total da dinâmica para que todos os pares transplantassem.Item Estudo da complexidade de redes de criminalidade(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-11-13) Toledo, Alex Sander de Oliveira; Faria, Allbens Atman Picardi; Carpi, Laura Corina; http://lattes.cnpq.br/2779640920944038; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/9658658789730577; Faria, Allbens Atman Picardi; Carpi, Laura Corina; Laia, Marconi Martins; Ravetti, Martin Gomez; Magalhães, Arthur Rodrigo Bosco de; Carpelli, Antônio Paulo BaêtaEste trabalho evidenciou as redes de criminalidade de Minas Gerais. O estudo de redes de criminalidade permitiu novas abordagens e respostas para fazer frente à demanda crescente de Segurança Pública. A pesquisa concentrou-se na hierarquia, personagens e violência nas organizações criminosas. A partir da modelagem de relacionamentos oriundos de um banco de dados de Inteligência de Segurança Pública e utilizando elementos de redes complexas, foi possível identificar redes de criminalidade, relacionamentos entre criminosos e líderes. O uso de autômatos celulares permitiu modelar e analisar a evolução de rede de criminalidade e testar a robustez à ruptura e resiliência. A utilização pioneira de redes multiplex para identificação e análise de redes de criminalidade possibilitou a visualização da estrutura criminosa em camadas hierárquicas, sendo explorada a medida de diversidade de nós para identificação de líderes.Item Tomada de decisão em problemas de otimização de portfólios financeiros(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-02-01) Mendonça, Gustavo Henrique Massula; Martins, Flávio Vinícius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/1601775261467908; Martins, Flávio Vinícius Cruzeiro; Cardoso, Rodrigo Tomás Nogueira; Paiva, Felipe Dias; Pedro, Luciana Rocha; Wanner, Elizabeth FialhoQuando se deseja realizar um investimento financeiro, é aconselhável procurar as soluções de compromisso entre retorno e risco. Estes dois objetivos são conflitantes em um investimento, pois maiores retornos esperados são acompanhados de maiores riscos de perdas. Mesmo quando todas as soluções de compromisso entre risco e retorno estão disponíveis, ainda existe a necessidade de escolher uma delas para concretizar o investimento. Em geral, esta escolha é melhor estruturada quando guiada por algum método de tomada de decisão que reflita as preferências da pessoa responsável por esta decisão, que chamaremos aqui simplesmente de decisor. Neste trabalho, é realizada a otimização de soluções para o problema de portfólio financeiro por meio de um algoritmo evolutivo e são aplicados métodos de auxílio à tomada de decisão em ambientes multiobjetivo. Três métodos disponíveis na literatura são aplicados, sendo eles o Rank Order Centroid Weights (ROCW), método Achievement Scalarizing Function (ASF) e Neural Network Decision-Maker method (NNDM), além de serem propostos mais dois métodos (Decision Maker Queries (DMQ) e Neural Network Decision-Maker method (NNDM 2)), que são testados e comparados. Também são realizadas simulações com séries históricas reais de modo a verificar na prática o comportamento e desempenho dos métodos, considerando diferentes perfis de investidores. No que diz respeito ao número de consultas necessárias ao decisor, o método DMQ foi o que demandou o menor número. O método NNDM com rede neural do tipo RBF foi o que apresentou maior taxa de acerto da melhor solução possível (métrica QA), simulando os diferentes perfis de investidores. No entanto, obteve resultados piores que o método NNDM 2 com rede neural do tipo MLP, que acertou a melhor solução 80% das vezes durante os testes, e obteve melhores resultados para as métricas Kendall-tau distance (KTD) e Distância da Melhor Solução (DMS). Os testes estatísticos realizados com os métodos que utilizam pontos de referência mostraram não haver diferença significativa quando comparados os resultados do método aplicado a priori e a posteriori. Todos os métodos aplicados com a otimização do portfólio conseguiram um alto valor de retorno acumulado nos testes Out of Sample (que utilizam dados posteriores àqueles utilizados para alimentar o modelo de otimização), estando inclusive acima do retorno acumulado da Ibovespa e Selic para o período simulado. Nestes testes, foram simulados diferentes perfis de investidores, sendo eles conservador, moderado e agressivo. Os métodos foram capazes de modelar os perfis, direcionando soluções de acordo com as preferências esperadas de cada um. No entanto, os testes comparando o Drawdown (maior perda no período) nos investimentos dos diferentes investidores não apresentaram diferenças estatísticas significativas.