Doutorado em Modelagem Matemática e Computacional
URI Permanente para esta coleção
Navegar
Navegando Doutorado em Modelagem Matemática e Computacional por Título
Agora exibindo 1 - 20 de 45
Resultados por página
Opções de Ordenação
Item Abordagem de sistemas complexos aplicada a problemas biologicamente motivados(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-05-13) Lima, Larissa Lopes; Faria, Allbens Atman Picardi; Guimarães, Andréia Rodrigues Marques; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/9943818682025940; Faria, Allbens Atman Picardi; Guimarães, Andréia Rodrigues Marques; Morais, Maria Helena Franco; Andrade, Roberto Fernandes Silva; Mattos, Thiago Gomes; Wanner, Elizabeth FialhoO campo de estudo dos sistemas complexos está entrelaçado a muitas áreas da ciência e constitui uma abordagem promissora para a investigação de problemas biológicos. Neste trabalho, algumas ferramentas de sistemas complexos são usadas para estudar três problemas biológicos de grande preocupação atual: a pandemia de COVID-19, a ciclicidade dos surtos de dengue e o impacto das mudanças climáticas no banco de sementes de uma espécie invasora. No estudo de COVID-19, desenvolveu-se um modelo baseado em agentes para simular o espalhamento da doença e o efeito de indivíduos superespalhandores com diferentes cenários de mobilidade. Uma análise de redes foi aplicada para investigar o papel dos superespalhadores, mostrando que há indivíduos chave que interferem no processo de infecção. Ainda, foram feitas simulações para algumas capitais brasileiras usando redes, dados de mobilidade extraídos por telefones celulares e diferentes cenários de infecção. No caso do estudo de dengue, inicialmente foram aplicadas ferramentas de grafo de visibilidade e entropia para interpretar os dados de séries temporais da doença. Além disso, introduziu-se uma ferramenta denominada Histograma de Impacto-Frequência, gerada a partir dos grafos de visibilidade, a qual mostrou resultados melhores para o estudo da ciclicidade da dengue que a abordagem utilizando entropia. Em seguida, foi adaptado um modelo baseado em agentes para investigar a dinâmica de diferentes cenários de infecção por dengue. O resultado permitiu identificar humanos e mosquitos que possuem papel essencial nas redes. Por último, foi adaptado um modelo baseado em agentes para simular a dinâmica de um banco de sementes de uma espécie invasora sob diferentes cenários de mudanças climáticas. Os resultados dos três modelos podem auxiliar na tomada de decisão em diferentes âmbitos. No caso de COVID-19 e dengue, os modelos podem ser adaptados para diferentes cenários e doenças. O modelo de espécie invasora também pode ser adaptado para outras espécies e para auxiliar no manejo dessas espécies. Assim, a abordagem de sistemas complexos permitiu alcançar resultados inéditos no tratamento e análise de problemas biologicamente motivados, como a identificação de superespalhadores no espalhamento da COVID-19, ciclicidade em surtos epidêmicos da dengue e influência das mudanças climáticas no banco de sementes de espécies invasoras. Todos os estudos abordados neste trabalho são passíveis de continuidade, seja para os mesmos problemas ou para aplicações semelhantes.Item ADDIC – Algoritmo distribuído para a descoberta de comunidades sobrepostas em grandes grafos(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-09-26) Nascimento, João Paulo Barbosa; Pereira, Adriano César Machado; http://lattes.cnpq.br/6813736989856243; http://lattes.cnpq.br/8472333663591219; Pereira, Adriano César Machado; Freitas, Henrique Cota de; Martins, Carlos Augusto Paiva da Silva; Almeida, Paulo Eduardo Maciel de; Pádua, Flávio Luis CardealRedes complexas são sistemas grandes e dinâmicos que podem ser modelados por grafos. Muitos sistemas sociais, biológicos ou tecnológicos são considerados redes complexas, dentre eles a Internet e a Web, as redes sociais reais ou virtuais e as redes de infraestrutura física, tais como redes de transporte e de comunicação. A análise destas redes, na forma de grandes grafos, provê informações importantes acerca das características dos sistemas modelados. No entanto, o processamento sequencial destes grafos pode requerer alto custo computacional ou mesmo ser inviável, dependendo de seu tamanho e complexidade. Para solucionar esse problema recorre-se ao processamento paralelo e distribuído. Este trabalho propõe o algoritmo paralelo e distribuído ADDIC, indicado para o processo de detecção de comunidades sobrepostas em uma rede complexa de grande porte. O algoritmo foi projetado a partir de um importante algoritmo da literatura denominado DEMON e também por meio de um estudo criterioso do framework de programação paralela e distribuída Apache Spark, aliado a um planejamento detalhado de experimentos. Os experimentos foram executados em vários tipos de grafos de diferentes tamanhos, reais e sintéticos. O tempo de execução, consumo de recursos (CPU e Memória RAM) e medidas de escalabilidade e eficiência do algoritmo foi avaliado. Os resultados dos experimentos indicam que o ADDIC alcança seu objetivo, que é detectar comunidades sobrepostas, além de apresentar resultados de tempo de execução melhores que o principal algoritmo sequencial da literatura. Além disso, o algoritmo proposto apresenta escalabilidade próxima à linearidade e boas taxas de eficiência.Item Adsorção de CO2 em fosfato de cálcio experimento e modelagem computacional(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-05-17) Galvão, Breno Rodrigues Lamaghere; Galvão, Breno Rodrigues Lamaghere; Silva, Sidney Nicodemos da; http://lattes.cnpq.br/7962146839706796; http://lattes.cnpq.br/7962146839706796; Galvão, Breno Rodrigues Lamaghere; Silva, Sidney Nicodemos da; Faria, Allbens Atman Picardi; Braga, João Pedro; Belchior, Jadson Cláudio; Lima, Leonardo dos SantosAs propriedades físico-químicas dos fosfatos de cálcio vêm sendo estudadas recentemente. Numa tentativa de explicar os fenômenos físicos da adsorção de CO2 a nível atômico, são feitas neste trabalho, correlações entre a mitigação de gases de efeito estufa (dados experimentais) com as implicações de caráter superficial dos materiais particulados (modelos teóricos baseados na mecânica quântica). Este trabalho teve como proposta a modelagem das características adsortivas do fosfato de cálcio para mitigação de dióxido de carbono (CO2). Ensaios preliminares de adsorção foram realizados com CO2 em níveis compatíveis aos encontrados em chaminés das indústrias siderúrgicas, usinas termoelétricas e de outras fontes a carvão ou gás natural. As propriedades físico-químicas do fosfato de cálcio utilizado no estudo do processo de adsorção do CO2 estão especialmente relacionadas com aspectos da composição química, estrutura cristalina, área superficial e distribuições de tamanhos de partículas ou poros. O objetivo desta pesquisa foi modelar a adsorção da molécula de CO2 nas superfícies de fosfatos de cálcio, através da determinação das energias de ligação que promovem os fenômenos adsortivos de CO2 nos sítios de menor energia. Para calcular as energias utilizadas no processo foi aplicado o programa SIESTA (“Spanish Initiative for Electronic Simulation with Thousands of Atoms”), para dessa forma, quantificar a saturação do material adsorvente a partir da tecnologia de captura do CO2. Os cálculos realizados possibilitaram um entendimento de como as ligações químicas entre o adsorvente e o adsorvato (CO2) ocorrem na interface deste sistema bem como os envolvimentos energéticos a nível quântico. Para o estudo computacional utilizou-se a Teoria do Funcional da Densidade (DFT) e a Teoria do Pseudopotencial. Para avaliação dos resultados obtidos foi utilizado o programa SIESTA, que resolve equações de Kohn-Sham e implementa numericamente a DFT. O funcional que melhor se adequou aos dados experimentais da Hidroxiapatita (HAp) foi o vdW-DF/BH.Item Algoritmo GVNS aplicado ao problema das p-medianas capacitado abordagens determinística e robusta(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-12-20) Vasconcelos, Anderson Moreira; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Sá, Elisângela Martins de; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/6078945717558464; http://lattes.cnpq.br/6195947972246267; Souza, Marcone Jamilson Freitas; Souza, Sérgio Ricardo de; Sá, Elisângela Martins de; Silva, Maria Amélia Lopes; Haddad, Matheus Nohra; Wanner, Elizabeth Fialho; Menezes, Gustavo CamposO Problema das p-Medianas Capacitado (PPMC) consiste em localizar p instalações em uma rede composta por n vértices e decidir qual mediana atenderá cada vértice, a fim de minimizar a soma das distâncias dos vértices à mediana a qual ele foi alocado e atender às restrições de capacidade de cada mediana. Considerando que as demandas dos clientes são incertas, é proposta a aplicação de uma abordagem de otimização robusta para lidar com a incerteza nestes parâmetros dando origem ao problema das p-Medianas Robusto Capacitado (PPMRC). Esta tese propõe algoritmos para resolução do PPMC e o PPMRC. Para resolver o PPMC, foram propostas quatro variantes da metaheurística General Variable Neighborhood Search (GVNS), que se diferem no método usado para construir uma solução inicial e nos métodos usados para realizar a busca local. Nas duas primeiras variantes, denominadas G-VND e G-RVND, a solução inicial é gerada de forma aleatória e os métodos de busca local são o Variable Neighborhood Descent (VND) e o Random Variable Neighborhood Descent (RVND), respectivamente. Nas duas últimas variantes, denominadas GG-VND e GG-RVND, a solução inicial é gerada através da fase de construção da metaheurística Greedy Randomized Adaptive Search Procedure (GRASP) e os métodos de busca local são o VND e o RVND, respectivamente. Os resultados de experimentos computacionais usando instâncias da literatura mostraram que o algoritmo GG-RVND apresentou melhor desempenho que os outros três algoritmos. Além disso, os resultados obtidos pelo algoritmo GG-RVND foram melhores do que aqueles da literatura, tanto em termos da qualidade das soluções geradas quanto em relação ao tempo de execução. Para o PPMRC, foi proposto um algoritmo baseado na metaheurística GVNS, com a solução inicial gerada através da fase construtiva do método GRASP e uma busca local realizada via VND. Os experimentos computacionais comparam os resultados do GVNS e as soluções do solver CPLEX. Para realizar esses experimentos computacionais, foram utilizadas instâncias da literatura, variando de 318 nós e cinco medianas a 4461 nós e 1000 medianas. Este estudo considera diversos cenários, valores variados dos parâmetros de robustez e de incerteza na demanda. Os resultados mostram que o Algoritmo GVNS tem um bom desempenho em encontrar boas soluções e supera o solver CPLEX, encontrando soluções melhores mesmo quando aplicado para resolver o conjunto de dados de menor dimensão.Item Algoritmos para as versões determinística e robusta do problema de localização de concentradores com maximização do lucro(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-02-27) Oliveira, Fabricio Alves; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/4686246805500174; Elisângela Martins de Sá; Sérgio Ricardo de Souza; Mateus, Geraldo Robson; Morabito Neto, Reinaldo; Souza, Marcone Jamilson Freitas; Menezes, Gustavo CamposEsta tese estuda o problema de localização de concentradores, com objetivo direcionado para a maximização do lucro. Esse problema consiste em estabelecer a localização de concentradores, o projeto da rede e a alocação dos nós de demanda aos concentradores para maximizar o lucro total da rede. O problema considera que a rede de concentradores é incompleta, nenhuma estrutura topológica específica é requerida e é assumido que os concentradores e arcos entre concentradores possuem capacidade suficiente para lidar com o fluxo de demanda na rede. Este trabalho apresentou novas formulações e investigou suas propriedades. As formulações propostas assumem a estratégia de alocação múltipla; não impõem quaisquer restrições ao número de concentradores ou arcos entre concentradores instalados na rede; não permitem conexões diretas entre nós não concentradores e permitem que a demanda da rede seja parcialmente satisfeita, sendo atendida apenas quando for rentável. Essa última característica e o foco na maximização do lucro diferenciam o problema abordado nesta tese em relação aos problemas clássicos de localização de concentradores, nos quais a demanda completa entre todos os pares de origem e destino é atendida, e, além disso, os problemas são modelados sob o ponto de vista dos custos. Esta tese também investigou as propriedades e realizou uma análise comparativa das formulações propostas com outra da literatura. Para resolver o problema, foram desenvolvidos algoritmos baseados no método de decomposição de Benders, incluindo várias estratégias de aprimoramento. Uma vez que o problema aqui abordado é NP-difícil, também foram propostos dois algoritmos heurísticos baseados em busca local e troca sistemática de estruturas de vizinhança para solucionar instâncias do problema de grande porte. Para analisar a eficiência dos procedimentos de solução propostos, foram realizados extensivos experimentos computacionais com instâncias de referência na área de localização de concentradores. Os resultados desses testes mostraram que os algoritmos propostos possuem um bom desempenho. Em particular, com o método de decomposição de Benders, foram resolvidas até a otimalidade instâncias com até 150 nós. Por outro lado, com os algoritmos heurísticos, foram solucionadas instâncias contendo até 500 nós. Adicionalmente, foi realizada uma análise das estruturas de vizinhança consideradas nos algoritmos heurísticos e uma comparação estatística entre os dois algoritmos. Nesta tese também foi abordado o problema de localização de concentradores com maximização do lucro em que as demandas e os custos de instalação de concentradores e arcos entre concentradores são incertos. Uma formulação robusta, que permite controlar o grau de conservadorismo do modelo por meio de um budget de incerteza, é desenvolvida para este caso. São apresentadas discussões sobre a influência que a incerteza nos dados tem sobre a configuração da rede e sobre o lucro associado a ela. Para resolver o problema robusto, foram propostos um algoritmo exato baseado em decomposição de Benders e outro heurístico baseado na meta-heurística Iterated Local Search, adaptados dos melhores métodos identificados na resolução do problema determinístico. As soluções obtidas com o problema robusto possuem diferenças significativas em relação às soluções do problema determinístico, o que evidencia a importância de se estudar este tipo de problema, principalmente em aplicações reais. A incerteza nos dados pode levar a necessidade de um redesenho da rede de concentradores, o que influencia diretamente o lucro associado a ela.Item AMAM framework multiagente para otimização usando metaheurísticas(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-06-24) Silva, Maria Amélia Lopes; Souza, Sérgio Ricardo de; Souza, Marcone Jamilson Freitas; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/1584173805850799; Souza, Sérgio Ricardo de; Souza, Marcone Jamilson Freitas; Bazzan, Ana Lúcia Cetertich; Goldbarg, Elizabeth Ferreira Gouvêa; Lacerda, Anísio Mendes; Borges, Henrique EliasEsta tese apresenta um framework multiagente para otimização usando metaheurísticas, denominado Arquitetura Multiagente para Metaheurísticas (AMAM). O framework AMAM é uma estrutura genérica e flexível, que tem, como principal característica, a facilidade de hibridização de metaheurísticas, a partir da utilização de conceitos relacionados a sistemas multiagentes. Nesta proposta, cada agente atua independentemente no espaço de busca de um problema de otimização combinatória. Os agentes compartilham informações e colaboram entre si através do ambiente. Esta tese tem, como principal contribuição, a consolidação do framework AMAM como uma ferramenta capaz de resolver diferentes problemas de otimização e que permita a fácil hibridização de metaheurísticas. Para tal, propõe a revisão da estrutura do framework AMAM, com a incorporação de novos recursos que permitam dinamizar e aperfeiçoar o processo de solução. A estrutura do framework foi dividida em dimensões, ao se considerar suas diferentes perspectivas. A remoção de estruturas de coordenação explícita e de elementos que intermediavam a comunicação permitiram aumentar a autonomia do agente. A cooperação entre os agentes foi aprimorada, buscando maior diversidade nas soluções disponíveis na estrutura cooperativa, através da definição de novos critérios de inserção de novas soluções. É proposta também a incorporação de capacidades auto-adaptativas nos agentes. O objetivo é permitir que o agente modifique suas ações com base nas experiências obtidas na interação com os outros agentes e com o ambiente, usando conceitos de Aprendizagem de Máquina. Neste sentido, são apresentadas duas propostas de agentes adaptativos baseados no algoritmo Q-Learning e em Autômatos de Aprendizagem. Para melhor introdução e validação do framework AMAM, esta tese utiliza instanciações do framework para dois problemas clássicos de otimização combinatória: Problema de Roteamento de Veículos com Janelas de Tempo (sigla em inglês, VRPTW) e o Problema de Sequenciamento de Máquina Paralela Não Relacionada com Tempos de Configuração Dependentes de Sequência (sigla em inglês, UPMSP-ST). Os experimentos demonstraram a efetiva redução nos custos das soluções com o uso de agentes cooperativos e a escalabilidade da proposta. Os experimentos também confirmaram que a capacidade de aprender atribuída ao agente influencia diretamente a qualidade das soluções, tanto do ponto de vista individual quanto do ponto de vista do trabalho em equipe. Sendo assim, a adaptabilidade dos agentes é confirmada, demonstrando que as técnicas de aprendizado utilizadas conseguem superar a necessidade de conhecimento das características específicas do problema a ser tratado. Os resultados obtidos possibilitaram concluir que o framework aqui apresentado é um passo à frente em relação aos demais frameworks da literatura quanto à adaptação aos aspectos particulares dos problemas tratados.Item Análise de fatores que impactam no futebol baseada em ciência de dados(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-27) Capanema, Daniel de Oliveira; Pereira, Adriano César Machado; http://lattes.cnpq.br/6813736989856243; http://lattes.cnpq.br/0779594261363903; Alves, Adriano César Machado; Alves, Adriano Lima; Claudino, João Gustavo de Oliveira; Santiago, Paulo Roberto Pereira; Wanner, Elizabeth Fialho; Pádua, Flávio Luis CardealEsportes profissionais e de alto desempenho estão cada vez mais utilizando novas tecnologias para obter melhores resultados em treinamentos e competições. Estudos para prevenir lesões e melhorar o desempenho têm sido aplicados e bons resultados já foram alcançados. Para atingir os objetivos, técnicas de inteligência artificial são aplicadas aos dados para encontrar padrões, prever tendências, melhorar resultados, táticas, equipamentos e outros. Este trabalho analisa dados reais de clubes da primeira divisão do futebol brasileiro, aplicando métodos de inteligência artificial para classificar jogadores, encontrar padrões, variáveis ou características que influenciam nos resultados, definindo características que influenciam na ocorrência de lesões e no desempenho dos atletas. Jogadores foram classificados e comparações foram feitas em grupos que possuíam ou não jogadores lesionados. Também foram realizadas análises comparativas em grupos de jogadores com melhores e piores médias de eficiência física, mostrando que jogadores com melhores médias tendem a apresentar características de treino mais parecidas com as do jogo, enquanto jogadores com piores médias apresentam números no treinamento inferiores aos dos jogos. Também foram estudadas as principais características que influenciam nos resultados dos jogos, sendo uma delas a diferença de performance entre o primeiro e o segundo tempo, considerando variáveis relacionadas à distância. O classificador XGBoost conseguiu bons resultados ao prever esta diferença de performance, além de apresentar como e quais variáveis influenciam nesta diferença. O trabalho também apresenta revisões sistemáticas de inteligência artificial em esportes em equipes e individuais, trazendo informações relevantes e métricas sobre o assunto.Item Análise de integração da classificação de tendências financeiras e otimização de portfólios(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-11-24) Ferreira, Fernando Garcia Diniz Campos; Cardoso, Rodrigo Tomás Nogueira; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/4126688051850017; Cardoso, Rodrigo Tomás Nogueira; Guimarães, Frederico Gadelha; Paiva, Felipe Dias; Magalhães, Arthur Rodrigo Bosco de; Pereira, Adriano César MachadoA área de Finanças Computacionais é marcada por profundas mudanças nas últimas décadas provenientes do surgimento de um rápido desenvolvimento tecnológico que permitiu a incorporação de técnicas computacionais complexas para modelagem e predição dos movimentos dos preços no Mercado Financeiro. Neste cenário, este trabalho propõe um arcabouço computacional composto por diferentes modelos e técnicas de otimização de portfólios financeiros e de classificação de tendências de ativos financeiros, além de proporcionar diferentes formas de integração das duas abordagens. Assim, o arcabouço é composto por quatro modelos propostos para otimização de portfólio e um método para a solução de cada um desses modelos, além de doze algoritmos de classificação utilizando conjuntos de atributos também propostos no trabalho e, por fim, três formas de integração dos métodos de otimização e classificação são considerados. Para os métodos de otimização de portfólio, métodos exatos apresentam melhores soluções, apesar de apresentarem tempos de execução muito maiores que meta-heurísticas. Para a classificação de tendências, os resultados indicam que o Convolutional Neural Network (CNN) foi é o algoritmo que apresenta o melhor desempenho, no geral, considerando os classificadores utilizados. Simulações de investimentos mostram que negociações a uma frequência maior geram custos de transação maiores, podendo inviabilizar a utilização da metodologia proposta. Combinações de otimização de portfólios e classificações financeiras podem aproveitar as vantagens de ambas as abordagens, como mostrado pelos resultados que apresentam maiores retornos acumulados para métodos combinados. Finalmente, pode-se observar que os melhores métodos de otimização e classificação dependem muito da estratégia de operação adotada e das preferências do investidor, justificando o desenvolvimento deste arcabouço computacional proposto, composto por vários métodos.Item Análise de sentimentos multimodal aplicada à computação de níveis de tensão em vídeos de notícias(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-04-23) Pereira, Moisés Henrique Ramos; Pádua, Flávio Luis Cardeal; Silva, Giani David; http://lattes.cnpq.br/8863282319980625; http://lattes.cnpq.br/6545115051079964; http://lattes.cnpq.br/5471286139284637; Pádua, Flávio Luis Cardeal; Silva, Giani David; Souza, Fabrício Benevenuto de; Bax, Marcelo Peixoto; Lacerda, Anísio Mendes; Pereira, Adriano César MachadoEsta tese aborda o desenvolvimento de uma nova abordagem para estimar os níveis de tensão em vídeos de notícias por meio de técnicas de análise de sentimentos multimodal. As mídias de notícias constituem um tipo específico de discurso e se tornaram uma parte central da vida moderna de milhões de pessoas. Neste contexto, é muito importante estudar e entender como a indústria de notícias funciona e como ela afeta o cotidiano da sociedade. Para isso, especialmente sob a perspectiva da análise do discurso, a abordagem proposta calcula níveis de tensão como pontuações de sentimento (polaridades) ao longo da narrativa das notícias, revelando os diferentes padrões de comunicação utilizados. A fim de atingir esse objetivo, combinou-se pistas visuais e de áudio extraídas dos participantes das notícias, tais como repórteres, âncoras, entrevistados, dentre outros, usando métodos para: (1) reconhecimento de emoção a partir das expressões faciais, (2) estimativa do plano fílmico e (3) extração de recursos de áudio (p. ex., características de croma, coeficientes mel-cepstrais no domínio da frequência e características espectrais), bem como sentenças textuais obtidas a partir da (4) análise de sentimento das transcrições de fala da narrativa das notícias. Os resultados experimentais com um conjunto de dados contendo 960 vídeos de notícias rotuladas para telejornais brasileiros e americanos mostram que a abordagem proposta atinge uma precisão global de 64,17% na tarefa de classificação de níveis de tensão. Ao ser comparado também com um baseline, o método proposto alcançou uma precisão próxima de um método supervisionado, mas sem a necessidade de um treinamento rotulado. Esses resultados demonstram o alto potencial da abordagem proposta para ser usada por analistas de mídia em várias aplicações, especialmente no domínio jornalístico.Item Análise e síntese de regras de adaptação em estratégias evolutivas usando funções de Lyapunov estocásticas(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-02-28) Corrêa, Cláudia Raquel Martins; Wanner, Elizabeth Fialho; Fonseca, Carlos Manuel Mira da; http://lattes.cnpq.br/0398907021926383; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/0859784566522265; Wanner, Elizabeth Fialho; Fonseca, Carlos Manoel Mira da; Peres, Pedro Luis Dias; Takahashi, Ricardo Hirsohi Caldeira; Souza, Sérgio Ricardo de; Cardoso, Rodrigo Tomás NogueiraAs Estratégias Evolutivas (EEs) constituem uma classe particular de Algoritmos Evolutivos (AEs). As pesquisas que tratam da análise de estratégias evolutivas têm sido focadas nas aplicações destes algoritmos, usados para resolver problemas das mais diversas áreas, principalmente em espaços de busca contínuos, mas também em espaços discretos. As investigações das EEs também demonstram que estes algoritmos, ainda suscetíveis a diversas pesquisas, são eficientes e populares. Uma análise contendo provas rigorosas de convergência de EEs é uma tarefa difícil devido à estocasticidade destes algoritmos, apesar desta aleatoriedade permitir sua análise sob uma perspectiva matemática. Neste trabalho são propostas Estratégias Evolutivas com um único progenitor e λ descendentes (1 +, λ)-EE. Na primeira delas, o tamanho do passo do algoritmo é modificado de acordo com uma regra de adaptação simples baseada em sucesso, denominada Regra 1. Uma extensão desta regra de adaptação do tamanho do passo, denominada Regra 2, também é proposta. Nesta estratégia o tamanho do passo é adaptado de acordo com o número de descendentes bem sucedidos. Além destas, a generalização a qualquer número de descendentes e qualquer limiar, de uma EE com controle de mutação baseado no tamanho do passo, também é explorada e nomeada Regra 3. Finalmente é formulada uma EE com regra de adaptação do tamanho do passo baseada na combinação da Regra 1 com a Regra 3. A análise teórica destes algoritmos evolutivos concentra-se na investigação sobre sua convergência, quando aplicados em problemas de otimização em espaços de busca contínuos em uma classe de funções estritamente unimodais de uma variável. O estudo sobre a convergência das EEs segue uma abordagem usando funções de Lyapunov estocásticas, no contexto da teoria de martingais. Expressões gerais para as esperanças condicionais dos próximos valores do tamanho do passo e para a distância para o ótimo são analiticamente derivadas para todas as Estratégias, e uma função de Lyapunov apropriada é construída. Os limites superiores da taxa de convergência, bem como os valores dos parâmetros de adaptação, são obtidos através da otimização numérica para valores crescentes de λ, permitindo também uma seleção informada desse parâmetro. Os resultados experimentais contribuem para uma análise dos limites de convergência teóricos obtidos e fornecem uma visão adicional sobre os pontos fortes e fracos da metodologia adotada.Item Análise multiplex da rede brasileira de transporte aéreo(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-03-20) Oliveira, Izabela Marques de; Faria, Allbens Atman Picardi; Carpi, Laura Corina; http://lattes.cnpq.br/2779640920944038; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/0119061678782077; Faria, Allbens Atman Picardi; Carpi, Laura Corina; Jesus, Tiago Alves Schlieber; Gonçalves, Bruna Amin; Scarpelli, Antônio Paulo Baeta; Magalhães, Arthur Rodrigo Bosco deO transporte aéreo continua sendo a melhor opção para conectar regiões distantes e apoiar o desenvolvimento social e econômico mundial, apesar dos desafios ambientais. O Brasil depende fortemente dessa modalidade de transporte devido às suas dimensões continentais. Neste trabalho realizamos um estudo utilizando a abordagem multiplex de redes complexas para analisar a rede brasileira de transporte aéreo de passageiros, BATMN. Nesse contexto, criamos o Índice de Eficiência Multiplex (MEI) e suas versões para redes direcionadas e/ou ponderadas, que permitem quantificar o nível de heterogeneidade de conexões de uma rede multiplex em uma escala de 0 a 1, considerando características de direção e grau de importância das arestas, sendo apropriados para pesquisas em redes de transporte. Utilizamos o MEI para avaliar a diversificação de rotas das empresas de transporte aéreo no Brasil entre 2010 e 2021, um período marcado pela ocorrência de grandes eventos no país. Analisamos a influência de alguns desses eventos sobre a eficiência da rede, como a Copa do Mundo FIFA em 2014 e as Olimpíadas do Rio em 2016, assim como de outras mudanças no setor, incluindo a fusão entre companhias aéreas, a privatização de aeroportos, o encerramento de operações de uma importante transportadora aérea e da pandemia de COVID-19. Além disso, investigamos se a diversificação de rotas afetou os preços das passagens aéreas praticados no Brasil. Adicionalmente, por meio de uma metodologia recém-introduzida na literatura, examinamos a capacidade de difusão da rede e observamos o ganho relativo ocorrido em relação à difusão do sistema de transporte aéreo quando são consideradas as conexões de voos entre diferentes companhias aéreas, delineando um cenário de possíveis parcerias entre as empresas aéreas. As avaliações realizadas neste trabalho fornecem novas e significativas informações sobre a rede de transporte aéreo de passageiros no Brasil, contribuindo para otimizar a oferta desse tipo de transporte no país e, consequentemente, reduzir os custos envolvidos. Além disso, a metodologia proposta permite não somente uma análise diferenciada das redes de transporte aéreo, mas também a quantificação da eficiência de redes multiplex em geral.Item Calibração de parâmetros entre as escalas de voos difusivos anômalos: prescrição para corresponder simulação e modelos(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-03-23) Pereira, Ana Paula de Paiva; Fernandes, José Luiz Acebal; Faria, Allbens Atman Picardi; Fernandes, José Luiz Acebal; Faria, Allbens Atman Picardi; Mendes, Remo dos Santos; Ferreira Júnior, Silvio da Costa; Magalhães, Arthur Rodrigo Bosco de; Faria, José Geraldo Peixoto deA difusão anômala é um fenômeno onipresente que tem sido estudado por meio de diferentes abordagens, incluindo simulações, análise de métodos e experimentos. Tanto a equação de difusão fracionária quanto a equação de difusão não linear foram capazes de descrever tal fenômeno, em particular, os casos onde aparecem funções densidade de probabilidade com caudas pesadas. Observa-se, no entanto, uma falta de um controle sistemático nas simulações de processos de difusão anômala. Consequentemente, a relação de quais os modelos mais adequados para a descrição destes processos fica prejudicada. Neste trabalho, exploramos as relações os parâmetros coeficientes de difusão e entre os expoentes de difusão, ordem da derivada fracionária e o parâmetro q-gaussiano, através de um procedimento de ajuste sistemático dos dados das simulações usando abordagens lineares e não lineares. Os dados simulados são gerados por um random walk de tempo contínuo com média do tempo de espera entre os saltos e variância do comprimento dos saltos controlados para gerar casos de subdifusão, superdifusão e difusão normal. Os modelos teóricos são expressos por meio de equações de difusão generalizadas ora por derivadas fracionárias no tempo ou espaço, ora pela não linearidade da equação de meios porosos. A avaliação dos parâmetros coeficientes de difusão e dos expoentes de difusão obtidos a partir das simulações é feita utilizando duas diferentes abordagens: (1) estudando a evolução temporal da variância amostral dos deslocamentos e, (2) otimizando as soluções dos modelos teóricos aos histogramas de soluções. A precisão dos modelos também é estudada para cada regime de difusão anômala. São analisadas as relações entre os parâmetros obtidos por meio das simulações e os parâmetros teóricos. Dentre os quais, a relação de Tsallis-Buckman é verificada. Faz-se, ainda, uma discussão sobre os métodos para relacionar os parâmetros das simulações com os parâmetros dos modelos.Item Caminho para a complexidade o papel da topologia de rede na difusão de informação e dinâmica de mercado(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-10-21) Ducha, Fernando Andrade; Magalhães, Arthur Rodrigo Bosco de; Faria, Allbens Atman Picardi; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/6122907819049400; http://lattes.cnpq.br/7340606465850279; Magalhães, Arthur Rodrigo Bosco de; Faria, Allbens Atman Picardi; Oliveira, Marcelo Martins de; Ribeiro, Leonardo Costa; Fernandes, José Luiz Acebal; Mattos, Thiago Gomes deApresenta-se um modelo no qual o fluxo de informação em redes sociais influencia o comportamento de agentes em um mercado financeiro. A difusão de informação segue um modelo baseado no Twitter, incorporando mecanismos de memória para simular interesses endógenos e atenção limitada. Os agentes negociam um único ativo com base em percepções modeladas por distribuições gaussianas. Analisam-se quatro topologias de rede: Albert-Barabási (AB), Erdős-Rényi (ER), circular regular (CR) e um novo modelo baseado na distribuição de Zipf (Z). Resultados demonstram que a topologia da rede determina estatísticas de retorno, com a rede AB reproduzindo leis de potência típicas de mercados tradicionais, enquanto ER e CR aproximam-se de distribuições gaussianas. A análise multifractal revela correlações não-lineares alinhadas com fenômenos de clusterização de volatilidade. Conclui-se que a estrutura da rede é determinante na emergência de propriedades estatísticas complexas, mesmo com entradas gaussianas.Item Caracterização estatística de tubos petrolíferos uma análise por métodos matemáticos e técnicas computacionais para definição de probabilistic design(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-05-21) Mesquita, Henrique Milagres; Silva, Alisson Marques da; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/8183350227702842; Silva, Alisson Marques da; Braga, Carmela ,aria Polito; Dias, Thiago Magela Rodrigues; Leite, Valter Júnior de SouzaO presente trabalho investiga a robustez dos tubos de aço de alta resistência utilizados em plataformas petrolíferas, focando nas pressões de colapso a que esses tubos estão sujeitos. À medida que as operações de extração de petróleo e gás se deslocam para águas mais profundas e atravessam camadas terrestres submersas cada vez mais espessas, os desafios tecnológicos para garantir a integridade dos tubos aumentam significativamente. A segurança e eficiência da extração dependem de métodos precisos de análise e monitoramento que assegurem a resistência dos tubos a altas pressões e grandes variações de temperatura. Este estudo se concentra em descrever como os dados históricos podem ser manipulados para identificar pontos fortes e fracos dos tubos, bem como sua adequação para aplicações específicas. Utilizando técnicas de análise estatística, o trabalho visa prever a pressão de colapso de tubos de aço sem costura, permitindo a concepção de projetos virtuais por meio de simulações computacionais. Além disso, a computação de alto desempenho é empregada para realizar análises comparativas entre abordagens estatísticas e computacionais, avaliando a robustez dos tubos. O objetivo é aprimorar o projeto e a segurança dos sistemas empregados na indústria de óleo e gás.Item Classificação e reconhecimento de padrões: novos algoritmos e aplicações / Emmanuel Tavares Ferreira Affonso(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-28) Affonso, Emmanuel Tavares Ferreira; Silva, Alisson Marques da; Moita, Gray Farias; http://lattes.cnpq.br/2550201329788172; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/3453401178017064Este trabalho visa o desenvolvimento de novos algoritmos para tarefas de classificação e reconhecimento de padrões. Inicialmente é proposto um método para seleção de atributos (FS, do inglês feature selection) para classificadores com treinamento offline. A abordagem de FS proposta, chamada de Mean Ratio for Feature Selection (MRFS), é baseada na razão das médias dos atributos em cada classe. MRFS possui baixo custo computacional pois utiliza apenas operações matemáticas básicas como adição, divisão e comparação e realiza apenas uma passagem nos dados para ranquear os atributos. O MRFS foi implementado e avaliado como método filter (MRFS-F) e como wrapper (MRFS-W). O desempenho dos métodos foram avaliados e comparados com o estado da arte. As comparações realizadas sugerem que os métodos propostos possuem um desempenho comparável ou superior aos métodos alternativos. Além dos métodos de FS foram propostos três classificadores evolutivos com treinamento online. O primeiro chamado de evolving Fuzzy Mean Classifier (eFMC) é baseado em um algoritmo de agrupamento fuzzy que realiza a classificação com base no grau de pertinência dos grupos. Novos grupos são criados sempre que uma nova classe é descoberta e a atualização do centro dos grupos é através das médias amostrais calculadas de forma incremental. O segundo classificador introduzido é o evolving Fuzzy Classifier (eFC) que de maneira análoga utiliza as médias amostrais para atualização dos centros dos grupos. Seu diferencial está na capacidade de gerar mais de um grupo associado a uma mesma classe para mapear diferentes regiões do espaço dos dados, criação de novos grupos aplicando o conceito de procrastinação, união de grupos redundantes e exclusão de grupos obsoletos. Por fim, foi proposto um classificador evolutivo com seleção de atributos denominado evolving Fuzzy Classifier with Feature Selection (eFCFS). Este classificador foi construído utilizando o mesmo algoritmo do eFC e incorporando o método MRFS de seleção de atributos. Os classificadores evolutivos propostos foram avaliados e comparados com três classificadores evolutivos alternativos. Os resultados experimentais e as comparações sugerem que os métodos baseados no MRFS para auxiliar modelos com treinamento offline e os 3 modelos evolutivos com treinamento online são promissores como alternativas para tarefas de classificação e reconhecimento de padrões, com boa acurácia e baixo custo computacional.Item Controle do mosquito Aedes aegypti utilizando modelos entomológico e epidemiológico dependentes de variáveis climáticas(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-24) Vasconcelos, Amália Soares Vieira de; Cardoso, Rodrigo Tomás Nogueira; Fernandes, José Luiz Acebal; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/6761973511780975; Cardoso, Rodrigo Tomás Nogueira; Fernandes, José Luiz Acebal; Dias, Cláudia Mazza; Cunha, Maria da Consolação Magalhães; Faria, Allbens Atman Picardi; Wanner, Elizabeth FialhoAs arboviroses, doenças transmitidas por artrópodes, tornaram-se um grande desafio para os gestores de saúde pública. Dentre elas, a Organização Mundial da Saúde destaca a dengue como a responsável por centenas de milhares de infecções por ano em todo o mundo. Como não há um tratamento específico para a doença e nem vacina eficiente e sem restrições para uso em massa, a melhor opção são as medidas para combater o vetor, o mosquito Aedes aegypti. Por isso, este trabalho propõe o estudo da evolução das populações do vetor por meio de simulações computacionais com o objetivo de minimizar a quantidade de inseticidas, observando, ainda, o custo financeiro. Além disso, procura-se reduzir o custo social demandado para tratamento de doentes. Para isso, dois estudos de caso distintos foram feitos. Primeiramente, considerou-se um modelo entomológico com parâmetros dependentes da temperatura e da precipitação. Por meio de um ajuste pela raiz do erro quadrático médio, o modelo foi calibrado com dados reais de fêmeas do vetor capturadas em armadilhas no Município de Lavras, Minas Gerais. Em seguida, foram construídos três cenários de testes de aplicação de inseticidas utilizando a técnica de controle ótimo. Os cenários permitiram a aplicação do controle durante 91 dias, variando as estações do ano em que normalmente ocorre a maior quantidade de casos de dengue. Dessa forma, o cenário I consistiu na aplicação durante os primeiros dias do verão; o cenário II, na primavera; e, por fim, o cenário III foi uma combinação entre a primavera e o verão. Os resultados encontrados sugerem que, dentre os três cenários, a melhor opção a ser colocada em prática é o controle integrado realizado no cenário III. A segunda parte deste trabalho envolveu a proposta de um modelo epidemiológico dependente da temperatura, precipitação e umidade e que levasse em consideração as infecções sintomáticas e assintomáticas de dengue. Para calibração do modelo, foram usados os dados reais de humanos infectados sintomáticos nos anos mais epidêmicos do Município de Belo Horizonte, Minas Gerais. Os dados indicam que as ações de controle já realizadas no município não são suficientes para garantir que o limiar de infestação seja pequeno o bastante para evitar uma epidemia. Assim, foi apresentada uma proposta de controle adicional com o uso de larvicida, adulticida e bloqueio de transmissão. A principal contribuição do trabalho é o estudo do custo monetário real que as ações de combate ao vetor demandam versus o custo hospitalar por infectado confirmado. Dessa forma, via otimização mono-objetivo e multiobjetivo, os resultados foram discutidos, concluindo-se que quantidades discretas de controle adicional já são suficientes para reduzir o custo financeiro que seria necessário para tratamento hospitalar. Os dois estudos de caso demonstram que este trabalho é de grande valia para auxiliar os gestores de saúde a planejarem as ações de controle e combate ao Aedes aegypti.Item Controle preditivo baseado em modelo via otimização dinâmica multiobjetivo de portfólios de investimentos(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-11-19) Cardoso, Rodrigo Tomás Nogueira; Cardoso, Rodrigo Tomás Nogueira; Jesus, Tales Argolo; http://lattes.cnpq.br/6617001066819762; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/5174842920583671; Cardoso, Rodrigo Tomás Nogueira; Jesus, Tales Argolo; Valle, Cristiano Arbex; Raffo, Guilherme Vianna; Souza, Sérgio Ricardo de; Martins, Flávio Vinícius CruzeiroCom o advento da tecnologia é possível aliar os modelos matemáticos complexos que representam o problema de otimização de portfólios de investimentos com técnicas computacionais extremamente eficientes e práticas. Busca-se construir neste trabalho um arcabouço matemático e computacional capaz de lidar com as peculiaridades reais do mundo financeiro ao mesmo tempo que se utiliza o conhecimento teórico disponível, utilizando-se um algoritmo genético para fazer a otimização e manipular as restrições. Portanto, propõese neste trabalho um arcabouço matemático e computacional composto por diferentes modelos que usam a metodologia de Controle Preditivo baseado em Modelo (do inglês, Model Predictive Control-MPC) na otimização de portfólios de investimentos. É proposta uma estratégia inovadora obtida pela combinação do MPC e da otimização multiobjetivo sujeita a restrições realísticas do mercado financeiro, como limites de investimento, autofinanciamento, cardinalidade e custos de transação. Os critérios de desempenho (funções objetivo) são os valores esperados da riqueza, da variância e do Conditional Value at Risk. Com os experimentos realizados foi possível obter uma variedade de constatações que envolvem o horizonte de predição, a cardinalidade, o risco e o retorno do portfólio. Por meio da análise in-sample, destacam-se: o horizonte de predição de fato beneficia o problema de otimização de portfólios, uma vez que proporciona valores de riqueza não obtidos pela estratégia miópica; portfólios com cardinalidades menores apresentam menor risco por estabelecerem maior alocação de capital no ativo livre de risco. As carteiras com cardinalidade cinco apresentam os maiores valores de riqueza. Na análise out-of-sample, a riqueza acumulada da estratégia proposta superou o Ibovespa e fundos de investimento de prestígio em 2020.Item Degenerescência e captura de fótons em um modelo optomecânico de dois modos(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-02-23) Merici, Thiago Alonso; Faria, José Geraldo Peixoto de; Mattos, Thiago Gomes; http://lattes.cnpq.br/9832733706852720; http://lattes.cnpq.br/7536181384159078; http://lattes.cnpq.br/9848043401484142; Faria, José Geraldo Peixoto de; Mattos, Thiago Gomes de; Cosme, Carlos Magno Martins; Calvino, Luis Argel Povedo; Fernandes, José Luiz Acebal; Magalhães, Arthur Rodrigo Bosco deNeste trabalho, estudamos teoricamente um modelo optomecânico de dois modos finito e não amortecido que consiste em uma cavidade óptica de alta qualidade contendo uma membrana fina, elástica e dielétrica. O objetivo principal é investigar os precursores da transição de fase quântica em tal modelo, estudando o comportamento de alguns observáveis no estado fundamental. Ao controlar o acoplamento entre a membrana e os modos, descobrimos que os dois autoestados de menor energia tornam-se degenerados, como é indicado pelo comportamento do valor médio de alguns operadores e por outros quantificadores em função do acoplamento. Tais estados degenerados são caracterizados por uma superposição coerente de autoestados que descrevem um dos dois modos preferencialmente preenchido e a membrana deslocada de sua posição de equilíbrio, devido à pressão de radiação (estados de gato de Schrödinger). A deslocalização do sistema composto fótons+membrana resulta em um aumento nas flutuações medidas pelas relações de incerteza de Robertson-Schrödinger.Item Desenvolvimento de matrizes de distâncias para representar interações de proteínas combinadas com algoritmos de agrupamento(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-08-24) Monteiro, Otaviano Martins; Rodrigues, Thiago de Souza; Dias, Sandro Renato; http://lattes.cnpq.br/5300421458375793; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/5378637011361467; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Gomes, Rogério Martins; Cruz, André Rodrigues da; Menezes, Gustavo Campos; Silva, Alisson Marques daAs proteínas são macromoléculas formadas por aminoácidos e estão presentes em todos os seres vivos. Várias proteínas tiveram suas estruturas tridimensionais resolvidas experimentalmente e foram armazenadas através de arquivos de texto em bancos de dados biológicos como o Protein Data Bank (PDB). Essas informações proteicas podem ser utilizadas por softwares, como o LSQKAB, que verificam similaridades tridimensionais de proteínas através de sobreposições entre os átomos das estruturas comparadas. No entanto, a realização de sobreposições atômicas requer um alinhamento preciso entre os átomos de duas estruturas por meio de movimentos de rotação e translação. Esse procedimento é computacionalmente intensivo, sendo classificado como NP-Completo. Portanto, a realização de múltiplas sobreposições atômicas, algo frequente em softwares que propõem mutações em proteínas, acarreta em um elevado custo computacional. Assim sendo, o propósito deste estudo consiste em elaborar abordagens fundamentadas em matrizes de distâncias, combinadas com algoritmos agrupamento (clustering) com o intuito de criar conjuntos de interações de proteínas que compartilham conformações tridimensionais semelhantes. O objetivo principal é alcançar soluções de alta precisão e desempenho notável, com o propósito de minimizar a necessidade de realizar sobreposições atômicas. Com o intuito de cumprir esses objetivos, foram desenvolvidas matrizes de distâncias baseadas em diferentes abordagens. A Matriz de Ângulos (MA) foi desenvolvida a partir dos ângulos dos átomos. A Matriz de Distâncias Completa Mista (MDCM) foi desenvolvida através da fusão de diferentes técnicas. A Matriz de Distâncias Reduzida cujos Centroides são Carbonos Alfa (MDRCCA), a Matriz de Distâncias Reduzida a partir de um Ponto entre os Carbonos Alfa (MDRPCA), além da Matriz de Pontos Médios (MPM) foram desenvolvidas a partir da importância dos átomos de carbonos alfa (CA). A concepção da MPM também foi influenciada pela importância das distâncias entre todos os átomos na estrutura, uma vez que essas distâncias são cruciais para o enovelamento da mesma. Essas estratégias foram integradas a algoritmos de agrupamento e os resultados subsequentes foram comparados com o método de busca da ferramenta RID, por ser uma ferramenta especialista em trabalhar com interações de proteínas, além da atomic Cutoff Scanning Matrix (aCSM) por ser uma das versões da Cutoff Scanning Matrix (CSM), que é considerada o estado da arte na geração de assinaturas em grafos proteicos, e com a Matriz de Distâncias Completa (MDC), que apresentou resultados superiores ao método de busca da RID e aCSM, nos primeiros trabalhos deste projeto. Os resultados foram satisfatórios, principalmente os alcançados pela MPM, que superou as demais técnicas na maioria dos experimentos.Item Desenvolvimento de matrizes de distâncias para representar interações de proteínas combinadas com algoritmos de agrupamento(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-08-24) Monteiro, Otaviano Martins; Rodrigues, Thiago de Souza; Dias, Sandro Renato; http://lattes.cnpq.br/5300421458375793; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/5378637011361467; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Gomes, Rogério Martins; Cruz, André Rodrigues da; Menezes, Gustavo Campos; Silva, Alisson Marques daAs proteínas são macromoléculas formadas por aminoácidos e estão presentes em todos os seres vivos. Várias proteínas tiveram suas estruturas tridimensionais resolvidas experimentalmente e foram armazenadas através de arquivos de texto em bancos de dados biológicos como o Protein Data Bank (PDB). Essas informações proteicas podem ser utilizadas por softwares, como o LSQKAB, que verificam similaridades tridimensionais de proteínas através de sobreposições entre os átomos das estruturas comparadas. No entanto, a realização de sobreposições atômicas requer um alinhamento preciso entre os átomos de duas estruturas por meio de movimentos de rotação e translação. Esse procedimento é computacionalmente intensivo, sendo classificado como NP-Completo. Portanto, a realização de múltiplas sobreposições atômicas, algo frequente em softwares que propõem mutações em proteínas, acarreta em um elevado custo computacional. Assim sendo, o propósito deste estudo consiste em elaborar abordagens fundamentadas em matrizes de distâncias, combinadas com algoritmos agrupamento (clustering) com o intuito de criar conjuntos de interações de proteínas que compartilham conformações tridimensionais semelhantes. O objetivo principal é alcançar soluções de alta precisão e desempenho notável, com o propósito de minimizar a necessidade de realizar sobreposições atômicas. Com o intuito de cumprir esses objetivos, foram desenvolvidas matrizes de distâncias baseadas em diferentes abordagens. A Matriz de Ângulos (MA) foi desenvolvida a partir dos ângulos dos átomos. A Matriz de Distâncias Completa Mista (MDCM) foi desenvolvida através da fusão de diferentes técnicas. A Matriz de Distâncias Reduzida cujos Centroides são Carbonos Alfa (MDRCCA), a Matriz de Distâncias Reduzida a partir de um Ponto entre os Carbonos Alfa (MDRPCA), além da Matriz de Pontos Médios (MPM) foram desenvolvidas a partir da importância dos átomos de carbonos alfa (CA). A concepção da MPM também foi influenciada pela importância das distâncias entre todos os átomos na estrutura, uma vez que essas distâncias são cruciais para o enovelamento da mesma. Essas estratégias foram integradas a algoritmos de agrupamento e os resultados subsequentes foram comparados com o método de busca da ferramenta RID, por ser uma ferramenta especialista em trabalhar com interações de proteínas, além da atomic Cutoff Scanning Matrix (aCSM) por ser uma das versões da Cutoff Scanning Matrix (CSM), que é considerada o estado da arte na geração de assinaturas em grafos proteicos, e com a Matriz de Distâncias Completa (MDC), que apresentou resultados superiores ao método de busca da RID e aCSM, nos primeiros trabalhos deste projeto. Os resultados foram satisfatórios, principalmente os alcançados pela MPM, que superou as demais técnicas na maioria dos experimentos.
- «
- 1 (current)
- 2
- 3
- »