Programa de Pós Graduação em Modelagem Matemática e Computacional - PPGMMC
URI Permanente desta comunidade
Navegar
Navegando Programa de Pós Graduação em Modelagem Matemática e Computacional - PPGMMC por Título
Agora exibindo 1 - 20 de 40
Resultados por página
Opções de Ordenação
Item A mecânica quântica supersimétrica e suas aplicações(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-03-13) Silva, Wanderley da; Scarpelli, Antônio Paulo Baêta; Negrini Neto, Osvaldo; http://lattes.cnpq.br/6607141415887356; http://lattes.cnpq.br/4164041157405626; http://lattes.cnpq.br/8478442420290310; Scarpelli, Antônio Paulo Baêta; Negrini Neto, Osvaldo; Pallegrino, Giancarlo Queiroz; Brito, Luiz Cléber Tavares deA supersimetria é um princípio bastante atraente na busca por teorias mais abrangentes, além do Modelo Padrão das partículas elementares, pois envolve o intercâmbio entre campos fermiônicos e bosônicos, além de resolver problemas como o do ajuste fino. A mecânica quântica supersimétrica (MQ SUSI) foi desenvolvida por Witten em 1981, inicialmente como um modelo para testar métodos de teorias de campos. A partir do momento em que a comunidade científica voltou sua atenção para a Mecânica Quântica SUSI, ficou evidente que este campo de estudos era interessante por si mesmo. Além de servir como um modelo para testar métodos de teorias de campos, constatou-se que a MQ SUSI traz novas luzes sobre o método de fatoração de Infeld e Hull, que foi a primeira forma de categorizar os problemas de potenciais solucionáveis analiticamente. Cálculos da mecânica quântica podem ser simplificados por meio de procedimentos da MQ SUSI. Há muito o que ser explorado em MQ SUSI no cenário atual. Este projeto tem como proposta fazer uma revisão dos diversos procedimentos adotados na MQ SUSI , desenvolver procedimentos numéricos para o cálculo de grandezas físicas em MQ SUSI. Neste trabalho vamos estudar os poços quânticos nas dimensões: 1D (finito e infinito), 2D (quadrado e circular), 3D esférico ( finito e infinito) e o átomo de hidrogênio, bem como seus parceiros supersimétricos. Apresentaremos ao fim uma discussão de aplicações da mecânica quântica supersimétrica e algumas aplicações tecnológicasItem Abordagem de sistemas complexos aplicada a problemas biologicamente motivados(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-05-13) Lima, Larissa Lopes; Faria, Allbens Atman Picardi; Guimarães, Andréia Rodrigues Marques; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/9943818682025940; Faria, Allbens Atman Picardi; Guimarães, Andréia Rodrigues Marques; Morais, Maria Helena Franco; Andrade, Roberto Fernandes Silva; Mattos, Thiago Gomes; Wanner, Elizabeth FialhoO campo de estudo dos sistemas complexos está entrelaçado a muitas áreas da ciência e constitui uma abordagem promissora para a investigação de problemas biológicos. Neste trabalho, algumas ferramentas de sistemas complexos são usadas para estudar três problemas biológicos de grande preocupação atual: a pandemia de COVID-19, a ciclicidade dos surtos de dengue e o impacto das mudanças climáticas no banco de sementes de uma espécie invasora. No estudo de COVID-19, desenvolveu-se um modelo baseado em agentes para simular o espalhamento da doença e o efeito de indivíduos superespalhandores com diferentes cenários de mobilidade. Uma análise de redes foi aplicada para investigar o papel dos superespalhadores, mostrando que há indivíduos chave que interferem no processo de infecção. Ainda, foram feitas simulações para algumas capitais brasileiras usando redes, dados de mobilidade extraídos por telefones celulares e diferentes cenários de infecção. No caso do estudo de dengue, inicialmente foram aplicadas ferramentas de grafo de visibilidade e entropia para interpretar os dados de séries temporais da doença. Além disso, introduziu-se uma ferramenta denominada Histograma de Impacto-Frequência, gerada a partir dos grafos de visibilidade, a qual mostrou resultados melhores para o estudo da ciclicidade da dengue que a abordagem utilizando entropia. Em seguida, foi adaptado um modelo baseado em agentes para investigar a dinâmica de diferentes cenários de infecção por dengue. O resultado permitiu identificar humanos e mosquitos que possuem papel essencial nas redes. Por último, foi adaptado um modelo baseado em agentes para simular a dinâmica de um banco de sementes de uma espécie invasora sob diferentes cenários de mudanças climáticas. Os resultados dos três modelos podem auxiliar na tomada de decisão em diferentes âmbitos. No caso de COVID-19 e dengue, os modelos podem ser adaptados para diferentes cenários e doenças. O modelo de espécie invasora também pode ser adaptado para outras espécies e para auxiliar no manejo dessas espécies. Assim, a abordagem de sistemas complexos permitiu alcançar resultados inéditos no tratamento e análise de problemas biologicamente motivados, como a identificação de superespalhadores no espalhamento da COVID-19, ciclicidade em surtos epidêmicos da dengue e influência das mudanças climáticas no banco de sementes de espécies invasoras. Todos os estudos abordados neste trabalho são passíveis de continuidade, seja para os mesmos problemas ou para aplicações semelhantes.Item Algoritmos heurísticos para os problemas de localização-alocação de mamógrafos e roteamento de unidades móveis de mamografia(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-07-11) Assis, Romário dos Santos Lopes de; Souza, Marcone Jamilson F.; Silva, Maria Amélia Lopes; http://lattes.cnpq.br/1584173805850799; http://lattes.cnpq.br/6078945717558464; http://lattes.cnpq.br/0327627715414522; Souza, Marcone Jamilson Freitas; Siqueira, Eduardo Camargo de; Silva, Maria Amélia Lopes; Costa, Tatiana Alves; Sá, Elisângela Martins de; Souza, Sérgio Ricardo deEsta dissertação tem seu foco no problema de cobertura de exames de mamografia no Sistema Único de Saúde do Brasil. Este problema foi decomposto em dois subproblemas que são resolvidos sequencialmente: o Problema de Localização e Alocação de Mamógrafos fixos (PLAM) e o de Roteirização das Unidades Móveis de Mamografia (MMURP). No primeiro problema, o objetivo é determinar a localização de mamógrafos fixos e as cidades por ele atendidas satisfazendo a um conjunto de restrições, entre as quais a limitação da distância de atendimento. Dado que cidades sem infraestrutura hospitalar para sediar um mamógrafo fixo e distantes de outras com infraestrutura não podem ser atendidas por mamógrafos fixos, então, para cobri-las são utilizadas Unidades Móveis de Mamografia (MMUs). A roteirização das MMUs dá origem ao segundo subproblema. Para resolver o PLAM foram desenvolvidos dois algoritmos de otimização baseados nas meta-heurísticas Iterated Greedy Search (IGS) e General Variable Neighborhood Search (GVNS), nomeados IGS-PLAM e GVNS-PLAM, respectivamente. Esses algoritmos utilizam uma nova representação de solução que permite identificar individualmente cada equipamento instalado em uma cidade. Além disso, eles usam novas estruturas de vizinhança. Para testá-los foram utilizadas instâncias da literatura referente a dados reais de estados brasileiros. Os resultados desses algoritmos foram comparados com aqueles produzidos por um algoritmo da literatura e com os do resolvedor CPLEX. Em seguida, para cada instância, o conjunto de cidades não atendidas integralmente pelos mamógrafos fixos na melhor solução gerada pelos algoritmos propostos é utilizado como instância para a solução do MMURP. Esse segundo subproblema é resolvido por meio de um algoritmo heurístico construtivo que determina o número de MMUs e suas respectivas rotas de forma a atender toda a demanda existente. Esta metodologia foi utilizada para gerar soluções para sete estados da federação brasileira.Item Algorítmos iterated local search e simulated annealing aplicados ao problema de localização com cobertura parcial(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-07-14) Cardoso, Leonardo Correa; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/7295935169153074; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; Diana, Rodney Oliveira Marinho; Menezes, Gustavo CamposO Problema de Localização com Cobertura Parcial consiste em localizar um conjunto de instalações de forma a minimizar o custo total de localização e garantir que uma quantidade predeterminada de demanda de clientes seja coberta por estas instalações. Este trabalho apresenta dois algoritmos para a resolução deste problema, sendo o primeiro baseado na meta-heurística Iterated Local Search e o segundo baseado na meta-heurística Simulated Annealing. Além disso, um conjunto de experimentos computacionais foram realizados e resultados demonstram que boas soluções podem ser encontradas para instâncias moderadamente grandes.Item Algoritmos para as versões determinística e robusta do problema de localização de concentradores com maximização do lucro(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-02-27) Oliveira, Fabricio Alves; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/4686246805500174; Elisângela Martins de Sá; Sérgio Ricardo de Souza; Mateus, Geraldo Robson; Morabito Neto, Reinaldo; Souza, Marcone Jamilson Freitas; Menezes, Gustavo CamposEsta tese estuda o problema de localização de concentradores, com objetivo direcionado para a maximização do lucro. Esse problema consiste em estabelecer a localização de concentradores, o projeto da rede e a alocação dos nós de demanda aos concentradores para maximizar o lucro total da rede. O problema considera que a rede de concentradores é incompleta, nenhuma estrutura topológica específica é requerida e é assumido que os concentradores e arcos entre concentradores possuem capacidade suficiente para lidar com o fluxo de demanda na rede. Este trabalho apresentou novas formulações e investigou suas propriedades. As formulações propostas assumem a estratégia de alocação múltipla; não impõem quaisquer restrições ao número de concentradores ou arcos entre concentradores instalados na rede; não permitem conexões diretas entre nós não concentradores e permitem que a demanda da rede seja parcialmente satisfeita, sendo atendida apenas quando for rentável. Essa última característica e o foco na maximização do lucro diferenciam o problema abordado nesta tese em relação aos problemas clássicos de localização de concentradores, nos quais a demanda completa entre todos os pares de origem e destino é atendida, e, além disso, os problemas são modelados sob o ponto de vista dos custos. Esta tese também investigou as propriedades e realizou uma análise comparativa das formulações propostas com outra da literatura. Para resolver o problema, foram desenvolvidos algoritmos baseados no método de decomposição de Benders, incluindo várias estratégias de aprimoramento. Uma vez que o problema aqui abordado é NP-difícil, também foram propostos dois algoritmos heurísticos baseados em busca local e troca sistemática de estruturas de vizinhança para solucionar instâncias do problema de grande porte. Para analisar a eficiência dos procedimentos de solução propostos, foram realizados extensivos experimentos computacionais com instâncias de referência na área de localização de concentradores. Os resultados desses testes mostraram que os algoritmos propostos possuem um bom desempenho. Em particular, com o método de decomposição de Benders, foram resolvidas até a otimalidade instâncias com até 150 nós. Por outro lado, com os algoritmos heurísticos, foram solucionadas instâncias contendo até 500 nós. Adicionalmente, foi realizada uma análise das estruturas de vizinhança consideradas nos algoritmos heurísticos e uma comparação estatística entre os dois algoritmos. Nesta tese também foi abordado o problema de localização de concentradores com maximização do lucro em que as demandas e os custos de instalação de concentradores e arcos entre concentradores são incertos. Uma formulação robusta, que permite controlar o grau de conservadorismo do modelo por meio de um budget de incerteza, é desenvolvida para este caso. São apresentadas discussões sobre a influência que a incerteza nos dados tem sobre a configuração da rede e sobre o lucro associado a ela. Para resolver o problema robusto, foram propostos um algoritmo exato baseado em decomposição de Benders e outro heurístico baseado na meta-heurística Iterated Local Search, adaptados dos melhores métodos identificados na resolução do problema determinístico. As soluções obtidas com o problema robusto possuem diferenças significativas em relação às soluções do problema determinístico, o que evidencia a importância de se estudar este tipo de problema, principalmente em aplicações reais. A incerteza nos dados pode levar a necessidade de um redesenho da rede de concentradores, o que influencia diretamente o lucro associado a ela.Item Análise da correlação entre sentimentos e avaliações de qualidade sobre diálogos entre chatbots e seus usuários(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-11-30) Santos, Diego Ascânio; Menezes, Gustavo Campos; Dalip, Daniel Hasan; http://lattes.cnpq.br/2960751321530666; http://lattes.cnpq.br/6903109160065321; http://lattes.cnpq.br/1740396467946332; Menezes, Gustavo Campos; Dalip, Daniel Hasan; Brandão, Michele Amaral; Dutra, Lívia Maria; Dias, Thiago Magela RodriguesChatbots com boa qualidade correspondem às expectativas de seu funcionamento e assim, aumentam a retenção, engajamento e satisfação de seus usuários. A opinião dos usuários — medida através de questionários — é utilizada para mensurar esta qualidade, mas, possui limitações como métrica de qualidade tais quais: ser sucetível a viéses e avaliações displicententes, bem como, não poder ser aferida em tempo real. Para lidar com estas limitações, existem atributos de qualidade que as mitigam. O sentimento textual é um destes atributos, pois, o sentimento contém informações implícitas que mitigam avaliações displicentes, além de poder ser inferido em tempo real. Destarte, a partir de referências que exploram o sentimento textual como apromixador da qualidade de chatbots são realizados experimentos de correlação entre estas duas variáveis sobre o corpo de diálogos (entre humanos e chatbots) ConvAI, mencionado por uma das referências — cuja correlação entre sentimento e qualidade dos diálogos não foi abordada — atestando por fim que existe uma correlação entre sentimento textual e a qualidade dos chatbots do ConvAI: 휌-spearman = 0,3221, valor-p << 0,001. Outros resultados incluem: uma ferramenta de rotulação construída para realizar reclassificação de qualidade e anotação de sentimentos dos diálogos, bem como, o reforço da prática de reclassificação de diálogos por meio de comitês, prática presente na literatura.Item Análise de fatores que impactam no futebol baseada em ciência de dados(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-27) Capanema, Daniel de Oliveira; Pereira, Adriano César Machado; http://lattes.cnpq.br/6813736989856243; http://lattes.cnpq.br/0779594261363903; Alves, Adriano César Machado; Alves, Adriano Lima; Claudino, João Gustavo de Oliveira; Santiago, Paulo Roberto Pereira; Wanner, Elizabeth Fialho; Pádua, Flávio Luis CardealEsportes profissionais e de alto desempenho estão cada vez mais utilizando novas tecnologias para obter melhores resultados em treinamentos e competições. Estudos para prevenir lesões e melhorar o desempenho têm sido aplicados e bons resultados já foram alcançados. Para atingir os objetivos, técnicas de inteligência artificial são aplicadas aos dados para encontrar padrões, prever tendências, melhorar resultados, táticas, equipamentos e outros. Este trabalho analisa dados reais de clubes da primeira divisão do futebol brasileiro, aplicando métodos de inteligência artificial para classificar jogadores, encontrar padrões, variáveis ou características que influenciam nos resultados, definindo características que influenciam na ocorrência de lesões e no desempenho dos atletas. Jogadores foram classificados e comparações foram feitas em grupos que possuíam ou não jogadores lesionados. Também foram realizadas análises comparativas em grupos de jogadores com melhores e piores médias de eficiência física, mostrando que jogadores com melhores médias tendem a apresentar características de treino mais parecidas com as do jogo, enquanto jogadores com piores médias apresentam números no treinamento inferiores aos dos jogos. Também foram estudadas as principais características que influenciam nos resultados dos jogos, sendo uma delas a diferença de performance entre o primeiro e o segundo tempo, considerando variáveis relacionadas à distância. O classificador XGBoost conseguiu bons resultados ao prever esta diferença de performance, além de apresentar como e quais variáveis influenciam nesta diferença. O trabalho também apresenta revisões sistemáticas de inteligência artificial em esportes em equipes e individuais, trazendo informações relevantes e métricas sobre o assunto.Item Análise multiplex da rede brasileira de transporte aéreo(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-03-20) Oliveira, Izabela Marques de; Faria, Allbens Atman Picardi; Carpi, Laura Corina; http://lattes.cnpq.br/2779640920944038; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/0119061678782077; Faria, Allbens Atman Picardi; Carpi, Laura Corina; Jesus, Tiago Alves Schlieber; Gonçalves, Bruna Amin; Scarpelli, Antônio Paulo Baeta; Magalhães, Arthur Rodrigo Bosco deO transporte aéreo continua sendo a melhor opção para conectar regiões distantes e apoiar o desenvolvimento social e econômico mundial, apesar dos desafios ambientais. O Brasil depende fortemente dessa modalidade de transporte devido às suas dimensões continentais. Neste trabalho realizamos um estudo utilizando a abordagem multiplex de redes complexas para analisar a rede brasileira de transporte aéreo de passageiros, BATMN. Nesse contexto, criamos o Índice de Eficiência Multiplex (MEI) e suas versões para redes direcionadas e/ou ponderadas, que permitem quantificar o nível de heterogeneidade de conexões de uma rede multiplex em uma escala de 0 a 1, considerando características de direção e grau de importância das arestas, sendo apropriados para pesquisas em redes de transporte. Utilizamos o MEI para avaliar a diversificação de rotas das empresas de transporte aéreo no Brasil entre 2010 e 2021, um período marcado pela ocorrência de grandes eventos no país. Analisamos a influência de alguns desses eventos sobre a eficiência da rede, como a Copa do Mundo FIFA em 2014 e as Olimpíadas do Rio em 2016, assim como de outras mudanças no setor, incluindo a fusão entre companhias aéreas, a privatização de aeroportos, o encerramento de operações de uma importante transportadora aérea e da pandemia de COVID-19. Além disso, investigamos se a diversificação de rotas afetou os preços das passagens aéreas praticados no Brasil. Adicionalmente, por meio de uma metodologia recém-introduzida na literatura, examinamos a capacidade de difusão da rede e observamos o ganho relativo ocorrido em relação à difusão do sistema de transporte aéreo quando são consideradas as conexões de voos entre diferentes companhias aéreas, delineando um cenário de possíveis parcerias entre as empresas aéreas. As avaliações realizadas neste trabalho fornecem novas e significativas informações sobre a rede de transporte aéreo de passageiros no Brasil, contribuindo para otimizar a oferta desse tipo de transporte no país e, consequentemente, reduzir os custos envolvidos. Além disso, a metodologia proposta permite não somente uma análise diferenciada das redes de transporte aéreo, mas também a quantificação da eficiência de redes multiplex em geral.Item Anonimização de dados: um comparativo de algoritmos de privacidade baseados no modelo K-Anonymity(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-02-27) Figueiredo, Diogo Souza de; Rodrigues, Thiago de Souza; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/9220227208158608; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Menezes, Gustavo CamposEm quase todas as atividades diárias, a internet está sempre presente. Muitas dessas atividades, requerem o compartilhamento de dados pessoais (por exemplo, endereço, telefone, idade, localidade, dentre outros) e dados considerados sensíveis (por exemplo, diagnóstico médico, conta de banco, número de documentos, dentre outros), gerando uma preocupação quanto a privacidade dessas informações perante a sociedade. Compartilhar informações exige a utilização de ferramentas de proteção de dados, de forma que as informações desses dados não possam ser utilizadas para identificar um indivíduo. Para atender as Leis e regulamentações aplicáveis, bem como, as políticas de proteção de dados informadas, surgiu um mecanismo de proteção de dados chamado anonimização de dados. Esse mecanismo consiste basicamente em remover os identificadores e ocultar dados sensíveis impossibilitando sua re-identificação. À medida que grandes quantidades de dados de indivíduos são disseminadas, novos desafios aparecem para a proteção de sua privacidade. Vários algoritmos de anonimização foram propostos, tornando-se a publicação de dados de preservação de privacidade em uma área de pesquisa bem abrangente. No entanto, é difícil identificar e selecionar o algoritmo mais adequado, devido ao grande número de algoritmos disponíveis e informações limitadas sobre seus desempenhos. Neste trabalho, são apresentados três algoritmos de anonimização chamados DataFly, Incognito e Mondrian. Será abordado suas eficiências no processamento dos dados, suas eficácias na quantidade de dados utilizados empregando um conjunto amplo de diferentes parâmetros, métricas e conjuntos de dados. Para orientar na seleção de um algoritmo, uma bateria de experimentos será realizada entre eles para identificar quais fatores podem influenciar no desempenho, apresentando as condições em que cada algoritmo supera uns aos outros em determinados requisitos de privacidade bem como suas vantagens e desvantagens.Item Caracterização estatística de tubos petrolíferos: uma análise por métodos matemáticos e técnicas computacionais para definição de probabilistic design(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-05-21) Mesquita, Henrique Milagres; Silva, Alisson Marques da; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/8183350227702842; Silva, Alisson Marques da; Braga, Carmela Maria Polito; Dias, Thiago Magela Rodrigues; Leite, Valter Júnior de SouzaO presente trabalho investiga a robustez dos tubos de aço de alta resistência utilizados em plataformas petrolíferas, focando nas pressões de colapso a que esses tubos estão sujeitos. À medida que as operações de extração de petróleo e gás se deslocam para águas mais profundas e atravessam camadas terrestres submersas cada vez mais espessas, os desafios tecnológicos para garantir a integridade dos tubos aumentam significativamente. A segurança e eficiência da extração dependem de métodos precisos de análise e monitoramento que assegurem a resistência dos tubos a altas pressões e grandes variações de temperatura. Este estudo se concentra em descrever como os dados históricos podem ser manipulados para identificar pontos fortes e fracos dos tubos, bem como sua adequação para aplicações específicas. Utilizando técnicas de análise estatística, o trabalho visa prever a pressão de colapso de tubos de aço sem costura, permitindo a concepção de projetos virtuais por meio de simulações computacionais. Além disso, a computação de alto desempenho é empregada para realizar análises comparativas entre abordagens estatísticas e computacionais, avaliando a robustez dos tubos. O objetivo é aprimorar o projeto e a segurança dos sistemas empregados na indústria de óleo e gás.Item Classificação automática de leucócitos em amostras sanguíneas de cães baseada em técnicas de visão computacional e redes neurais convolucionai(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-08-07) Firmino, Rógenes Reis; Pádua, Flávio Luis Cardeal; Rodrigues, Marco Túlio Alves Nolasco; http://lattes.cnpq.br/1025488431740232; http://lattes.cnpq.br/6545115051079964; http://lattes.cnpq.br/6483324686361554; Pádua, Flávio Luis Cardeal; Rodrigues, Marco Túlio Alves Nolasco; Batista, Nathalia Cosse; Leme, Fabiola de Oliveira Paes; Menezes, Gustavo CamposNa rotina clínica veterinária, o hemograma é o exame complementar mais solicitado, cujo objetivo é avaliar as diferentes células sanguíneas do animal para auxiliar no diagnóstico e acompanhamento da evolução das doenças. O hemograma examina as diferentes células do sangue animal de modo a realizar a contagem de hemácias, leucócitos e plaquetas em uma amostra sanguínea. Os métodos atuais para contagem e análise das células sanguíneas podem ser divididos em técnicas manuais, impedância, análise quantitativa da camada flogística, citometria de fluxo e por visão computacional. A técnica manual é morosa e apresentam um fluxo de trabalho repetitivo, o que pode gerar influências negativas nos resultados apresentados, pois além do prazo extenso para se obter essa resposta, ela ainda pode conter os efeitos subjetivos do profissional. Já as técnicas automáticas, apresentam outros tipos de problemas, como a baixa exatidão na contagem diferencial de leucócitos na técnica de impedância e o alto custo de aquisição e manutenção dos equipamentos relacionados à citometria de fluxo. Este trabalho propõe o desenvolvimento de um método para localizar e classificar automaticamente leucócitos caninos por meio de técnicas de visão computacional e aprendizado de máquina, levando em consideração a variação morfológica celular do animal, a partir de imagens de esfregaços sanguíneos. Dessa forma, é possível fornecer resultados mais precisos do que as metodologias existentes, reduzindo o efeito da subjetividade dos resultados, além de diminuir o tempo gasto com a leitura de lâmina do esfregaço, liberando o médico veterinário para o desempenho de outras atividades. Para a construção do método, uma base de imagens com 433 exemplos de amostras sanguíneas de cães foi criada. Em seguida, a partir da análise de diversos espaços de cores, a componente S do espaço HSV proporcionou o melhor realce dos núcleos dos leucócitos. Com o uso de um limiar, as células sanguíneas de interesse foram localizadas na cena, identificando corretamente 1390 elementos celulares de um total de 1436, o que corresponde a uma taxa de acertos de 96.76%. Por fim, com o auxílio da VGG16, uma rede neural convolucional com transferência de aprendizado, uma acurácia média de 98,5% foi obtida para as células das seguintes classes: linfócitos, neutrófilos, eosinófilos, monócitos e metarrubrícitos.Item Classificação e reconhecimento de padrões: novos algoritmos e aplicações / Emmanuel Tavares Ferreira Affonso(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-28) Affonso, Emmanuel Tavares Ferreira; Silva, Alisson Marques da; Moita, Gray Farias; http://lattes.cnpq.br/2550201329788172; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/3453401178017064Este trabalho visa o desenvolvimento de novos algoritmos para tarefas de classificação e reconhecimento de padrões. Inicialmente é proposto um método para seleção de atributos (FS, do inglês feature selection) para classificadores com treinamento offline. A abordagem de FS proposta, chamada de Mean Ratio for Feature Selection (MRFS), é baseada na razão das médias dos atributos em cada classe. MRFS possui baixo custo computacional pois utiliza apenas operações matemáticas básicas como adição, divisão e comparação e realiza apenas uma passagem nos dados para ranquear os atributos. O MRFS foi implementado e avaliado como método filter (MRFS-F) e como wrapper (MRFS-W). O desempenho dos métodos foram avaliados e comparados com o estado da arte. As comparações realizadas sugerem que os métodos propostos possuem um desempenho comparável ou superior aos métodos alternativos. Além dos métodos de FS foram propostos três classificadores evolutivos com treinamento online. O primeiro chamado de evolving Fuzzy Mean Classifier (eFMC) é baseado em um algoritmo de agrupamento fuzzy que realiza a classificação com base no grau de pertinência dos grupos. Novos grupos são criados sempre que uma nova classe é descoberta e a atualização do centro dos grupos é através das médias amostrais calculadas de forma incremental. O segundo classificador introduzido é o evolving Fuzzy Classifier (eFC) que de maneira análoga utiliza as médias amostrais para atualização dos centros dos grupos. Seu diferencial está na capacidade de gerar mais de um grupo associado a uma mesma classe para mapear diferentes regiões do espaço dos dados, criação de novos grupos aplicando o conceito de procrastinação, união de grupos redundantes e exclusão de grupos obsoletos. Por fim, foi proposto um classificador evolutivo com seleção de atributos denominado evolving Fuzzy Classifier with Feature Selection (eFCFS). Este classificador foi construído utilizando o mesmo algoritmo do eFC e incorporando o método MRFS de seleção de atributos. Os classificadores evolutivos propostos foram avaliados e comparados com três classificadores evolutivos alternativos. Os resultados experimentais e as comparações sugerem que os métodos baseados no MRFS para auxiliar modelos com treinamento offline e os 3 modelos evolutivos com treinamento online são promissores como alternativas para tarefas de classificação e reconhecimento de padrões, com boa acurácia e baixo custo computacional.Item Coleta e tratamento de dados sobre a produção técnica brasileira um estudo baseado em patentes(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-17) Silva, Raulivan Rodrigo da; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Chalco, Jesús Pascual Mena; Silva, Alisson Marques daEste trabalho busca contribuir com a compreensão do cenário tecnológico nacional, tendo como principal objetivo coletar, agregar e realizar tratamentos em grandes conjuntos de dados de patentes, para que dessa forma seja possível traçar uma visão geral da produção técnica brasileira. Tal análise é fundamentada na coleta e tratamento de patentes depositadas no Instituto Nacional da Propriedade Industrial (INPI) e disponibilizadas no repositório internacional de patentes, Espacenet. Inicialmente, é apresentado um conjunto de estratégias que propiciou a coleta, tratamento e agregação dos dados contidos em documentos de patentes, processo este, que viabilizou a construção de uma base de dados local, flexível e ampla, composta por dados provenientes do INPI e Espacenet. Para agregar mais valor à base de dados, foram também coletados registros da base curricular da Plataforma Lattes do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). A fim verificar a representatividade das patentes registradas nos currículos da plataforma e sua validação junto aos dados coletados na Espacenet. Os dados coletados foram analisados e os resultados são apresentados sob diversas perspectivas, por meio de técnicas de bibliometria, patentometria, mineração de textos e algoritmos de processamento de linguagem natural, foram levantados indicadores quantitativos que caracterizam a produção técnica brasileira, tais como, evolução temporal, áreas do conhecimento que mais depositam patentes de acordo com as classificações obtidas, maiores depositantes, instituições de ensino superior que mais depositam patentes, entre outras. Consequentemente, foi possível salientar que estudar os diversos aspectos da evolução tecnológica com base em informações oriundas de documentos de patentes, além de ser relevante, possibilita compreender tendências tecnológicas e identificar especialistas em determinadas áreas do conhecimento. Além disso, gera uma formulação de políticas e estratégias que potencialize um diferencial competitivo para empresas e organizações atuantes no ramo da inovação e tecnologia. Ademais, destaca-se o grande esforço despendido para análise de um grande volume de dados de patentes, que corrobora com a proposição de uma base de dados local.Item Complexidade das relações em redes de criminalidade(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-05-16) Toledo, Alex Sander de Oliveira; Scarpelli, Antônio Paulo Baeta; Faria, Allbens Atman Picardi; Carpi, Laura Corina; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/4164041157405626 País de Nacionalidade Brasil; http://lattes.cnpq.br/9658658789730577; Scarpelli, Antônio Paulo Baeta; Faria, Allbens Atman Picardi; Magalhaes, Arthur Rodrigo Bosco de; Hamada, Hélio Hiroshi; Oliveira, Izabela Marques de; Carpi, Laura Corina; Mattos, Thiago Gomes de; Jesus, Tiago Alves Schieber deA compreensão de que a sociedade funciona como redes interligadas levou a mudanças significativas nas técnicas e abordagens científicas em diversas disciplinas. Em particular, teve um impacto profundo na criminologia, oferecendo benefícios substanciais em termos de alocação de recursos e até salvando vidas. O surgimento de conhecimentos teóricos avançados de Ciência de Redes e Aprendizado de Máquina abriu novos caminhos para o desenvolvimento de modelos de análise de redes, considerando a relevância topológica e dinâmica dos indivíduos dentro das redes criminosas. Nos últimos anos, as abordagens baseadas em redes melhoraram através da criação de representações interconectadas, permitindo análises de rede mais abrangentes e integradas. Aproveitando vastos bancos de dados de segurança pública do Estado de Minas Gerais, Brasil, este estudo propõe modelos para identificar e classificar agentes-chave com base em redes complexas e mineração de outlier por meio de capital humano, social e misto. Várias estratégias para identificar agentes-chave que perturbam a estrutura da rede são comparadas e o desempenho das estratégias de identificação é avaliado. Os resultados demonstram que a definição proposta de capital social e Outilier Score 1 (OS1) é a abordagem mais eficiente. O modelo de identificação dos principais intervenientes sugerido para perturbar as redes criminosas permite que as autoridades responsáveis pela aplicação da lei identifiquem, visualizem e avaliem as atividades ilegais, aumentando assim a probabilidade de desmantelamento bem sucedido destas redes.Item Complexidade na modelagem de sistemas epidêmicos(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-08-20) Gonzaga, Marlon Nunes; Faria, Allens Atman Picardi; Oliveira, Marcelo Martins de; http://lattes.cnpq.br/2091568617999217; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/7386244848291169; Faria, Allens Atman Picardi; Silva, Alcides Volpato Carneiro de Castro e; Mata, Angélica Sousa da; Wanner, Elizabeth Fialho; Oliveira, Marcelo Martins; Mattos, Thiago Gomes deNeste trabalho, a modelagem baseada em agentes (MBA) foi utilizada na criação de três modelos aplicados no estudo do espalhamento de doenças de propagação comunitária transmitida pelo ar, tendo como principal motivação a pandemia de COVID-19. No primeiro modelo, duas distribuições espaciais e duas escalas de interação entre os agentes são utilizadas para estudar os efeitos socioespaciais sobre a disseminação do vírus. Mostra-se que a distribuição espacial dos indivíduos em modelos como este desempenha um papel fundamental na dinâmica da infecção. Já o segundo modelo tem como principal motivação o fato de que muitos estudos biomédicos exploram a eficiência da resposta imune para evitar a infecção causada por patógenos, porém, poucos estudos socioambientais tratam desse assunto. Nesse sentido, este trabalho tem como objetivo apresentar o Modelo Baseado em Agentes com Imunidade (no inglês, IABM), um modelo computacional para replicar cenários de disseminação de patógenos cujo curso é determinado pelas características fisiológicas dos indivíduos que formam a comunidade exposta ao patógeno. A dinâmica dentro do hospedeiro considera a resposta inata (células não especializadas) e o desenvolvimento da resposta humoral pelo trabalho orquestrado pelas células B e T. Em uma escala mais ampla, o modelo compartimental SEIR conduz as transições dos estados epidemiológicos dos agentes. Os resultados mostram uma variabilidade significativa das respostas inatas e humorais dos agentes, bem como diferentes níveis de carga viral. Um vasto espectro de períodos de recuperação foi observado, corroborando a hipótese de infecção de longa duração. O terceiro modelo estudado foi desenvolvido a partir da aplicação do modelo IABM em uma investigação envolvendo estratégias de vacinação. A análise em nível microscópico demonstra o impacto da vacinação nas respostas imunológicas individuais. No nível macroscópico, são explorados os efeitos de diferentes estratégias de vacinação em toda a população, incluindo vacinação aleatória, vacinação direcionada de grupos demográficos específicos e vacinação focada espacialmente. Os resultados indicam que o aumento das taxas de vacinação está correlacionado com a diminuição das taxas de infecção e mortalidade, destacando a importância de alcançar a imunidade de rebanho através da vacinação. Além disso, as estratégias centradas nas populações vulneráveis ou nas regiões densamente povoadas revelam-se mais eficazes na redução da transmissão de doenças em comparação com a vacinação distribuída aleatoriamente. As estratégias focadas em regiões específicas, além de se mostrarem mais eficientes na redução do número de infectados e mortos, poderiam reduzir custos relacionados ao transporte, armazenamento e distribuição de doses quando comparadas à estratégia de vacinação aleatória. Considerando que a acessibilidade, disponibilidade e aceitabilidade das vacinas são problemas que ainda persistem, investir na investigação de estratégias que mitiguem tais questões é crucial no desenvolvimento e aplicação de políticas governamentais que tornem os sistemas de imunização mais eficientes e robustos.Item Computational study on the CO2 reduction intermediates over Cu55 nanoclusters doped with cobalt(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-12-15) Nascimento, Guilherme von Rondow; Galvão, Breno Rodrigues Lamaghere; http://lattes.cnpq.br/7962146839706796; http://lattes.cnpq.br/3967554101211614; Galvão, Breno Rodrigues Lamaghere; Abreu, Heitor Avelino de; Mattos, Thiago Gomes deOs principais problemas ambientais, como o efeito estufa, são decorrentes do avanço da industrialização e da exploração excessiva dos combustíveis fósseis. A queima destes combustíveis libera uma grande quantidade de CO2 na atmosfera. Nesse contexto, a redução eletroquímica do CO2 oferece a possibilidade de remover este poluente da atomosfera e transformá-lo em produtos químicos de forma sustentável. Assim, investigar os intermediários eletroquímicos da redução pode fornecer insights sobre os mecanismos para converter CO2 eletroquimicamente. Neste trabalho, algumas etapas da redução eletroquímica do CO2 é estudada usando a Teoria do Funcional Densidade (DFT), funcional PBE com correção D3 implementada no pacote de simulação Viena ab initio (VASP). Como primeiro passo, cálculos são realizados para determinar a estrutura de menor energia para um cluster de 55 átomos. Depois, um átomo de cobre foi substituído por um átomo de cobalto em diferentes posições possíveis. Para investigar as interações entre o adsorbato e os aglomerados, cálculos preliminares de triagem são realizados para fornecer uma prévia dos locais e possibilidades de adsorção. As configurações mais relevantes são posteriormente refinadas com cálculos de nível superior. Os resultados mostram que H, OH, CO e COH tendem a adsorver em sítios hollow, enquanto HCO tem preferência em sítios bridge. Quando o cluster é dopado em subsuperfície, os adsorbatos H e COH mantêm sua preferência por sítios hollow, o mesmo acontece com HCO, que se mantém em sítio bridge, enquanto OH e CO preferem adsorver em sítios de bridge e top respectivamente. Se o átomo dopante estiver presente na superfície do cluster, H, OH e COH adsorvem em sítios hollow, enquanto CO e HCO têm preferência em adsorver em sítios top e bridge, respectivamente. Cálculos empregando o modelo do eletrodo de hidrogênio foram realizados com os sistemas mais estáveis, a adsorção do CO é favorável, entretanto a formação do COH e HCO requerem mais energia, resultados mostram também que a dopagem apresenta maiores diferenças quando a mesma é feita na superfície do cluster.Item Controle do mosquito Aedes aegypti utilizando modelos entomológico e epidemiológico dependentes de variáveis climáticas(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-24) Vasconcelos, Amália Soares Vieira de; Cardoso, Rodrigo Tomás Nogueira; Fernandes, José Luiz Acebal; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/6761973511780975; Cardoso, Rodrigo Tomás Nogueira; Fernandes, José Luiz Acebal; Dias, Cláudia Mazza; Cunha, Maria da Consolação Magalhães; Faria, Allbens Atman Picardi; Wanner, Elizabeth FialhoAs arboviroses, doenças transmitidas por artrópodes, tornaram-se um grande desafio para os gestores de saúde pública. Dentre elas, a Organização Mundial da Saúde destaca a dengue como a responsável por centenas de milhares de infecções por ano em todo o mundo. Como não há um tratamento específico para a doença e nem vacina eficiente e sem restrições para uso em massa, a melhor opção são as medidas para combater o vetor, o mosquito Aedes aegypti. Por isso, este trabalho propõe o estudo da evolução das populações do vetor por meio de simulações computacionais com o objetivo de minimizar a quantidade de inseticidas, observando, ainda, o custo financeiro. Além disso, procura-se reduzir o custo social demandado para tratamento de doentes. Para isso, dois estudos de caso distintos foram feitos. Primeiramente, considerou-se um modelo entomológico com parâmetros dependentes da temperatura e da precipitação. Por meio de um ajuste pela raiz do erro quadrático médio, o modelo foi calibrado com dados reais de fêmeas do vetor capturadas em armadilhas no Município de Lavras, Minas Gerais. Em seguida, foram construídos três cenários de testes de aplicação de inseticidas utilizando a técnica de controle ótimo. Os cenários permitiram a aplicação do controle durante 91 dias, variando as estações do ano em que normalmente ocorre a maior quantidade de casos de dengue. Dessa forma, o cenário I consistiu na aplicação durante os primeiros dias do verão; o cenário II, na primavera; e, por fim, o cenário III foi uma combinação entre a primavera e o verão. Os resultados encontrados sugerem que, dentre os três cenários, a melhor opção a ser colocada em prática é o controle integrado realizado no cenário III. A segunda parte deste trabalho envolveu a proposta de um modelo epidemiológico dependente da temperatura, precipitação e umidade e que levasse em consideração as infecções sintomáticas e assintomáticas de dengue. Para calibração do modelo, foram usados os dados reais de humanos infectados sintomáticos nos anos mais epidêmicos do Município de Belo Horizonte, Minas Gerais. Os dados indicam que as ações de controle já realizadas no município não são suficientes para garantir que o limiar de infestação seja pequeno o bastante para evitar uma epidemia. Assim, foi apresentada uma proposta de controle adicional com o uso de larvicida, adulticida e bloqueio de transmissão. A principal contribuição do trabalho é o estudo do custo monetário real que as ações de combate ao vetor demandam versus o custo hospitalar por infectado confirmado. Dessa forma, via otimização mono-objetivo e multiobjetivo, os resultados foram discutidos, concluindo-se que quantidades discretas de controle adicional já são suficientes para reduzir o custo financeiro que seria necessário para tratamento hospitalar. Os dois estudos de caso demonstram que este trabalho é de grande valia para auxiliar os gestores de saúde a planejarem as ações de controle e combate ao Aedes aegypti.Item Degenerescência e captura de fótons em um modelo optomecânico de dois modos(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-02-23) Merici, Thiago Alonso; Faria, José Geraldo Peixoto de; Mattos, Thiago Gomes; http://lattes.cnpq.br/9832733706852720; http://lattes.cnpq.br/7536181384159078; http://lattes.cnpq.br/9848043401484142; Faria, José Geraldo Peixoto de; Mattos, Thiago Gomes de; Cosme, Carlos Magno Martins; Calvino, Luis Argel Povedo; Fernandes, José Luiz Acebal; Magalhães, Arthur Rodrigo Bosco deNeste trabalho, estudamos teoricamente um modelo optomecânico de dois modos finito e não amortecido que consiste em uma cavidade óptica de alta qualidade contendo uma membrana fina, elástica e dielétrica. O objetivo principal é investigar os precursores da transição de fase quântica em tal modelo, estudando o comportamento de alguns observáveis no estado fundamental. Ao controlar o acoplamento entre a membrana e os modos, descobrimos que os dois autoestados de menor energia tornam-se degenerados, como é indicado pelo comportamento do valor médio de alguns operadores e por outros quantificadores em função do acoplamento. Tais estados degenerados são caracterizados por uma superposição coerente de autoestados que descrevem um dos dois modos preferencialmente preenchido e a membrana deslocada de sua posição de equilíbrio, devido à pressão de radiação (estados de gato de Schrödinger). A deslocalização do sistema composto fótons+membrana resulta em um aumento nas flutuações medidas pelas relações de incerteza de Robertson-Schrödinger.Item Desenvolvimento de matrizes de distâncias para representar interações de proteínas combinadas com algoritmos de agrupamento(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-08-24) Monteiro, Otaviano Martins; Rodrigues, Thiago de Souza; Dias, Sandro Renato; http://lattes.cnpq.br/5300421458375793; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/5378637011361467; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Gomes, Rogério Martins; Cruz, André Rodrigues da; Menezes, Gustavo Campos; Silva, Alisson Marques daAs proteínas são macromoléculas formadas por aminoácidos e estão presentes em todos os seres vivos. Várias proteínas tiveram suas estruturas tridimensionais resolvidas experimentalmente e foram armazenadas através de arquivos de texto em bancos de dados biológicos como o Protein Data Bank (PDB). Essas informações proteicas podem ser utilizadas por softwares, como o LSQKAB, que verificam similaridades tridimensionais de proteínas através de sobreposições entre os átomos das estruturas comparadas. No entanto, a realização de sobreposições atômicas requer um alinhamento preciso entre os átomos de duas estruturas por meio de movimentos de rotação e translação. Esse procedimento é computacionalmente intensivo, sendo classificado como NP-Completo. Portanto, a realização de múltiplas sobreposições atômicas, algo frequente em softwares que propõem mutações em proteínas, acarreta em um elevado custo computacional. Assim sendo, o propósito deste estudo consiste em elaborar abordagens fundamentadas em matrizes de distâncias, combinadas com algoritmos agrupamento (clustering) com o intuito de criar conjuntos de interações de proteínas que compartilham conformações tridimensionais semelhantes. O objetivo principal é alcançar soluções de alta precisão e desempenho notável, com o propósito de minimizar a necessidade de realizar sobreposições atômicas. Com o intuito de cumprir esses objetivos, foram desenvolvidas matrizes de distâncias baseadas em diferentes abordagens. A Matriz de Ângulos (MA) foi desenvolvida a partir dos ângulos dos átomos. A Matriz de Distâncias Completa Mista (MDCM) foi desenvolvida através da fusão de diferentes técnicas. A Matriz de Distâncias Reduzida cujos Centroides são Carbonos Alfa (MDRCCA), a Matriz de Distâncias Reduzida a partir de um Ponto entre os Carbonos Alfa (MDRPCA), além da Matriz de Pontos Médios (MPM) foram desenvolvidas a partir da importância dos átomos de carbonos alfa (CA). A concepção da MPM também foi influenciada pela importância das distâncias entre todos os átomos na estrutura, uma vez que essas distâncias são cruciais para o enovelamento da mesma. Essas estratégias foram integradas a algoritmos de agrupamento e os resultados subsequentes foram comparados com o método de busca da ferramenta RID, por ser uma ferramenta especialista em trabalhar com interações de proteínas, além da atomic Cutoff Scanning Matrix (aCSM) por ser uma das versões da Cutoff Scanning Matrix (CSM), que é considerada o estado da arte na geração de assinaturas em grafos proteicos, e com a Matriz de Distâncias Completa (MDC), que apresentou resultados superiores ao método de busca da RID e aCSM, nos primeiros trabalhos deste projeto. Os resultados foram satisfatórios, principalmente os alcançados pela MPM, que superou as demais técnicas na maioria dos experimentos.Item Desenvolvimento de matrizes de distâncias para representar interações de proteínas combinadas com algoritmos de agrupamento(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-08-24) Monteiro, Otaviano Martins; Rodrigues, Thiago de Souza; Dias, Sandro Renato; http://lattes.cnpq.br/5300421458375793; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/5378637011361467; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Gomes, Rogério Martins; Cruz, André Rodrigues da; Menezes, Gustavo Campos; Silva, Alisson Marques daAs proteínas são macromoléculas formadas por aminoácidos e estão presentes em todos os seres vivos. Várias proteínas tiveram suas estruturas tridimensionais resolvidas experimentalmente e foram armazenadas através de arquivos de texto em bancos de dados biológicos como o Protein Data Bank (PDB). Essas informações proteicas podem ser utilizadas por softwares, como o LSQKAB, que verificam similaridades tridimensionais de proteínas através de sobreposições entre os átomos das estruturas comparadas. No entanto, a realização de sobreposições atômicas requer um alinhamento preciso entre os átomos de duas estruturas por meio de movimentos de rotação e translação. Esse procedimento é computacionalmente intensivo, sendo classificado como NP-Completo. Portanto, a realização de múltiplas sobreposições atômicas, algo frequente em softwares que propõem mutações em proteínas, acarreta em um elevado custo computacional. Assim sendo, o propósito deste estudo consiste em elaborar abordagens fundamentadas em matrizes de distâncias, combinadas com algoritmos agrupamento (clustering) com o intuito de criar conjuntos de interações de proteínas que compartilham conformações tridimensionais semelhantes. O objetivo principal é alcançar soluções de alta precisão e desempenho notável, com o propósito de minimizar a necessidade de realizar sobreposições atômicas. Com o intuito de cumprir esses objetivos, foram desenvolvidas matrizes de distâncias baseadas em diferentes abordagens. A Matriz de Ângulos (MA) foi desenvolvida a partir dos ângulos dos átomos. A Matriz de Distâncias Completa Mista (MDCM) foi desenvolvida através da fusão de diferentes técnicas. A Matriz de Distâncias Reduzida cujos Centroides são Carbonos Alfa (MDRCCA), a Matriz de Distâncias Reduzida a partir de um Ponto entre os Carbonos Alfa (MDRPCA), além da Matriz de Pontos Médios (MPM) foram desenvolvidas a partir da importância dos átomos de carbonos alfa (CA). A concepção da MPM também foi influenciada pela importância das distâncias entre todos os átomos na estrutura, uma vez que essas distâncias são cruciais para o enovelamento da mesma. Essas estratégias foram integradas a algoritmos de agrupamento e os resultados subsequentes foram comparados com o método de busca da ferramenta RID, por ser uma ferramenta especialista em trabalhar com interações de proteínas, além da atomic Cutoff Scanning Matrix (aCSM) por ser uma das versões da Cutoff Scanning Matrix (CSM), que é considerada o estado da arte na geração de assinaturas em grafos proteicos, e com a Matriz de Distâncias Completa (MDC), que apresentou resultados superiores ao método de busca da RID e aCSM, nos primeiros trabalhos deste projeto. Os resultados foram satisfatórios, principalmente os alcançados pela MPM, que superou as demais técnicas na maioria dos experimentos.