Programa de Pós Graduação em Modelagem Matemática e Computacional - PPGMMC
URI Permanente desta comunidade
Navegar
Navegando Programa de Pós Graduação em Modelagem Matemática e Computacional - PPGMMC por Data de Publicação
Agora exibindo 1 - 20 de 40
Resultados por página
Opções de Ordenação
Item ECT: an offline metric to evaluate case-based explanations for recommender systems(Centro Federal de Educação Tecnológica de Minas Gerais, 2020-12-14) Costa, Lucas Gabriel Lage; Lacerda, Anísio Mendes; http://lattes.cnpq.br/2034607422210997; http://lattes.cnpq.br/3544005614853592; Lacerda, Anísio Mendes; Dalip, Daniel Hasan; Pereira, Adriano César Machado; Pádua, Flávio Luis CardealSistemas de recomendação sugerem itens que melhor atendem aos gostos e interesses dos usuários. Eles são sistemas complexos e, frequentemente, são baseados em modelos do tipo caixa preta. No entanto, sabe-se que entender as recomendações é essencial para ajudar a construir a confiança e o envolvimento do usuário nesses sistemas. Portanto, as explicações das recomendações são uma forma de atingir esse objetivo. Uma explicação é uma informação exibida aos usuários, detalhando as motivações de porque um determinado item foi recomendado. A explicação baseada em caso é um dos estilos de explicação mais comumente usados em sistemas de recomendação. Essa abordagem é focada em fornecer explicações na forma de itens que foram avaliados previamente, como, por exemplo, em: "Porque você gostou de A, recomendamos B". Para medir a qualidade dos métodos que geram explicações, podemos fazer avaliações online e offline. As avaliações online requerem interação direta com os usuários e as avaliações offline requerem apenas dados históricos, ou seja, extraídos anteriormente à recomendação e explicação. A avaliação online pode tratar mais aspectos das explicações e produzir resultados mais completos, por isso é incentivada, mas nem sempre os testes envolvendo usuários estão acessíveis. A avaliação offline é frequentemente adotada pois elimina riscos de apresentar explicações que podem afetar negativamente a experiência dos usuários, além de ser mais fácil de implementar. Poucos trabalhos na literatura abordam métricas offline para medir a qualidade dos métodos de explicação baseados em casos. Assim, este trabalho propõe cobrir esta demanda por meio de uma nova métrica offline – ECT (Ease-of-interpretation Coverage Triviality) – para avaliar aspectos mais complexos dos métodos de explicação baseados em casos. É composta por três submétricas, uma delas já existente (Coverage), e duas novas (Ease-of-interpretation e Triviality). Experimentos foram conduzidos em cenários offline e online para validar o poder discriminativo da métrica proposta ECT, e mostram que ela apresenta uma correlação de 0,67 com o que os usuários consideram boas explicações para suas recomendações.Item Geometria computacional aplicada à mecânica de materiais granulares(Centro Federal de Educação Tecnológica de Minas Gerais, 2020/08/06) Boaventura, Eduardo Célio; Faria, Allbens Atman Picardi; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/2056632739639225; Faria, Allbens Atman Picardi; Morgado, Welles Martinez; Alves, Sidiney Geraldo; Magalhães, Arthur Rodrigo Bosco de; Mattos, Thiago Gomes deA geometria computacional é uma área de estudo intrinsecamente interdisciplinar, pois associa técnicas computacionais às propriedades geométricas de sistemas diversos. Neste trabalho aplicamos a tesselação de Voronoi, uma técnica de geometria computacional, para obtenção da pavimentação de sistemas granulares bidimensionais. Nosso objetivo é obter propriedades mecânicas a partir das propriedades geométricas da pavimentação do plano. Nesta tese aplicamos a metodologia em duas situações diferentes: 1) sistema dinâmico; 2) empilhamento quase estático de grãos. A partir da análise das propriedades da geometria dos polígonos obtidos realizamos uma comparação com as propriedades mecânicas do sistema em questão, buscando associar a evolução espácio-temporal da pavimentação à dinâmica do sistema granular. No sistema dinâmico, durante a penetração de um intruso em um material granular confinado, analisamos as mudanças nos polígonos da área da cavidade (espaço vazio atrás do intruso) e do número de lados do polígono gerado pelo intruso, obtendo indícios de uma transição de fase de engarrafamento. No empilhamento quase estático de grãos, utilizamos a tesselação de Voronoi para a obtenção da função resposta a tensões, a partir de um calibre, e fomos capazes de reproduzir os resultados mecânicos obtidos a partir das forças de contato, utilizando geometria computacional. O calibre é uma constante obtida na base da camada granular por meio da relação entre a função resposta a tensões e a função resposta à tesselação de Voronoi. Este protocolo nos permite calcular a função resposta a tensões em diferentes níveis da camada granular, sem a necessidade de se introduzir um sensor no bulk, ou seja, de uma forma não destrutiva e não invasiva.Item Tempos de primeira passagem para caminhadas aleatórias em redes complexas(Centro Federal de Educação Tecnológica de Minas Gerais, 2020/11/26) Chaves, Marcelo Sousa; Mattos, Thiago Gomes de; Faria, Allbens Atman Picardi; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/9832733706852720; http://lattes.cnpq.br/3890234130921034; Mattos, Thiago Gomes de; Faria, Allbens Atman Picardi; Silva, Alcides Volpato Carneiro de Castro e; Oliveira, Marcelo Martins de; Fernandes, José Luiz AcebalA análise topológica de redes é um importante campo de estudo em Teoria das Redes, com aplicações em vários campos da Ciência. Neste estudo, nós alteramos a topologia de uma rede quadrada através de reconexões em suas arestas e obtivemos diferentes tipos de redes: aleatória conservativa, aleatória não conservativa e livre de escala. Sob determinadas condições, as redes aleatórias e livre de escala apresentaram propriedades de mundo pequeno. Aplicamos as ferramentas da análise de Primeira Passagem para investigar as propriedades e características das caminhadas aleatórias nessas redes. Nas topologias investigadas, analisamos o Tempo de Primeira Passagem (TPP) de um significativo número de caminhantes aleatórios não interagentes, variando-se os sítios de partida e de chegada. Para caracterizar estes processos, aplicamos o conceito da simultaneidade de Primeira Passagem, através do chamado Índice de Uniformidade (IU), que é uma medida da probabilidade de que dois caminhantes independentes cheguem juntos ao sítio alvo. O IU permite avaliar se o tempo médio de primeira passagem (TMPP) é uma boa medida para o processo, e permite identificar redes com características de mundo pequeno. A análise da ocupação dos sítios durante uma caminhada aleatória nos permitiu diferenciar os diferentes tipos de redes, em particular identificar as propriedades de mundo pequeno, um tema que ainda é controverso na literatura.Item Uma abordagem Fuzzy evolutiva com aprendizagem participativa e funções gaussiana multivariável(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-15) Rodrigues, Fernanda Pereira dos Santos; Silva, Alisson Marques da; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/9707483185755948; Silva, Alisson Marques da; Lemos, André Paim; Sá, Elisângela Martins de; Martins, Vinícius CruzeiroEste trabalho propõe uma abordagem fuzzy evolutiva construída sob um algoritmo de agrupamento recursivo não supervisionado com aprendizagem participativa e funções de pertinência Gaussiana multivariável. A partir dessa abordagem, são introduzidos quatro modelos que se diferenciam pelo método de atualização dos parâmetros do consequente das regras fuzzy e são denominados eFLS (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Weighted Recursive Least Squares), eFMI (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Multi-Innovations Recursive Weighted Least Squares), eFCE (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Recursive Maximum Correntropy) e eFTLS (evolving Fuzzy with Multivariable Gaussian Participatory Learning and Recursive Weighted Total Least Squares). Na abordagem proposta, os grupos são criados usando uma medida de compatibilidade e um mecanismo de alerta. A medida de compatibilidade é calculada pela distância Euclidiana ou Mahalanobis de acordo com o número de amostras do grupo. O método de exclusão de grupos combina idade e população para excluir grupos inativos. Os grupos redundantes são mesclados se houver uma sobreposição notável entre dois grupos. Os parâmetros do consequente são atualizados por um algoritmo recursivo de mínimos quadrados ponderados, mínimos quadrados ponderados com multi-inovações, máxima correntropia ou mínimos quadrados totais ponderados. O desempenho dos modelos é avaliado e comparado com modelos alternativos do estado da arte na previsão de séries temporais e na identificação de sistemas não lineares. Os experimentos computacionais e as comparações sugerem que os modelos propostos possuem um desempenho comparável ou superior ao dos modelos alternativos.Item Análise de fatores que impactam no futebol baseada em ciência de dados(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-27) Capanema, Daniel de Oliveira; Pereira, Adriano César Machado; http://lattes.cnpq.br/6813736989856243; http://lattes.cnpq.br/0779594261363903; Alves, Adriano César Machado; Alves, Adriano Lima; Claudino, João Gustavo de Oliveira; Santiago, Paulo Roberto Pereira; Wanner, Elizabeth Fialho; Pádua, Flávio Luis CardealEsportes profissionais e de alto desempenho estão cada vez mais utilizando novas tecnologias para obter melhores resultados em treinamentos e competições. Estudos para prevenir lesões e melhorar o desempenho têm sido aplicados e bons resultados já foram alcançados. Para atingir os objetivos, técnicas de inteligência artificial são aplicadas aos dados para encontrar padrões, prever tendências, melhorar resultados, táticas, equipamentos e outros. Este trabalho analisa dados reais de clubes da primeira divisão do futebol brasileiro, aplicando métodos de inteligência artificial para classificar jogadores, encontrar padrões, variáveis ou características que influenciam nos resultados, definindo características que influenciam na ocorrência de lesões e no desempenho dos atletas. Jogadores foram classificados e comparações foram feitas em grupos que possuíam ou não jogadores lesionados. Também foram realizadas análises comparativas em grupos de jogadores com melhores e piores médias de eficiência física, mostrando que jogadores com melhores médias tendem a apresentar características de treino mais parecidas com as do jogo, enquanto jogadores com piores médias apresentam números no treinamento inferiores aos dos jogos. Também foram estudadas as principais características que influenciam nos resultados dos jogos, sendo uma delas a diferença de performance entre o primeiro e o segundo tempo, considerando variáveis relacionadas à distância. O classificador XGBoost conseguiu bons resultados ao prever esta diferença de performance, além de apresentar como e quais variáveis influenciam nesta diferença. O trabalho também apresenta revisões sistemáticas de inteligência artificial em esportes em equipes e individuais, trazendo informações relevantes e métricas sobre o assunto.Item Classificação e reconhecimento de padrões: novos algoritmos e aplicações / Emmanuel Tavares Ferreira Affonso(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-02-28) Affonso, Emmanuel Tavares Ferreira; Silva, Alisson Marques da; Moita, Gray Farias; http://lattes.cnpq.br/2550201329788172; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/3453401178017064Este trabalho visa o desenvolvimento de novos algoritmos para tarefas de classificação e reconhecimento de padrões. Inicialmente é proposto um método para seleção de atributos (FS, do inglês feature selection) para classificadores com treinamento offline. A abordagem de FS proposta, chamada de Mean Ratio for Feature Selection (MRFS), é baseada na razão das médias dos atributos em cada classe. MRFS possui baixo custo computacional pois utiliza apenas operações matemáticas básicas como adição, divisão e comparação e realiza apenas uma passagem nos dados para ranquear os atributos. O MRFS foi implementado e avaliado como método filter (MRFS-F) e como wrapper (MRFS-W). O desempenho dos métodos foram avaliados e comparados com o estado da arte. As comparações realizadas sugerem que os métodos propostos possuem um desempenho comparável ou superior aos métodos alternativos. Além dos métodos de FS foram propostos três classificadores evolutivos com treinamento online. O primeiro chamado de evolving Fuzzy Mean Classifier (eFMC) é baseado em um algoritmo de agrupamento fuzzy que realiza a classificação com base no grau de pertinência dos grupos. Novos grupos são criados sempre que uma nova classe é descoberta e a atualização do centro dos grupos é através das médias amostrais calculadas de forma incremental. O segundo classificador introduzido é o evolving Fuzzy Classifier (eFC) que de maneira análoga utiliza as médias amostrais para atualização dos centros dos grupos. Seu diferencial está na capacidade de gerar mais de um grupo associado a uma mesma classe para mapear diferentes regiões do espaço dos dados, criação de novos grupos aplicando o conceito de procrastinação, união de grupos redundantes e exclusão de grupos obsoletos. Por fim, foi proposto um classificador evolutivo com seleção de atributos denominado evolving Fuzzy Classifier with Feature Selection (eFCFS). Este classificador foi construído utilizando o mesmo algoritmo do eFC e incorporando o método MRFS de seleção de atributos. Os classificadores evolutivos propostos foram avaliados e comparados com três classificadores evolutivos alternativos. Os resultados experimentais e as comparações sugerem que os métodos baseados no MRFS para auxiliar modelos com treinamento offline e os 3 modelos evolutivos com treinamento online são promissores como alternativas para tarefas de classificação e reconhecimento de padrões, com boa acurácia e baixo custo computacional.Item Coleta e tratamento de dados sobre a produção técnica brasileira um estudo baseado em patentes(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-17) Silva, Raulivan Rodrigo da; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Chalco, Jesús Pascual Mena; Silva, Alisson Marques daEste trabalho busca contribuir com a compreensão do cenário tecnológico nacional, tendo como principal objetivo coletar, agregar e realizar tratamentos em grandes conjuntos de dados de patentes, para que dessa forma seja possível traçar uma visão geral da produção técnica brasileira. Tal análise é fundamentada na coleta e tratamento de patentes depositadas no Instituto Nacional da Propriedade Industrial (INPI) e disponibilizadas no repositório internacional de patentes, Espacenet. Inicialmente, é apresentado um conjunto de estratégias que propiciou a coleta, tratamento e agregação dos dados contidos em documentos de patentes, processo este, que viabilizou a construção de uma base de dados local, flexível e ampla, composta por dados provenientes do INPI e Espacenet. Para agregar mais valor à base de dados, foram também coletados registros da base curricular da Plataforma Lattes do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). A fim verificar a representatividade das patentes registradas nos currículos da plataforma e sua validação junto aos dados coletados na Espacenet. Os dados coletados foram analisados e os resultados são apresentados sob diversas perspectivas, por meio de técnicas de bibliometria, patentometria, mineração de textos e algoritmos de processamento de linguagem natural, foram levantados indicadores quantitativos que caracterizam a produção técnica brasileira, tais como, evolução temporal, áreas do conhecimento que mais depositam patentes de acordo com as classificações obtidas, maiores depositantes, instituições de ensino superior que mais depositam patentes, entre outras. Consequentemente, foi possível salientar que estudar os diversos aspectos da evolução tecnológica com base em informações oriundas de documentos de patentes, além de ser relevante, possibilita compreender tendências tecnológicas e identificar especialistas em determinadas áreas do conhecimento. Além disso, gera uma formulação de políticas e estratégias que potencialize um diferencial competitivo para empresas e organizações atuantes no ramo da inovação e tecnologia. Ademais, destaca-se o grande esforço despendido para análise de um grande volume de dados de patentes, que corrobora com a proposição de uma base de dados local.Item Controle do mosquito Aedes aegypti utilizando modelos entomológico e epidemiológico dependentes de variáveis climáticas(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-24) Vasconcelos, Amália Soares Vieira de; Cardoso, Rodrigo Tomás Nogueira; Fernandes, José Luiz Acebal; http://lattes.cnpq.br/5174842920583671; http://lattes.cnpq.br/6761973511780975; Cardoso, Rodrigo Tomás Nogueira; Fernandes, José Luiz Acebal; Dias, Cláudia Mazza; Cunha, Maria da Consolação Magalhães; Faria, Allbens Atman Picardi; Wanner, Elizabeth FialhoAs arboviroses, doenças transmitidas por artrópodes, tornaram-se um grande desafio para os gestores de saúde pública. Dentre elas, a Organização Mundial da Saúde destaca a dengue como a responsável por centenas de milhares de infecções por ano em todo o mundo. Como não há um tratamento específico para a doença e nem vacina eficiente e sem restrições para uso em massa, a melhor opção são as medidas para combater o vetor, o mosquito Aedes aegypti. Por isso, este trabalho propõe o estudo da evolução das populações do vetor por meio de simulações computacionais com o objetivo de minimizar a quantidade de inseticidas, observando, ainda, o custo financeiro. Além disso, procura-se reduzir o custo social demandado para tratamento de doentes. Para isso, dois estudos de caso distintos foram feitos. Primeiramente, considerou-se um modelo entomológico com parâmetros dependentes da temperatura e da precipitação. Por meio de um ajuste pela raiz do erro quadrático médio, o modelo foi calibrado com dados reais de fêmeas do vetor capturadas em armadilhas no Município de Lavras, Minas Gerais. Em seguida, foram construídos três cenários de testes de aplicação de inseticidas utilizando a técnica de controle ótimo. Os cenários permitiram a aplicação do controle durante 91 dias, variando as estações do ano em que normalmente ocorre a maior quantidade de casos de dengue. Dessa forma, o cenário I consistiu na aplicação durante os primeiros dias do verão; o cenário II, na primavera; e, por fim, o cenário III foi uma combinação entre a primavera e o verão. Os resultados encontrados sugerem que, dentre os três cenários, a melhor opção a ser colocada em prática é o controle integrado realizado no cenário III. A segunda parte deste trabalho envolveu a proposta de um modelo epidemiológico dependente da temperatura, precipitação e umidade e que levasse em consideração as infecções sintomáticas e assintomáticas de dengue. Para calibração do modelo, foram usados os dados reais de humanos infectados sintomáticos nos anos mais epidêmicos do Município de Belo Horizonte, Minas Gerais. Os dados indicam que as ações de controle já realizadas no município não são suficientes para garantir que o limiar de infestação seja pequeno o bastante para evitar uma epidemia. Assim, foi apresentada uma proposta de controle adicional com o uso de larvicida, adulticida e bloqueio de transmissão. A principal contribuição do trabalho é o estudo do custo monetário real que as ações de combate ao vetor demandam versus o custo hospitalar por infectado confirmado. Dessa forma, via otimização mono-objetivo e multiobjetivo, os resultados foram discutidos, concluindo-se que quantidades discretas de controle adicional já são suficientes para reduzir o custo financeiro que seria necessário para tratamento hospitalar. Os dois estudos de caso demonstram que este trabalho é de grande valia para auxiliar os gestores de saúde a planejarem as ações de controle e combate ao Aedes aegypti.Item Efeito da hibridização dinâmica de meta-heurísticas em um sistema multiagentes distribuído e escalável(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-25) Resi, Felipe Duarte dos; Borges, Henrique Elias; Gomes, Rogério Martins; http://lattes.cnpq.br/0460460352086325; http://lattes.cnpq.br/6447512644654475; http://lattes.cnpq.br/4965215490981944; Borges, Henrique Elias; Gomes, Rogério Martins; Santos, Bruno André; Wanner, Elizabeth FialhoMetaheurísticas híbridas reportam uma melhora significativa comparadas com as respectivas implementações clássicas. Apesar da técnica de hibridização de metaheurísticas ser promissora, ainda assim é possível encontrar problemas técnicos e fundamentalmente teóricos. As principais dificuldades técnicas são a necessidade do conhecimento do problema, e uma vez desenvolvida, é necessário calibrar os parâmetros numéricos do algoritmo. Uma alternativa ao desenvolvimento de novas meta-heurísticas, ou a hibridização manual delas, é utilizar os mecanismos de colaboração e comunicação próprios da modelagem de sistemas multi-agentes (MMAS) para promover uma hibridização dinâmica de diferentes estratégias de busca. A arquitetura D-Optimas é um MMAS baseado no modelo de atores, onde cada agente encapsula uma meta-heurística diferente e, dotado de um mecanismo de aprendizagem colabora com os demais agentes para encontrar a melhor solução para um problema de otimização. Os agentes interagem no espaço de busca que é dividido em regiões, que possuem um comportamento independente, podendo receber novas soluções, se particionar ou se fundir. O presente trabalho evoluiu a arquitetura D-Optimas comparada a sua última versão, adicionando mais algoritmos de otimização, atualizando a implementação para a biblioteca akka-cluster e simplificando a sua execução em um cluster. Este trabalho avaliou experimentalmente tanto a escalabilidade quanto o efeito da diversidade na qualidade das soluções. A arquitetura se mostrou escalável em um cluster de até seis nós, mantendo o número de agentes. A diversidade não se mostrou um fator relevante em todos os casos estudados.Item Modelo matemático para populações de Aedes SPP, com oviposição em ambientes aquáticos e secos(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-28) Alves, Alessandra Angelita Carneiro; Fernandes, José Luiz Acebal; Silva, Lillia dos Santos Barsante; Fernandes, José Luiz Acebal; Silva, Lillia dos Santos Barsante; Wyse, Ana Paula Pintado; D'Afonseca, Luis Alberto; Wanner, Elizabeth FialhoOs mosquitos Aedes aegypti e Aedes albopictus são os principais vetores transmissores de arboviroses como dengue, zika, febre chikungunya e febre amarela no mundo, sendo responsáveis pela infecção de milhões de pessoas anualmente. A faixa de maior incidência global destes vetores concentra-se nas regiões tropicais e subtropicais devido ao clima destas regiões favorecer o desenvolvimento do vetor. Variáveis meteorológicas como a precipitação e a temperatura, exercem uma influência considerável nos estágios de desenvolvimento do vetor, afetando a produtividade dos criadouros disponíveis para a postura de ovos, modulando a proliferação do vetor e gerando um padrão sazonal positivamente correlacionado com a incidência de arboviroses. Modelos matemáticos relacionados a variáveis meteorológicas têm sido amplamente desenvolvidos com o intuito de auxiliar no controle do mosquito. A oviposição do Aedes spp. pode se dar em ambientes aquáticos e secos, fator que é capaz de influenciar o padrão sazonal da população do vetor. Neste trabalho, realizamos um estudo teórico-numérico de um modelo matemático compartimental entomológico composto por três equações diferenciais não lineares que representam a dinâmica das populações de ovos em ambientes aquáticos e secos e, da população de fêmeas pós-repasto sanguíneo. Os parâmetros do modelo possuem dependência da temperatura e pluviosidade a fim de descrever a evolução temporal do ciclo de vida do mosquito. A validação do modelo ocorreu por comparação com dados experimentais de capturas de fêmeas Aedes obtidos pelo monitoramento entomológico das cidades de Caratinga, Lavras e Sete Lagoas em Minas Gerais, Brasil. Verificou-se que o modelo com oviposição em ambientes aquáticos e secos oferece ganho na descrição do ciclo de vida do mosquito com o acréscimo de variáveis meteorológicas nas três cidades em estudo e apresenta potencial para auxiliar no monitoramento e controle do vetor.Item Redução de dimensionalidade online para problema de roteamento de veículos com transporte reativo a demanda(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-28) Mendes, Renan Santos; Wanner, Elizabeth Fialho; Martins, Flávio Vinícius Cruzeiro; Sarubbi, João Fernando Machry; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/2555714512247868; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/0567160950149386; Wanner, Elizabeth Fialho; Martins, Flávio Vinícius Cruzeiro; Sarubbi, João Fernando Machry; Meneghini, Ivan Reinaldo; Marcelino, Carolina Gil; Silva, Alisson Marques da; Menezes, Gustavo CamposNeste trabalho é abordada uma formulação com muitos objetivos para o Problema de Roteamento de Veículos com Transporte Reativo a Demanda (PRVTRD). O problema pode ser considerado como um modo de transporte aproximado ao dos serviços de transporte sob demanda com compartilhamento de corridas. Este trabalho propõe o uso da análise de cluster online baseada nos coeficientes de correlação de Pearson e τ de Kendall para realizar a redução de dimensionalidade a cada geração do algoritmo MOEA/D. Inicialmente, foram comparadas as seguintes abordagens: (i) offline usando o coeficiente de correlação de Pearson; (ii) offline usando τ de Kendall; (iii) online usando o coeficiente de correlação de Pearson; (iv) online usando τ de Kendall; e (v) uma versão de baseline, o MOEA/D. Os algoritmos foram testados usando um conjunto de dados para a cidade de Belo Horizonte. Para avaliar a dispersão das soluções obtidas pelos algoritmos, foi aplicado o indicador de hipervolume. Os resultados destes experimentos mostraram que (i) não há diferença na formulação obtida para as abordagens offline; (ii) os algoritmos online são estatisticamente melhores do que o algoritmo offline; (iii) não é possível afirmar que há diferença estatística entre os algoritmos online e o MOEA/D. Os diagramas de cordas foram aplicados sobre as soluções obtidas e indicaram que a diversidade das soluções é diferente. A segunda sequência de experimentos realizados compara as abordagens de redução de dimensionalidade baseada em agregação online e outra baseada em seleção de atributos, que usa duas técnicas: Taxa de Dispersão (DR) e Máxima Variância (MV), as quais são usadas para selecionar o representante do cluster. O impacto da frequência da redução da dimensionalidade no desempenho do algoritmo também foi analisado. As abordagens foram acopladas ao algoritmo MOEA/D. Três algoritmos foram testados (i) cluster online usando o coeficiente de correlação Pearson com MOEA/D (OnCLρg-MOEA/D); (ii) cluster online usando o coeficiente de correlação de Pearson e DR com MOEA/D (OnDRρg-MOEA/D); (iii) cluster online usando coeficiente de Pearson e MV com MOEA/D (OnMVρg-MOEA/D), sendo g = 1, 25, 50, 100. Os resultados mostraram que, independentemente da frequência da abordagem de redução de dimensionalidade, os algoritmos MOEA/D e OnCLρg-MOEA/D são estatisticamente superiores aos OnDRρg-MOEA/D e OnMVρg-MOEA/D. Não é possível afirmar que haja diferença estatística entre os resultados dos algoritmos baseados na seleção de atributos online. Os diagramas de cordas mostraram que há uma maior diversidade das soluções obtidas quando todas as funções objetivo são utilizadas na forma reduzida do problema e também quando os algoritmos permanecem por mais gerações em uma determinada formulação reduzida.Item Modelagem matemática para o problema de elaboração de cardápios nutricionais(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-31) Moreira, Rafaela Priscila Cruz; Wanner, Elizabeth Fialho; Martins, Flávio Vinícius Cruzeiro; Sarubbi, João Fernando Machry; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/2555714512247868; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/1207202817257723; Wanner, Elizabeth Fialho; Martins, Flávio Vinícius Cruzeiro; Cruz, André Rodrigues da; Vassimon, Helena Siqueira; Souza, Sérgio Ricardo de; Menezes, Gustavo CamposEsta tese aborda o Problema de Elaboração de Cardápios, apresentando dois modelos matemáticos para gerar cardápios escolares que atendam aos requisitos do Programa Nacional de Alimentação Escolar (PNAE). As duas modelagens têm como função objetivo minimizar o custo total do cardápio. Na primeira modelagem, deseja-se gerar cardápios para 5 dias e tem-se as seguintes restrições: composição; cor; consistência; variedade; limites mínimos e máximos de: carboidratos, lipídeos e proteínas e limites máximos de sódio e gordura saturada. Na segunda modelagem, deseja-se criar cardápios para 푛 dias e foram consideradas restrições relacionadas à: composição; variedade; limites nutricionais de nutrientes como: carboidratos, proteínas, lipídios, gordura saturada, sódio e açúcar adicionado; oferta mínima de: alimentos in natura ou minimamente processados, incluindo porções semanais de frutas, verduras e legumes; oferta mínima semanal de: vitamina A, alimentos com ferro heme e fontes de vitamina C quando há alimentos com ferro não-heme; limite máximo de: margarina, lácteos adoçados e produtos cárneos e por fim, combinação e rejeição de preparações. Os cardápios foram obtidos resolvendo os modelos matemáticos lineares propostos por meio de um pacote de software de programação matemática de alto desempenho (IBM CPLEX Optimizer). Os aspectos qualitativos dos cardápios obtidos foram avaliados por meio do IQ COSAN - Índice de Qualidade da Coordenação de Segurança Alimentar Nutricional. Os resultados mostraram que os cardápios, tanto da primeira modelagem, quanto da segunda estão adequados ao IQ COSAN e às recomendações do PNAE. Os custos foram adequados, tendo em conta o recurso financeiro disponibilizado para as escolas. Aspectos culturais do cardápio foram contabilizados por meio das comidas e preparações culinárias incluídas no programa. Os resultados mostraram que os cardápios gerados pelos modelos são viáveis e adequados quantitativa e qualitativamente para a elaboração de cardápio escolar. Esse estudo viabiliza e contribui para o cenário pandêmico de obesidade mundial, apresentando cardápios que introduzem hábitos alimentares saudáveis, bem como auxiliando o profissional responsável por elaborá-los.Item Sistemas Fuzzy evolutivos na previsão e na classificação da demanda de passageiros de táxi(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-04-04) Linhares, Luís Fernando; Silva, Alisson Marques; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/6415399254028961; Silva, Alisson Marques da; Meireles, Magali Rezende Gouvêa; Maia, Eduardo Habib Bechelane; Menezes, Gustavo CamposUtilizar transportes privados tem se tornado uma opção viável e cada vez mais popular como alternativa para transportes urbanos. Com este crescimento, um problema antigo e recorrente torna-se mais latente, que é a relação entre demandas de passageiros e oferta de táxis. Enquanto taxistas gastam considerável tempo em busca de novos passageiros, em contrapartida, têm-se passageiros que não conseguem encontrar taxistas. Com este desequilíbrio, os taxistas acabam gastando mais com combustível e desgastando o veículo devido à procura excessiva por passageiros e passageiros acabam não conseguindo táxis, ocasionando, assim, uma descrença na disponibilidade do serviço prestado. Este problema sugere a criação e a utilização de técnicas que possibilitem diminuir a lacuna entre a procura de passageiros por táxis e o contingente efetivo de veículos necessários para suprir essa demanda. Neste contexto, este trabalho apresenta uma nova abordagem para realizar a previsão e a classificação da demanda de passageiros de táxi. A abordagem proposta utiliza dados históricos de corridas de táxis e dados meteorológicos. O método de Kruskal-Wallis é empregado para identificar as variáveis mais relevantes e um sistema fuzzy evolutivo para realizar a previsão/classificação da demanda. Neste trabalho, são avaliados três sistemas evolutivos: Autonomous Learning Multi-Model (ALMMo); evolving Gaussian Multivariable Fuzzy System (eMG) e; evolving Neo-Fuzzy Neuron (eNFN). Experimentos computacionais foram realizados para comparar o desempenho da abordagem proposta. Os resultados experimentais indicam que a abordagem proposta obteve resultados comparáveis ou superiores ao estado da arte. O desempenho obtido sugere, portanto, que a abordagem proposta é promissora como alternativa para a previsão e classificação da demanda de passageiros.Item Abordagem de sistemas complexos aplicada a problemas biologicamente motivados(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-05-13) Lima, Larissa Lopes; Faria, Allbens Atman Picardi; Guimarães, Andréia Rodrigues Marques; http://lattes.cnpq.br/4216801992845696; http://lattes.cnpq.br/9943818682025940; Faria, Allbens Atman Picardi; Guimarães, Andréia Rodrigues Marques; Morais, Maria Helena Franco; Andrade, Roberto Fernandes Silva; Mattos, Thiago Gomes; Wanner, Elizabeth FialhoO campo de estudo dos sistemas complexos está entrelaçado a muitas áreas da ciência e constitui uma abordagem promissora para a investigação de problemas biológicos. Neste trabalho, algumas ferramentas de sistemas complexos são usadas para estudar três problemas biológicos de grande preocupação atual: a pandemia de COVID-19, a ciclicidade dos surtos de dengue e o impacto das mudanças climáticas no banco de sementes de uma espécie invasora. No estudo de COVID-19, desenvolveu-se um modelo baseado em agentes para simular o espalhamento da doença e o efeito de indivíduos superespalhandores com diferentes cenários de mobilidade. Uma análise de redes foi aplicada para investigar o papel dos superespalhadores, mostrando que há indivíduos chave que interferem no processo de infecção. Ainda, foram feitas simulações para algumas capitais brasileiras usando redes, dados de mobilidade extraídos por telefones celulares e diferentes cenários de infecção. No caso do estudo de dengue, inicialmente foram aplicadas ferramentas de grafo de visibilidade e entropia para interpretar os dados de séries temporais da doença. Além disso, introduziu-se uma ferramenta denominada Histograma de Impacto-Frequência, gerada a partir dos grafos de visibilidade, a qual mostrou resultados melhores para o estudo da ciclicidade da dengue que a abordagem utilizando entropia. Em seguida, foi adaptado um modelo baseado em agentes para investigar a dinâmica de diferentes cenários de infecção por dengue. O resultado permitiu identificar humanos e mosquitos que possuem papel essencial nas redes. Por último, foi adaptado um modelo baseado em agentes para simular a dinâmica de um banco de sementes de uma espécie invasora sob diferentes cenários de mudanças climáticas. Os resultados dos três modelos podem auxiliar na tomada de decisão em diferentes âmbitos. No caso de COVID-19 e dengue, os modelos podem ser adaptados para diferentes cenários e doenças. O modelo de espécie invasora também pode ser adaptado para outras espécies e para auxiliar no manejo dessas espécies. Assim, a abordagem de sistemas complexos permitiu alcançar resultados inéditos no tratamento e análise de problemas biologicamente motivados, como a identificação de superespalhadores no espalhamento da COVID-19, ciclicidade em surtos epidêmicos da dengue e influência das mudanças climáticas no banco de sementes de espécies invasoras. Todos os estudos abordados neste trabalho são passíveis de continuidade, seja para os mesmos problemas ou para aplicações semelhantes.Item Design configuration for MMAS algorithm applied for the travelling salesman problem with dynamic demands(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-06-24) Oliveira, Sabrina Moreira de; Souza, Sérgio Ricardo de; Wanner, Elizabeth Fialho; Bezerra, Leonardo César Teonácio; http://lattes.cnpq.br/2243256075052322; http://lattes.cnpq.br/0664132257054306; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/9822253950704581; Souza, Sérgio Ricardo de; Wanner, Elizabeth Fialho; Bezerra, Leonardo César Teonácio; Marcelino, Carolina Gil; Stüzle, Thomas; Sá, Elisângela Martins de; Martins, Flávio Vinícius CruzeiroOs algoritmos Ant Colony Optimization (ACO) foram inicialmente desenvolvidos para problemas de otimização estática, em que os dados do problema são conhecidos a priori e não sofrem alterações durante a execução. No entanto, sua estrutura baseada em memória mostrou-se eficaz também em Problemas de Otimização Combinatória Dinâmicos (POCD), nos quais os dados podem mudar em tempo real, sem previsibilidade. A partir de uma revisão da literatura, identificaram-se adaptações para melhorar o desempenho do ACO em POCD, incluindo o algoritmo Population-Based ACO (P-ACO), projetado especificamente para essa classe de problemas. Embora o P-ACO tenha se destacado por seu processamento rápido, faltam estudos conclusivos sobre a eficácia dos métodos ACO em cenários dinâmicos. Neste trabalho, realiza-se uma extensiva campanha experimental para avaliar as principais versões do ACO aplicáveis a POCD: o MAX-MIN Ant System (MMAS) e o P-ACO. Utilizou-se como estudo de caso uma variação dinâmica do Problema do Caixeiro-Viajante (PCVDD), amplamente adotado na literatura. As principais contribuições incluem: (i) a proposta de um setup experimental pioneiro, com configuração automática de parâmetros para POCD; (ii) a introdução da métrica de hipervolume para avaliação de desempenho em horizontes temporais variáveis; e (iii) a comparação entre MMAS e P-ACO, demonstrando que o MMAS supera o P-ACO quando combinado com busca local, enquanto o inverso ocorre sem essa técnica. Os resultados também indicam que procedimentos adaptativos têm impacto significativo apenas quando a busca local é desativada.Item Recuperação e análise de artigos publicados em eventos científicos(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-08-26) Coimbra, Fernanda Silva; Dias, Thiago Magela Rodrigues; Araújo, Ronaldo Ferreira de; Dias, Thiago Magela Rodrigues; Araújo, Ronaldo Ferreira de; Costa, Emerson de Souza Costa; Menezes, Gustavo CamposA produção científica apresentou um crescimento significativo nos últimos tempos. Atualmente, são inúmeras as formas de propagar o conhecimento cientifico. Logo, os eventos científicos surgem como um dos principais meios de divulgação de resultados de pesquisas em diversas áreas do conhecimento e têm como objetivo disponibilizar informações e conhecimento científico para um grupo de pessoas. E ainda, publicar os resultados das pesquisas em formato de anais dos eventos. Trata-se de um compilado de todos os artigos apresentados em um evento específico. Porém, visando a integração de anais de eventos distintos, esta tarefa não é trivial, tendo em vista que cada evento possui suas publicações em repositórios específicos e formatos diversos. Neste contexto, integrar e analisar os artigos gerados a partir dos eventos se torna uma tarefa complexa. O trabalho em questão, visa traçar características dos eventos científicos e dos seus artigos publicados, utilizando os dados extraídos dos currículos cadastrados na Plataforma Lattes. Após a coleta dos dados curriculares da Plataforma Lattes em janeiro de 2021, foram realizadas etapas de seleção, tratamento, curadoria dos dados; caracterizando um conjunto de 360.888 currículos dos indivíduos com doutorado concluído e 11.416.655 artigos publicados em anais de eventos. De forma a tornar possível os resultados apresentados, várias análises foram realizadas a fim de retratar e detalhar características dos eventos científicos, dos artigos publicados e dos autores. Os resultados apresentados servirão de base para diversos outros estudos que visam compreender o desenvolvimento da ciência brasileira a partir de eventos científicos.Item Análise da correlação entre sentimentos e avaliações de qualidade sobre diálogos entre chatbots e seus usuários(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-11-30) Santos, Diego Ascânio; Menezes, Gustavo Campos; Dalip, Daniel Hasan; http://lattes.cnpq.br/2960751321530666; http://lattes.cnpq.br/6903109160065321; http://lattes.cnpq.br/1740396467946332; Menezes, Gustavo Campos; Dalip, Daniel Hasan; Brandão, Michele Amaral; Dutra, Lívia Maria; Dias, Thiago Magela RodriguesChatbots com boa qualidade correspondem às expectativas de seu funcionamento e assim, aumentam a retenção, engajamento e satisfação de seus usuários. A opinião dos usuários — medida através de questionários — é utilizada para mensurar esta qualidade, mas, possui limitações como métrica de qualidade tais quais: ser sucetível a viéses e avaliações displicententes, bem como, não poder ser aferida em tempo real. Para lidar com estas limitações, existem atributos de qualidade que as mitigam. O sentimento textual é um destes atributos, pois, o sentimento contém informações implícitas que mitigam avaliações displicentes, além de poder ser inferido em tempo real. Destarte, a partir de referências que exploram o sentimento textual como apromixador da qualidade de chatbots são realizados experimentos de correlação entre estas duas variáveis sobre o corpo de diálogos (entre humanos e chatbots) ConvAI, mencionado por uma das referências — cuja correlação entre sentimento e qualidade dos diálogos não foi abordada — atestando por fim que existe uma correlação entre sentimento textual e a qualidade dos chatbots do ConvAI: 휌-spearman = 0,3221, valor-p << 0,001. Outros resultados incluem: uma ferramenta de rotulação construída para realizar reclassificação de qualidade e anotação de sentimentos dos diálogos, bem como, o reforço da prática de reclassificação de diálogos por meio de comitês, prática presente na literatura.Item Computational study on the CO2 reduction intermediates over Cu55 nanoclusters doped with cobalt(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-12-15) Nascimento, Guilherme von Rondow; Galvão, Breno Rodrigues Lamaghere; http://lattes.cnpq.br/7962146839706796; http://lattes.cnpq.br/3967554101211614; Galvão, Breno Rodrigues Lamaghere; Abreu, Heitor Avelino de; Mattos, Thiago Gomes deOs principais problemas ambientais, como o efeito estufa, são decorrentes do avanço da industrialização e da exploração excessiva dos combustíveis fósseis. A queima destes combustíveis libera uma grande quantidade de CO2 na atmosfera. Nesse contexto, a redução eletroquímica do CO2 oferece a possibilidade de remover este poluente da atomosfera e transformá-lo em produtos químicos de forma sustentável. Assim, investigar os intermediários eletroquímicos da redução pode fornecer insights sobre os mecanismos para converter CO2 eletroquimicamente. Neste trabalho, algumas etapas da redução eletroquímica do CO2 é estudada usando a Teoria do Funcional Densidade (DFT), funcional PBE com correção D3 implementada no pacote de simulação Viena ab initio (VASP). Como primeiro passo, cálculos são realizados para determinar a estrutura de menor energia para um cluster de 55 átomos. Depois, um átomo de cobre foi substituído por um átomo de cobalto em diferentes posições possíveis. Para investigar as interações entre o adsorbato e os aglomerados, cálculos preliminares de triagem são realizados para fornecer uma prévia dos locais e possibilidades de adsorção. As configurações mais relevantes são posteriormente refinadas com cálculos de nível superior. Os resultados mostram que H, OH, CO e COH tendem a adsorver em sítios hollow, enquanto HCO tem preferência em sítios bridge. Quando o cluster é dopado em subsuperfície, os adsorbatos H e COH mantêm sua preferência por sítios hollow, o mesmo acontece com HCO, que se mantém em sítio bridge, enquanto OH e CO preferem adsorver em sítios de bridge e top respectivamente. Se o átomo dopante estiver presente na superfície do cluster, H, OH e COH adsorvem em sítios hollow, enquanto CO e HCO têm preferência em adsorver em sítios top e bridge, respectivamente. Cálculos empregando o modelo do eletrodo de hidrogênio foram realizados com os sistemas mais estáveis, a adsorção do CO é favorável, entretanto a formação do COH e HCO requerem mais energia, resultados mostram também que a dopagem apresenta maiores diferenças quando a mesma é feita na superfície do cluster.Item Técnicas de aprendizado de máquina para a previsão da resistência à compressão do concreto e da aderência aço-concreto(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-02-24) Silva, Priscila Flávia Souza da; Moita, Gray Farias; Carvalho, Eliene Pires de; http://lattes.cnpq.br/0426741711913176; http://lattes.cnpq.br/2550201329788172; http://lattes.cnpq.br/2665331153908857; Moita, Gray Farias; Carvalho, Eliene Pires de; Kripka, Moacir; Pitangueira, Roque Luiz da Silva; Silva, Alisson Marques da; Menezes, Gustavo CamposO concreto convencional é um dos materiais mais utilizados na construção civil e no mundo. Sua mistura é composta por cimento, água e diversos agregados. Seu comportamento é altamente não linear devido, principalmente, a suas características heterogêneas. A resistência à compressão é um dos parâmetros mais importantes para a determinação das características estruturais do concreto, sendo utilizada amplamente por calculistas para a realização de projetos estruturais. Já a aderência entre a barra de aço e a pasta de concreto, que são os principais componentes do concreto armado, pode ser vista como um dos principais fatores para que o concreto armado seja considerado uma solução estrutural viável para as mais diversas obras. Esses dois paramentos são usualmente determinados por meio de ensaios laboratoriais dispendiosos, ocasionando grande gasto com recursos, materiais e tempo para a sua execução. Esse gasto é aumentado, principalmente, se considerado que a resistência à compressão do concreto, para atendimentos de processos normativos, é medida aos 7, 14 e 28 dias. Portanto, a previsão de resistência do concreto e da tensão de aderência continua sendo uma área ativa de pesquisa com um número considerável de estudos realizados. Por outro lado, a inteligência artificial e suas diversas aplicações são exemplos de novas tecnologias emergentes que têm se mostrado bem-sucedidas nas mais diversas aplicações científicas. Geralmente, os métodos computacionais superam suas contrapartes tradicionais, como os ensaios experimentais, na resolução de tarefas não lineares. Neste trabalho, é proposta a implementação de algoritmos de inteligência computacional para determinar a resistência do concreto armado à compressão e a força de arrancamento a partir de bases de dados experimentais. Cinco modelos são projetados, implementados e testados: árvores de decisão, florestas aleatórias, máquinas vetoriais de suporte, redes neurais artificiais e regressor gradiente boosting. Também são utilizados métodos de pré processamento de dados e técnicas estatísticas para um melhor estudo das bases de dados utilizadas. O objetivo desse estudo é determinar a resistência à compressão do concreto e a força de arrancamento de barras de aço engastadas em corpos de prova de concreto sem destruir nenhuma amostra. Por fim, os resultados obtidos neste trabalho mostram eficiência na determinação da resistência à compressão e na força de arrancamento e são comparados com outros trabalhos, destrutivos e não destrutivos, que também obtiveram esses parâmetros.Item Um GRASP reativo para o problema de sequenciamento de máquinas paralelas não relacionadas com recurso escasso adicional(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-02-24) Oliveira, Cesar Augusto Souza de; Souza, Sérgio Ricardo de; Diana, Rodney Oliveira Marinho; http://lattes.cnpq.br/5802108825109375; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/5726783073756949; Souza, Sérgio Ricardo de; Diana, Rodney Oliveira Marinho; Silva, Maria Amélia Lopes; Menezes, Gustavo CamposEste trabalho aborda o problema de sequenciamento de tarefas em máquinas paralelas não relacionadas com recurso escasso adicional (Unrelated Parallel Machine Scheduling Problem with Secondary Resources – UPMR). Neste problema, um determinado conjunto de tarefas serão distribuídas em um conjunto de máquinas. O objetivo é minimizar o instante de conclusão da última tarefa (makespan). A cada instante de tempo existe uma quantidade máxima de recursos disponível para processar as tarefas do sequenciamento, cada tarefa demanda uma certa quantidade desse recurso ao ser processada. Caso o limite total de recurso seja ultrapassado, a solução se torna infactível. Para resolução do problema, propomos um algoritmo GRASP Reativo juntamente com um método de busca local VND. Um método guloso para o reparo de soluções infactíveis foi proposto e aplicado em conjunto com o GRASP Reativo. Um conjunto de instâncias da literatura é usado para a validação e comparação dos resultados. Análises realizadas com os resultados obtidos indicaram que a abordagem proposta obteve resultados satisfatórios em boa parte das instâncias em relação à abordagens existentes na literatura.