Mestrado em Modelagem Matemática e Computacional
URI Permanente para esta coleção
Navegar
Navegando Mestrado em Modelagem Matemática e Computacional por Título
Agora exibindo 1 - 20 de 72
Resultados por página
Opções de Ordenação
Item A mecânica quântica supersimétrica e suas aplicações(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-03-13) Silva, Wanderley da; Scarpelli, Antônio Paulo Baêta; Negrini Neto, Osvaldo; http://lattes.cnpq.br/6607141415887356; http://lattes.cnpq.br/4164041157405626; http://lattes.cnpq.br/8478442420290310; Scarpelli, Antônio Paulo Baêta; Negrini Neto, Osvaldo; Pallegrino, Giancarlo Queiroz; Brito, Luiz Cléber Tavares deA supersimetria é um princípio bastante atraente na busca por teorias mais abrangentes, além do Modelo Padrão das partículas elementares, pois envolve o intercâmbio entre campos fermiônicos e bosônicos, além de resolver problemas como o do ajuste fino. A mecânica quântica supersimétrica (MQ SUSI) foi desenvolvida por Witten em 1981, inicialmente como um modelo para testar métodos de teorias de campos. A partir do momento em que a comunidade científica voltou sua atenção para a Mecânica Quântica SUSI, ficou evidente que este campo de estudos era interessante por si mesmo. Além de servir como um modelo para testar métodos de teorias de campos, constatou-se que a MQ SUSI traz novas luzes sobre o método de fatoração de Infeld e Hull, que foi a primeira forma de categorizar os problemas de potenciais solucionáveis analiticamente. Cálculos da mecânica quântica podem ser simplificados por meio de procedimentos da MQ SUSI. Há muito o que ser explorado em MQ SUSI no cenário atual. Este projeto tem como proposta fazer uma revisão dos diversos procedimentos adotados na MQ SUSI , desenvolver procedimentos numéricos para o cálculo de grandezas físicas em MQ SUSI. Neste trabalho vamos estudar os poços quânticos nas dimensões: 1D (finito e infinito), 2D (quadrado e circular), 3D esférico ( finito e infinito) e o átomo de hidrogênio, bem como seus parceiros supersimétricos. Apresentaremos ao fim uma discussão de aplicações da mecânica quântica supersimétrica e algumas aplicações tecnológicasItem Abordagens mono e multiobjetivo para o problema de roteamento de veículos capacitados com restrições tridimensionais de carregamento(Centro Federal de Educação Tecnológica de Minas Gerais, 2020-02-28) Rocha, Lucas Daniel Padia; Martins, Flávio Vinícius Cruzeiro; http://lattes.cnpq.br/3199420233273400; http://lattes.cnpq.br/1156879770113358; Martins, Flávio Vinícius Cruzeiro; Sarubbi, João Fernando Machry; Wanner, Elizabeth FialhoCom a expansão da internet, o transporte de produtos ocupa uma das funções mais importantes no comércio eletrônico. Um dos parâmetros com elevado impacto nessa importância está nos altos custos envolvidos com o transporte na economia. Diante desse fato, é considerável analisar os problemas reais enfrentados pelos atores desse ramo de atividade. As questões que se referem ao roteamento e carregamento de veículos, em decorrência de suas complexidades, constituem uma das aplicações com maior potencial na área de otimização. Com o foco de facilitar essas questões, este trabalho tem como objetivo solucionar o problema de roteamento de veículos capacitados com restrições tridimensionais de carregamento (3L-CVRP). Este trabalho traz soluções para o problema em duas modelagens distintas, mono-objetivo e multiobjetivo. No mono-objetivo, a finalidade é minimizar a distância total percorrida pelos veículos. Foram implementados os seguintes algoritmos: Algoritmo Genético, Variable Neighborhood Search (VNS), Simulated Annealing e Busca Tabu. No Algoritmo Genético, utilizou-se as soluções geradas pelas técnicas Greedy Randomized Adaptive Search Procedure (GRASP) e soluções resolvidas por programação linear inteira (PLI) utilizando o pacote comercial CPLEX aplicadas ao problema de roteamento de veículos capacitados (CVRP) para construir a população inicial. No restante dos algoritmos implementados, as soluções do PLI obtidas pelo CPLEX foram utilizadas como solução inicial. Os resultados obtidos foram comparados aos da literatura e entre os algoritmos construídos. Na abordagem multiobjetivo, acrescentou-se o objetivo de minimizar a quantidade de veículos utilizados para a entrega dos itens. Foi feito a implementação do algoritmo Non-Dominated Sorting Genetic Algorithm II (NSGA-II) aplicado ao CVRP e 3L-CVRP. Para o CVRP, as soluções encontradas foram comparadas às da literatura. O algoritmo alcançou resultados satisfatórios, se aproximando do estado da arte, e em algumas instâncias, superando as soluções obtidas. Para o 3L-CVRP, os resultados alcançados exploraram novas soluções para o problema em comparação com a literatura.Item Algoritmo progressive hedging aplicado ao problema de gestão de ativos e passivos de fundos de pensão(Centro Federal de Educação Tecnológica de Minas Gerais, 2021-12-01) Rezende, Eugênio Silva; Sá, Elisângela Martins de; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/1998620692340609; Sá, Elisângela Martins de; Valle, Cristiano Arbex; Souza, Sérgio Ricardo deEsta dissertação propõe um algoritmo eficiente para resolver um modelo de programação estocástica de gestão de ativos e passivos de fundos de pensão. Para tanto, foi implementada a versão original do algoritmo Progressive Hedging (PH) e outras três diferentes versões desse algoritmo. Essas três versões incluem algumas das diversas melhorias propostas na literatura. As melhorias incluídas ao algoritmo original foram: agrupamento de cenários, fixação de variáveis, atualização do parâmetro de penalidade e paralelização. Para definir a versão mais eficiente, os algoritmos implementados foram usados para resolver um conjunto de instâncias geradas. Os resultados obtidos permitiram concluir que inclusão de melhorias ao PH original afetaram significativamente o desempenho desse algoritmo. Além disso, a melhor versão implementada e o solver do CPLEX foram aplicados para resolver um conjunto especial de instâncias. Os resultados mostraram que a melhor versão do PH conseguiu resolver instâncias que não puderam ser resolvidas pelo CPLEX.Item Algoritmos e modelos matemáticos para o problema da k-partição de números(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-02-16) Faria, Alexandre Frias; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; http://lattes.cnpq.br/8465270749629421; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/7284035698082266; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; Coleho, Alessandra Martins; Cardoso, Rodrigo Tomás NogueiraEsta dissertação de mestrado apresenta uma formulação matemática e algoritmos para a versão de otimização do Problema da k-Partição de Números. Este problema consiste em distribuir os elementos de uma sequência numérica em k subconjuntos disjuntos, de modo que os resultados das somas dos elementos de cada subconjunto fiquem contidos no menor intervalo possível. A formulação matemática proposta é baseada em dois problemas semelhantes da literatura. Elimina-se a multiplicidade de soluções do modelo de programação inteira, reduzindo ao mínimo o número de variáveis. Mostra-se a NP-completude do problema estudado. Estudam-se algoritmos heurísticos, aproximados e exatos da literatura aplicáveis aos problemas relacionados. Aplica-se a meta-heurística ILS (Iterated Local Search) à solução gerada por um algoritmo aproximado. A estratégia utilizada é aplicar método guloso em todas as fases do algoritmo, tanto na inicialização quanto para a escolha de movimentos do ILS. Propõe-se uma melhoria de métodos exatos Branch-and-Bound aplicados ao problema e presentes na literatura . Esta modificação refina os limitantes do método, usando a relaxação do modelo matemático e ILS propostos. Insere-se um critério de busca para que os nós mais promissores tenham prioridade. Os resultados mostram a solução do ILS superando as soluções de heurísticas construtivas listadas na literatura. A qualidade da solução do ILS é certificada por métodos exatos, um da literatura e outro com as melhorias propostas neste trabalho. As modificações do algoritmo exato se mostram eficazes em uma comparação entre a solução alcançada sobre o número de nós explorados nas duas versões.Item Algoritmos heurísticos para os problemas de localização-alocação de mamógrafos e roteamento de unidades móveis de mamografia(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-07-11) Assis, Romário dos Santos Lopes de; Souza, Marcone Jamilson F.; Silva, Maria Amélia Lopes; http://lattes.cnpq.br/1584173805850799; http://lattes.cnpq.br/6078945717558464; http://lattes.cnpq.br/0327627715414522; Souza, Marcone Jamilson Freitas; Siqueira, Eduardo Camargo de; Silva, Maria Amélia Lopes; Costa, Tatiana Alves; Sá, Elisângela Martins de; Souza, Sérgio Ricardo deEsta dissertação tem seu foco no problema de cobertura de exames de mamografia no Sistema Único de Saúde do Brasil. Este problema foi decomposto em dois subproblemas que são resolvidos sequencialmente: o Problema de Localização e Alocação de Mamógrafos fixos (PLAM) e o de Roteirização das Unidades Móveis de Mamografia (MMURP). No primeiro problema, o objetivo é determinar a localização de mamógrafos fixos e as cidades por ele atendidas satisfazendo a um conjunto de restrições, entre as quais a limitação da distância de atendimento. Dado que cidades sem infraestrutura hospitalar para sediar um mamógrafo fixo e distantes de outras com infraestrutura não podem ser atendidas por mamógrafos fixos, então, para cobri-las são utilizadas Unidades Móveis de Mamografia (MMUs). A roteirização das MMUs dá origem ao segundo subproblema. Para resolver o PLAM foram desenvolvidos dois algoritmos de otimização baseados nas meta-heurísticas Iterated Greedy Search (IGS) e General Variable Neighborhood Search (GVNS), nomeados IGS-PLAM e GVNS-PLAM, respectivamente. Esses algoritmos utilizam uma nova representação de solução que permite identificar individualmente cada equipamento instalado em uma cidade. Além disso, eles usam novas estruturas de vizinhança. Para testá-los foram utilizadas instâncias da literatura referente a dados reais de estados brasileiros. Os resultados desses algoritmos foram comparados com aqueles produzidos por um algoritmo da literatura e com os do resolvedor CPLEX. Em seguida, para cada instância, o conjunto de cidades não atendidas integralmente pelos mamógrafos fixos na melhor solução gerada pelos algoritmos propostos é utilizado como instância para a solução do MMURP. Esse segundo subproblema é resolvido por meio de um algoritmo heurístico construtivo que determina o número de MMUs e suas respectivas rotas de forma a atender toda a demanda existente. Esta metodologia foi utilizada para gerar soluções para sete estados da federação brasileira.Item Algoritmos híbridos aplicados ao problema de roteamento de veículos com janela de tempo(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-25) Pinto, Aguinaldo Alves; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/7686232310898524; Souza, Sérgio Ricardo de; Silva, Carlos Alexandre; França Filho, Moacir Felizardo de; Moita, Gray FariasNesta dissertação é tratado o Problema de Roteamento de Veículos com Janela de Tempo (PRVJT). O objetivo é atender um conjunto de clientes geogra camente distribuídos com um número de veículos limitado. É considerado um único depósito, a partir do qual os veículos partem e retornam após visitar todos os clientes de sua respectiva rota. Há uma janela de tempo associada ao depósito, que indica seu período de funcionamento, além de uma janela de tempo correspondente a cada cliente, que indica o intervalo de tempo para iniciar o atendimento. Todos os veículos possuem a mesma capacidade de carga em uma dada instância e há uma demanda correspondente a cada cliente. Esta dissertação propõe, para a solução de instâncias do PRVJT, uma hibridização das metaheurísticas Iterated Greedy Search (IGS) e Greedy Randomized Adaptive Search Procedure (GRASP), integrada às heurísticas Push-Forward Insertion Heuristic (PFIH) e Variable Neighborhood Descent (VND). Os testes computacionais realizados utilizam as 56 instâncias propostas por Solomon (1987) e comparam com os melhores resultados heurísticos da literatura para esta classe de instâncias do PRVJT.Item Algorítmos iterated local search e simulated annealing aplicados ao problema de localização com cobertura parcial(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-07-14) Cardoso, Leonardo Correa; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; http://lattes.cnpq.br/3677015295211434; http://lattes.cnpq.br/4686246805500174; http://lattes.cnpq.br/7295935169153074; Sá, Elisângela Martins de; Souza, Sérgio Ricardo de; Diana, Rodney Oliveira Marinho; Menezes, Gustavo CamposO Problema de Localização com Cobertura Parcial consiste em localizar um conjunto de instalações de forma a minimizar o custo total de localização e garantir que uma quantidade predeterminada de demanda de clientes seja coberta por estas instalações. Este trabalho apresenta dois algoritmos para a resolução deste problema, sendo o primeiro baseado na meta-heurística Iterated Local Search e o segundo baseado na meta-heurística Simulated Annealing. Além disso, um conjunto de experimentos computacionais foram realizados e resultados demonstram que boas soluções podem ser encontradas para instâncias moderadamente grandes.Item Análise da correlação entre sentimentos e avaliações de qualidade sobre diálogos entre chatbots e seus usuários(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-11-30) Santos, Diego Ascânio; Menezes, Gustavo Campos; Dalip, Daniel Hasan; http://lattes.cnpq.br/2960751321530666; http://lattes.cnpq.br/6903109160065321; http://lattes.cnpq.br/1740396467946332; Menezes, Gustavo Campos; Dalip, Daniel Hasan; Brandão, Michele Amaral; Dutra, Lívia Maria; Dias, Thiago Magela RodriguesChatbots com boa qualidade correspondem às expectativas de seu funcionamento e assim, aumentam a retenção, engajamento e satisfação de seus usuários. A opinião dos usuários — medida através de questionários — é utilizada para mensurar esta qualidade, mas, possui limitações como métrica de qualidade tais quais: ser sucetível a viéses e avaliações displicententes, bem como, não poder ser aferida em tempo real. Para lidar com estas limitações, existem atributos de qualidade que as mitigam. O sentimento textual é um destes atributos, pois, o sentimento contém informações implícitas que mitigam avaliações displicentes, além de poder ser inferido em tempo real. Destarte, a partir de referências que exploram o sentimento textual como apromixador da qualidade de chatbots são realizados experimentos de correlação entre estas duas variáveis sobre o corpo de diálogos (entre humanos e chatbots) ConvAI, mencionado por uma das referências — cuja correlação entre sentimento e qualidade dos diálogos não foi abordada — atestando por fim que existe uma correlação entre sentimento textual e a qualidade dos chatbots do ConvAI: 휌-spearman = 0,3221, valor-p << 0,001. Outros resultados incluem: uma ferramenta de rotulação construída para realizar reclassificação de qualidade e anotação de sentimentos dos diálogos, bem como, o reforço da prática de reclassificação de diálogos por meio de comitês, prática presente na literatura.Item Anonimização de dados: um comparativo de algoritmos de privacidade baseados no modelo K-Anonymity(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-02-27) Figueiredo, Diogo Souza de; Rodrigues, Thiago de Souza; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/9220227208158608; Rodrigues, Thiago de Souza; Dias, Sandro Renato; Menezes, Gustavo CamposEm quase todas as atividades diárias, a internet está sempre presente. Muitas dessas atividades, requerem o compartilhamento de dados pessoais (por exemplo, endereço, telefone, idade, localidade, dentre outros) e dados considerados sensíveis (por exemplo, diagnóstico médico, conta de banco, número de documentos, dentre outros), gerando uma preocupação quanto a privacidade dessas informações perante a sociedade. Compartilhar informações exige a utilização de ferramentas de proteção de dados, de forma que as informações desses dados não possam ser utilizadas para identificar um indivíduo. Para atender as Leis e regulamentações aplicáveis, bem como, as políticas de proteção de dados informadas, surgiu um mecanismo de proteção de dados chamado anonimização de dados. Esse mecanismo consiste basicamente em remover os identificadores e ocultar dados sensíveis impossibilitando sua re-identificação. À medida que grandes quantidades de dados de indivíduos são disseminadas, novos desafios aparecem para a proteção de sua privacidade. Vários algoritmos de anonimização foram propostos, tornando-se a publicação de dados de preservação de privacidade em uma área de pesquisa bem abrangente. No entanto, é difícil identificar e selecionar o algoritmo mais adequado, devido ao grande número de algoritmos disponíveis e informações limitadas sobre seus desempenhos. Neste trabalho, são apresentados três algoritmos de anonimização chamados DataFly, Incognito e Mondrian. Será abordado suas eficiências no processamento dos dados, suas eficácias na quantidade de dados utilizados empregando um conjunto amplo de diferentes parâmetros, métricas e conjuntos de dados. Para orientar na seleção de um algoritmo, uma bateria de experimentos será realizada entre eles para identificar quais fatores podem influenciar no desempenho, apresentando as condições em que cada algoritmo supera uns aos outros em determinados requisitos de privacidade bem como suas vantagens e desvantagens.Item Aprendizado por reforço baseado em agrupamentos para recomendação na ausência de informação prévia(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-02) Rodrigues, Otávio Augusto Malheiros; Lacerda, Anísio Mendes; Pádua, Flávio Luis Cardeal; http://lattes.cnpq.br/6545115051079964; http://lattes.cnpq.br/2034607422210997; http://lattes.cnpq.br/2125546646444157; Lacerda, Anísio Mendes; Pádua, Flávio Luis Cardeal; Bax, Marcelo Peixoto; Pereira, Adriano César MachadoAtualmente, com a popularização e aumento da quantidade de páginas Web, o volume de informação compartilhada tem crescido, ampliando cada vez mais a quantidade de conteúdo disponível para os usuários dessa rede. Assim, surge a necessidade de ferramentas capazes de identificar conteúdo relevante a partir desse grande volume de informação disponível. Os sistemas de recomendação são ferramentas computacionais que possuem este objetivo, ou seja, esses sistemas focam em auxiliar os usuários a encontrar informação relacionada às suas preferências de forma personalizada. As técnicas estado-da-arte na literatura de sistemas de recomendação são baseadas no histórico de interação dos usuários com os itens disponíveis no sistema. Assim, estas técnicas são limitadas no cenário de ausência de informação prévia sobre as preferências dos usuários. Este é um problema bem conhecido na literatura de sistemas de recomendação, chamado cold-start de usuários e é o foco desta dissertação. Mais especificamente,aborda-se o problema de recomendar itens para usuários de forma contínua (i.e.,online) por meio de algoritmos baseados em aprendizado por reforço. A classe de algoritmos na qual baseia-se este trabalho é Multi-Armed Bandits (MAB) e refere-se a algoritmos de tomada de decisão sequencial com retro-alimentação. Neste trabalho, modelamos a recomendação no cenário de cold-start como um algoritmo MAB de dois passos. Assumimos que os itens podem ser agrupados considerando sua descrição textual, o que leva a agrupamentos de itens semanticamente semelhantes. Primeiramente, seleciona-se o agrupamento de itens mais relevante para o usuário-alvo da recomendação. A seguir, dado o agrupamento previamente selecionado, escolhe-se o item mais relevante dentro desse agrupamento, o qual é sugerido para o usuário-alvo. Para avaliar a qualidade do algoritmo proposto, o seu desempenho foi mensurado utilizando um conjunto de dados real. A avaliação experimental mostra que o algoritmo proposto produz melhorias significativas em termos de qualidade de recomendação em relação aos algoritmos MAB estado-da-arte.Item Autômatos celulares aplicados à dinâmica de doação emparelhada de rins(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-08-31) Melo, Mariana de Mendonça; Mattos, Thiago Gomes de; Faria, José Geraldo Peixoto de; http://lattes.cnpq.br/7536181384159078; http://lattes.cnpq.br/9832733706852720; http://lattes.cnpq.br/9220534097454750; Mattos, Thiago Gomes de; Faria, José Geraldo Peixoto de; Falcão, Ricardo de Carvalho; Magalhães, Arthur Rodrigo Bosco de; Lima, Leonardo dos SantosEmbora o transplante seja o melhor tratamento para o doente renal crônico, há um déficit constante entre a quantidade de doadores de rins para a realização do transplante e o número de doentes renais na fase terminal. Em decorrência desse desequilíbrio, a fila única de espera por um rim de doador falecido cresce consideravelmente, e quanto maior o tempo em que o doente renal em tratamento dialítico espera por um rim, maior é o risco de morte e doenças mórbidas. Dessa forma, para estender o acesso ao transplante e melhorar a taxa de sobrevivência com qualidade de vida para o paciente, este trabalho visa desenvolver um modelo simulacional de doação emparelhada de rins associada à díade formada por doador vivo e paciente. O modelo baseia-se em solucionar a incompatibilidade e/ou a baixa compatibilidade envolvida em um par doador-receptor trocando-se o doador de dois pares distintos. No modelo proposto descrevemos a propagação dos transplantes renais a cada passo de tempo sob influência do grau de altruísmo do doador, da duração da dinâmica e da (in)compatibilidade entre os pares. Através de estudos estatísticos, analisamos o comportamento do modelo que consiste na dinâmica de evolução de uma rede aleatória de autômatos celulares probabilísticos, no qual cada nó da rede corresponde a um par doador-receptor. Os resultados obtidos indicaram a eficácia do modelo quanto ao aumento do número de transplantes. Definimos uma relação de equilíbrio entre os parâmetros grau de altruísmo crítico e duração total da dinâmica para que todos os pares transplantassem.Item Avaliação de retorno e risco em alocação de recursos de fundo de pensão(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-06-15) Reis, Jésus Amarante dos; Reis, Jésus Amarante dos; Pereira, Marconi de Arruda; http://lattes.cnpq.br/0211598484585754; Reis, Jésus Amarante dos; Pereira, Marconi de Arruda; Magalhães, Arthur Rodrigo Bosco de; Paiva, Felipe DiasAs alterações de fatores econômicos e sociais ocorridas nos últimos anos estão modificando significativamente a maneira de se planejar para aposentadoria. A gradativa redução da capacidade laboral, que acontece naturalmente com o passar dos anos, faz refletir sobre o período da incapacidade para o trabalho e, neste momento, reconhecemos a importância dos benefícios pagos pela Previdência Oficial, que há tempos vive uma expectativa de crise financeira favorecendo o surgimento e posterior crescimento das Entidades Fechadas de Previdência Complementar (EFPC). Neste mercado de previdência complementar, o período de acumulação de recursos é muito importante e a rentabilidade obtida nesta fase interfere diretamente na reserva financeira acumulada para a aposentadoria. Por isso, este trabalho tem como objetivo criar uma modelagem para selecionar e sugerir aos gestores de EFPC um portfólio de investimentos usando também renda variável em sua composição e que tenha rentabilidade suficiente para o cumprimento das expectativas do plano a um baixo nível de risco, medido pelo CVaR. Para tornar possível esta seleção de ativos é necessário observar a legislação atual relacionada aos limites da meta atuarial e da composição da carteira conforme a classificação dos ativos na B3. Dispondo das cotações diárias da BOVESPA do período de 2008 a 2016 será aplicada a Teoria do Portfólio de Markowitz para obter uma carteira ativos com o retorno adequado à legislação e risco minimizado. As simulações realizadas apresentaram retorno acumulado em oito anos superior em 128,45% à meta atuarial e 193,55% ao IBOVESPA que em média representa retorno anual superior em 16,00% e 24,00%, respectivamente. Os resultados foram validados com Fundos de Investimentos selecionados e com uma solução proposta pelo algoritmo evolutivo multiobjetivo NSGA-II, que também foram superados. De posse dos melhores ativos selecionados, pode-se então recomendar sugestões de carteiras para fundos de pensão.Item Avaliação mecânica e de durabilidade de concretos fabricados com resíduo de construção e demolição e cinza de casca de arroz(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-02-04) Gomes, Camila Lacerda; Poggiali, Flavia Spitale Jacques; Santos, Flávio Antônio dos; http://lattes.cnpq.br/9127456811151476; Poggiali, Flavia Spitale Jacques; Santos, Flávio Antônio dos; Figueiredo, Roberto Fraga; Rodrigues, Conrado de Souza; Ludvig, PeterO uso de agregados provenientes de resíduos de construção e demolição (RCD) é uma alternativa aos agregados naturais que pode reduzir o descarte desses resíduos. Seu uso ainda é restrito devido às perdas na qualidade do concreto que normalmente ocorrem com a utilização desse tipo de material. As adições minerais são uma alternativa para compensar as perdas ocorridas com os agregados reciclados e manter a qualidade do concreto. Diante dos problemas ambientais que os resíduos e a produção de cimento geram, torna-se importante estudar alternativas de uso do RCD e redução da fabricação. Além de reduzir a demanda por aterros, o uso desses materiais também evita a extração de matéria-prima para a produção de novos concretos, preservando o meio ambiente. A presente pesquisa teve por objetivo avaliar o uso de agregados graúdos produzidos a partir de RCD em substituição ao agregado natural (AN) e o uso de cinza de casca de arroz (CCA) em substituição parcial ao cimento. Os agregados de RCD (ARCD) passaram por um processo de limpeza e separação de contaminantes para que pudessem ser utilizados. Foram realizados ensaios de caracterização do agregado graúdo de acordo com as normas nacionais. A CCA também foi submetida à ensaios para caracterizar sua composição química e propriedades físicas. Os agregados graúdos foram substituídos em 50 e 100%, em volume, e o cimento em 10, 15 e 20%, em peso. As misturas com diferentes proporções de substituição foram testadas através de ensaios mecânicos e de durabilidade para avaliar a viabilidade do seu uso. Os resultados obtidos nos ensaios de compressão e módulo de elasticidade indicam que o uso da CCA contribuiu para melhorar o desempenho mecânico do concreto com ARCD, obtendo acréscimo de 9,2% na resistência à compressão e 5,1% no módulo de elasticidade. Nos ensaios de durabilidade foram obtidos menores percentuais de absorção de água por imersão para as misturas que utilizaram a CCA.Item Avaliação mecânica e de durabilidade de concretos fabricados com resíduos de construção e demolição(Centro Federal de Educação Tecnológica de Minas Gerais, 2018-01-02) Salles, Pedro Valle; Rodrigues, Conrado de Souza; Pogiali, Flávia Spitale Jacques; http://lattes.cnpq.br/6824739413179983; http://lattes.cnpq.br/2053934196878623; http://lattes.cnpq.br/2374575346465708; Rodrigues, Conrado de Souza; Pogiali, Flávia Spitale Jacques; Ludwig, Peter; Santos, White JoséO uso de agregados reciclados no Brasil é limitado, sendo restrito a funções não estruturais. A grande heterogeneidade dos resíduos de construção e demolição (RCD) dificulta o uso sistemático desses resíduos em concretos estruturais, apesar disso, está aplicação já ocorre em diversos países, tendo respaldo de normas técnicas. Sendo assim, a presente dissertação propõe-se a analisar os efeitos de substituições (25, 50 e 100%) dos agregados naturais (AN) graúdos por agregados reciclados de construção e demolição (três diferentes tipos) em concretos estruturais. São aferidas características mecânicas e de durabilidade desses novos concretos. Tendo em vista a heterogeneidade da composição do RCD, é exposta metodologia de separação e limpeza dos agregados reciclados. Caracterizou-se os agregados naturais e os três tipos de resíduos e confirmou-se a menor qualidade – para fabricação de concretos estruturais – do RCD em relação ao AN, sendo o agregado reciclado de maior qualidade o ARC seguido pelos ARM e ARV. Os RCD apresentam menores massas, maiores absorções de água, maiores volumes de vazios e menores resistências à abrasão, em relação aos agregados naturais. Com os corpos-de-prova de concreto reciclado prontos, realizaram-se os seguintes ensaios: Determinação da consistência pelo abatimento do tronco de cone; Ensaio de resistência à compressão; Determinação do módulo estático de elasticidade à compressão; Ensaio de resistência à tração por compressão diametral; Ensaio de determinação da absorção de água por imersão; Ensaio de resistividade elétrica do concreto; Ensaio de carbonatação acelerada. De maneira geral o uso de RCD afeta, as características do concreto. Trabalhabilidade, resistência à compressão, índice de vazios, absorção de água e módulo de elasticidade são parâmetros afetados negativamente pela adição de RCD. Já a resistência ao avanço da frente de carbonatação é uma característica melhorada com o uso de agregados reciclados. Com relação a existência à tração por compressão diametral, o uso de RCD não afetou esse parâmetro.Item Caracterização estatística de tubos petrolíferos: uma análise por métodos matemáticos e técnicas computacionais para definição de probabilistic design(Centro Federal de Educação Tecnológica de Minas Gerais, 2024-05-21) Mesquita, Henrique Milagres; Silva, Alisson Marques da; http://lattes.cnpq.br/3856358583630209; http://lattes.cnpq.br/8183350227702842; Silva, Alisson Marques da; Braga, Carmela Maria Polito; Dias, Thiago Magela Rodrigues; Leite, Valter Júnior de SouzaO presente trabalho investiga a robustez dos tubos de aço de alta resistência utilizados em plataformas petrolíferas, focando nas pressões de colapso a que esses tubos estão sujeitos. À medida que as operações de extração de petróleo e gás se deslocam para águas mais profundas e atravessam camadas terrestres submersas cada vez mais espessas, os desafios tecnológicos para garantir a integridade dos tubos aumentam significativamente. A segurança e eficiência da extração dependem de métodos precisos de análise e monitoramento que assegurem a resistência dos tubos a altas pressões e grandes variações de temperatura. Este estudo se concentra em descrever como os dados históricos podem ser manipulados para identificar pontos fortes e fracos dos tubos, bem como sua adequação para aplicações específicas. Utilizando técnicas de análise estatística, o trabalho visa prever a pressão de colapso de tubos de aço sem costura, permitindo a concepção de projetos virtuais por meio de simulações computacionais. Além disso, a computação de alto desempenho é empregada para realizar análises comparativas entre abordagens estatísticas e computacionais, avaliando a robustez dos tubos. O objetivo é aprimorar o projeto e a segurança dos sistemas empregados na indústria de óleo e gás.Item Classificação automática de leucócitos em amostras sanguíneas de cães baseada em técnicas de visão computacional e redes neurais convolucionai(Centro Federal de Educação Tecnológica de Minas Gerais, 2023-08-07) Firmino, Rógenes Reis; Pádua, Flávio Luis Cardeal; Rodrigues, Marco Túlio Alves Nolasco; http://lattes.cnpq.br/1025488431740232; http://lattes.cnpq.br/6545115051079964; http://lattes.cnpq.br/6483324686361554; Pádua, Flávio Luis Cardeal; Rodrigues, Marco Túlio Alves Nolasco; Batista, Nathalia Cosse; Leme, Fabiola de Oliveira Paes; Menezes, Gustavo CamposNa rotina clínica veterinária, o hemograma é o exame complementar mais solicitado, cujo objetivo é avaliar as diferentes células sanguíneas do animal para auxiliar no diagnóstico e acompanhamento da evolução das doenças. O hemograma examina as diferentes células do sangue animal de modo a realizar a contagem de hemácias, leucócitos e plaquetas em uma amostra sanguínea. Os métodos atuais para contagem e análise das células sanguíneas podem ser divididos em técnicas manuais, impedância, análise quantitativa da camada flogística, citometria de fluxo e por visão computacional. A técnica manual é morosa e apresentam um fluxo de trabalho repetitivo, o que pode gerar influências negativas nos resultados apresentados, pois além do prazo extenso para se obter essa resposta, ela ainda pode conter os efeitos subjetivos do profissional. Já as técnicas automáticas, apresentam outros tipos de problemas, como a baixa exatidão na contagem diferencial de leucócitos na técnica de impedância e o alto custo de aquisição e manutenção dos equipamentos relacionados à citometria de fluxo. Este trabalho propõe o desenvolvimento de um método para localizar e classificar automaticamente leucócitos caninos por meio de técnicas de visão computacional e aprendizado de máquina, levando em consideração a variação morfológica celular do animal, a partir de imagens de esfregaços sanguíneos. Dessa forma, é possível fornecer resultados mais precisos do que as metodologias existentes, reduzindo o efeito da subjetividade dos resultados, além de diminuir o tempo gasto com a leitura de lâmina do esfregaço, liberando o médico veterinário para o desempenho de outras atividades. Para a construção do método, uma base de imagens com 433 exemplos de amostras sanguíneas de cães foi criada. Em seguida, a partir da análise de diversos espaços de cores, a componente S do espaço HSV proporcionou o melhor realce dos núcleos dos leucócitos. Com o uso de um limiar, as células sanguíneas de interesse foram localizadas na cena, identificando corretamente 1390 elementos celulares de um total de 1436, o que corresponde a uma taxa de acertos de 96.76%. Por fim, com o auxílio da VGG16, uma rede neural convolucional com transferência de aprendizado, uma acurácia média de 98,5% foi obtida para as células das seguintes classes: linfócitos, neutrófilos, eosinófilos, monócitos e metarrubrícitos.Item Classificação de pacientes de acordo com a sensibilidade quimioterápica neoadjuvante por meio da análise de bimodalidade(Centro Federal de Educação Tecnológica de Minas Gerais, 2019-06-03) Santos, Gustavo Henrique Passini; Rodrigues, Thiago de Souza; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/1267702279257917; Rodrigues, Thiago de Souza; Semenchenko, Anton; Silva, Alisson Marques daEste projeto aborda o desenvolvimento de uma nova metodologia visando à caracterização de pacientes com câncer de mama em PCR (pathologic complete response) e NoPCR para tratamento neoadjuvante. Atualmente a comunidade médica enfrenta uma grande dificuldade em encaminhar pacientes com câncer de mama para o tratamento neoadjuvante, quimioterapia realizada com o intuito de diminuir as dimensões do tumor ou curá-lo, pois não existem ferramentas que garantem um nível satisfatório de confiabilidade. Neste contexto, pesquisadores esforçam-se para encontrar métodos que viabilizem uma caracterização mais assertiva dos pacientes, para que dessa forma se evite o desgaste físico e psicológico de uma quimioterapia sem uma redução satisfatória ou cura. Uma tecnologia utilizada para análise genética de pacientes é o microarray, técnica que se baseia no emparelhamento de sondas marcadas com quimiluminescência, radioatividade, ou por um anticorpo, para calcular a expressão genética em uma sonda, 22283 para o contexto desta dissertação, que por sua vez representa um gene, e apresentá-lo de forma numérica. Uma vertente nessa linha de pesquisa é a utilização do cálculo da bimodalidade genética para verificar a influência de determinadas sondas na caracterização de pacientes como PCR e NoPCR. A metodologia proposta visa selecionar sondas significativas por meio de ordenação e comparação entre as 3000 primeiras sondas com maior e menor valor de bimodalidade em pacientes das duas classes, PCR e NoPCR, em uma base de dados previamente utilizada em literatura. Após selecionar as sondas, pacientes oriundos de uma base diferente da utilizada para seleção serão classificados por intermédio de três classificadores utilizados previamente em literatura: Diagonal Linear Discriminant Analisys, Particle Swarm Optimization e Extreme Learning Machine, atestando dessa forma a qualidade da metodologia por meio dos resultados utilizando a curva ROC, sensibilidade e especificidade. Os resultados indicam que as sondas selecionadas detêm funções genéticas relacionadas à proliferação do câncer, portanto são significativas. Obteve-se desempenho estatístico satisfatório para as classificações realizadas com Extreme Learning Machine, já para os outros algoritmos os resultados não apresentaram significância em comparação a outros trabalhos já realizados e referenciados.Item Classificadores para pacientes com câncer de mama de acordo com a sensibilidade quimioterápica neoadjuvante(Centro Federal de Educação Tecnológica de Minas Gerais, 2017-08-30) Carvalho, Pedro Kássio Ribeiro Matos Loureiro de; Rodrigues, Thiago de Souza; http://lattes.cnpq.br/4182923743939851; http://lattes.cnpq.br/1889558989512152; Rodrigues, Thiago de Souza; Sarubbi, João Fernando Machry; Santos, Vinícius Fernandes dosO câncer de mama é tipo de câncer mais comum entre as mulheres. O seu tratamento é geralmente efetuado por meio da utilização de quimioterapia neoadjuvante, também conhecida como pré-operatória, seguida da operação para remoção do tumor e posteriormente a quimioterapia pós-operatória. A quimioterapia neoadjuvante pode ter Resposta Patológica Completa (PCR), quando a doença é eliminada, ou pode possuir Doença Residual (RD). Este projeto busca utilizar informações de subtipos moleculares do câncer de mama, para identificar cinco tipos específicos destas expressões gênicas e, por meio da implementação de diversos tipos diferentes de classificadores, avaliar o efeito da quimioterapia neoadjuvante nos portadores da doença. O melhor classificador obtido foi o Extreme Learning Machine, que possui um tempo de execução baixo e 80% de acerto em média, indicando um bom resultado.Item Cluster geometry optimization using mechanistic random generations to improve genetic algorithms(Centro Federal de Educação Tecnológica de Minas Gerais, 2020-02-20) Romero, Wagner Bernardes Quintão; Galvão, Breno Rodrigues Lamaghere; Fernandes, José Luiz Acebal; http://lattes.cnpq.br/0824886862509279; http://lattes.cnpq.br/7962146839706796; http://lattes.cnpq.br/7432823822659508; Galvão, Breno Rodrigues Lamaghere; Fernandes, José Luiz Acebal; Silva, Mateus XavierNanopartículas são pequenos aglomerados (clusters) com poucos nanômetros de dimensão podendo conter até cerca de um milhão de átomos. O comportamento físico-químico destes clusters está fortemente ligado à sua geometria, número de partículas e composição. Devido à complexidade do problema, a configuração destes clusters não pode ser compreendida puramente por dados experimentais. Portanto, são necessários modelos ou hipóteses para dar sentido aos resultados destes experimentos. Computadores modernos possibilitam o avanço de abordagens ab initio que são capazes de prever a estrutura de menor energia de um cluster mesmo sem nenhum dado experimental, embora sejam eficientes apenas para pequenos clusters demandam alto custo computacional. Fenômenos quânticos contribuem para a dificuldade de se prever a geometria ótima de clusters em casos que se necessitam de grande exatidão. Quanto maior a exatidão esperada para os resultados, mais fenômenos quânticos devem ser levados em consideração, o que aumenta a complexidade do cálculos da energia do cluster. Métodos de busca por soluções, especialmente Algoritmos Genéticos (GA), tem sido usados em uma variedade de estudos apresentando boas soluções em uma maneira altamente paralelizável. Estes GAs se beneficiam de metáforas elaboradas e têm sido constantemente aprimorados ao longo dos anos. Neste trabalho, um método mecanicista para a geração aleatória de clusters é usado a fim de melhorar a eficiência de GAs usados para optimização de clusters.Item Coleta e tratamento de dados sobre a produção técnica brasileira um estudo baseado em patentes(Centro Federal de Educação Tecnológica de Minas Gerais, 2022-03-17) Silva, Raulivan Rodrigo da; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Dias, Thiago Magela Rodrigues; Carvalho Segundo, Washington Luis Ribeiro de; Chalco, Jesús Pascual Mena; Silva, Alisson Marques daEste trabalho busca contribuir com a compreensão do cenário tecnológico nacional, tendo como principal objetivo coletar, agregar e realizar tratamentos em grandes conjuntos de dados de patentes, para que dessa forma seja possível traçar uma visão geral da produção técnica brasileira. Tal análise é fundamentada na coleta e tratamento de patentes depositadas no Instituto Nacional da Propriedade Industrial (INPI) e disponibilizadas no repositório internacional de patentes, Espacenet. Inicialmente, é apresentado um conjunto de estratégias que propiciou a coleta, tratamento e agregação dos dados contidos em documentos de patentes, processo este, que viabilizou a construção de uma base de dados local, flexível e ampla, composta por dados provenientes do INPI e Espacenet. Para agregar mais valor à base de dados, foram também coletados registros da base curricular da Plataforma Lattes do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). A fim verificar a representatividade das patentes registradas nos currículos da plataforma e sua validação junto aos dados coletados na Espacenet. Os dados coletados foram analisados e os resultados são apresentados sob diversas perspectivas, por meio de técnicas de bibliometria, patentometria, mineração de textos e algoritmos de processamento de linguagem natural, foram levantados indicadores quantitativos que caracterizam a produção técnica brasileira, tais como, evolução temporal, áreas do conhecimento que mais depositam patentes de acordo com as classificações obtidas, maiores depositantes, instituições de ensino superior que mais depositam patentes, entre outras. Consequentemente, foi possível salientar que estudar os diversos aspectos da evolução tecnológica com base em informações oriundas de documentos de patentes, além de ser relevante, possibilita compreender tendências tecnológicas e identificar especialistas em determinadas áreas do conhecimento. Além disso, gera uma formulação de políticas e estratégias que potencialize um diferencial competitivo para empresas e organizações atuantes no ramo da inovação e tecnologia. Ademais, destaca-se o grande esforço despendido para análise de um grande volume de dados de patentes, que corrobora com a proposição de uma base de dados local.