99 resultados para Combinatória
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Discutimos, neste trabalho, uma proposta de utilização da história da matemática, como organizador prévio, para o ensino da análise combinatória e da probabilidade. Esse uso da história da matemática tem como objetivo desenvolver os conhecimentos subsunçores, presentes na estrutura cognitiva dos alunos, para que possa ocorrer, de forma significativa, a aprendizagem dos conceitos desses tópicos da matemática, e que serão ensinados, de modo mais detalhado, posteriormente, através dos mapas conceituais. Vale ressaltar que, a utilização dos organizadores prévios do conteúdo, assim como a teoria dos mapas conceituais, têm fundamentação teórica nos trabalhos sobre aprendizagem significativa, do psicólogo educacional David P. Ausubel.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Matemática em Rede Nacional - IBILCE 31075010001P2
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Com o passar do tempo, a demanda elétrica de diversas áreas varia tornando necessária a construção de novos geradores elétricos e a expansão da rede de transmissão de energia elétrica. Nesta dissertação, focamos no problema de expansão da rede de transmissão, assumindo que novos geradores estão construídos para suprir as novas demandas. Essa expansão exige altos investimentos que precisam ser cuidadosamente planejados. O problema pode ser modelado como um problema de otimização não linear inteira mista e pertence à classe dos problemas NP-difíceis. Desta forma, uma abordagem heurística pode ser adequada para a sua solução pois pode vir a fornecer boas soluções em tempo computacional aceitável. Esta dissertação se propõe a apresentar um estudo do problema de planejamento da expansão de redes de transmissão de energia elétrica estático e multiestágio. Mostramos o que já existe na literatura para o que é chamado de problema sem redimensionamento e as inovações feitas por nós para o problema com redimensionamento. Quanto aos métodos de solução, utilizamos a metaheurística GRASP para o problema estático e combinamos o GRASP com o procedimento Backward-Forward quando falamos em problema multiestágio. Nesta dissertação comparamos os resultados computacionais obtidos com resultados encontrados na literatura.
Resumo:
Leishmanioses são um grupo de doenças com um largo espectro de manifestações clínicas, as quais variam desde lesões cutâneas até o envolvimento visceral severo, podendo levar ao óbito. A leishmaniose é, ainda hoje, uma doença negligenciada, estando entre os agravos prioritários do programa de pesquisa sobre doenças da pobreza da Organização Mundial da Saúde (OMS). Além de não haver vacinas disponíveis, a terapia é baseada em medicamentos injetáveis que causam sérios efeitos colaterais, tornando o tratamento inviável para muitos países endêmicos. Drogas derivadas de metal representam um novo arsenal terapêutico antimicrobiano e anti-câncer. Os inibidores de peptidase/agentes quelantes tais como 1,10-fenantrolina e seus derivados, no estado livre de metal ou como ligantes com metais de transição, interferem com a função de vários sistemas biológicos. Em trabalhos anteriores, nosso grupo descreveu que o parasito L. braziliensis produziu moléculas gp63 sensíveis a 1,10-fenantrolina. No presente trabalho, demonstramos a distribuição celular da molécula gp63 em uma cepa virulenta de L. braziliensis por meio de análises bioquímicas e imuno-histoquímica. Depois disso, relatamos os efeitos inibitórios de três compostos derivados da 1,10-fenantrolina, 1,10-fenantrolina-5,6-diona (phendio), [Cu(phendio)2] e [Ag(phendio)2], nas atividades metalopeptidases celulares e extracelulares produzidas por promastigotas de L. braziliensis, bem como as suas ações sobre a viabilidade do parasita e na interação com as células de macrófagos murinos. As moléculas gp63 foram detectadas em compartimentos de parasitos, incluindo membrana citoplasmatica e bolsa flagelar. O tratamento de promastigotas de L. braziliensis durante 1 hora com 1,10-fenantrolina e seus derivados resultou numa inibição significativa da viabilidade celular e mostrou um mecanismo de ação irreversível. Estes inibidores de metalopeptidases induziram apoptose em promastigotas de L. braziliensis, demonstrada através da marcação com anexina/iodeto de propídio e ensaio TUNEL. O pré-tratamento de promastigotas com os inibidores de metalopeptidases induziram uma diminuição na expressão de moléculas de superfície gp63, assim como uma redução significativa no índice de associação com macrófagos. Em paralelo, macrófagos infectados com L. braziliensis e tratados com 1,10-fenantrolina e seus derivados promoveram uma potente redução sobre o número de amastigotas intracelulares. O tratamento de macrófagos com 1,10-fenantrolina e seus derivados não induziram o aumento de óxido nítrico. A ação combinatória sobre a capacidade de crescimento entre os compostos derivados da 1,10-fenantrolina e Glucantime, quando ambos foram utilizados em concentracões sub-inibidoras, também foi observada. In vivo os compostos derivados da 1,10-fenantrolina e seus drivados foram capazes de controlar o tamanho das lesões a partir da terceira semana de tratamento em relação ao controle não tratado em hamsters infectados quando administrado por via intraperitoneal. Os animais tratados com os compostos apresentaram maior resposta intradérmica (DTH) aos antígenos de L. braziliensis. Coletivamente, a 1,10-fenantrolina e seus derivados metálicos apresentam uma nova perspectiva de estudos para o desenvolvimento de novos fármacos anti-L. braziliensis
Resumo:
Esta tese propõe o estudo das relações entre o método infraordinário de observação do cotidiano, desenvolvido por Georges Perec, tendo como foco os romances La Vie mode demploi (1978), do próprio Perec, e Los detectives salvajes (1998), de Roberto Bolaño. O objetivo é, primeiramente, defender a ideia de que Bolaño foi uma espécie de plagiário original de Perec, reconhecendo no romance La Vie mode demploi ressonâncias para a produção de sua mais celebrada obra. Num segundo momento se faz uma analogia entre produção literária e imanência do comum, com destaque para a teoria oulipiana (Oulipo Ouvroir de Littérature Potentielle, espécie de Sala de Costura da Literatura Potencial) como uma arte combinatória. Por fim, apontando semelhanças e diferenças entre esses autores, defendemos a tese de que, apesar das distâncias culturais e geográficas, podemos correlacioná-los pela maneira como potencializam os objetos em suas descrições, revisitam o passado, e tentam subverter a tradição literária. Pode-se afirmar que as possíveis relações entre Perec e Bolaño remontam à revolução narrativa dos anos 70, com a prosa de ambos rasurando certo horizonte estético. E em ambos os romances visualiza-se uma espécie de puzzle literário. Todas essas possibilidades de leitura, interpretação e combinação se encontram nas referidas obras dos escritores elencados. Desse modo, acreditamos que com o método infraordinário de Georges Perec é possível compreender e interpretar melhor alguns escritos de Roberto Bolaño
Resumo:
Esta tese apresenta um estudo sobre modelagem computacional onde são aplicadas meta-heurísticas de otimização na solução de problemas inversos de transferência radiativa em meios unidimensionais com albedo dependente da variável óptica, e meios unidimensionais de duas camadas onde o problema inverso é tratado como um problema de otimização. O trabalho aplica uma meta-heurística baseada em comportamentos da natureza conhecida como algoritmo dos vagalumes. Inicialmente, foram feitos estudos comparativos de desempenho com dois outros algoritmos estocásticos clássicos. Os resultados encontrados indicaram que a escolha do algoritmo dos vagalumes era apropriada. Em seguida, foram propostas outras estratégias que foram inseridas no algoritmo dos vagalumes canônico. Foi proposto um caso onde se testou e investigou todas as potenciais estratégias. As que apresentaram os melhores resultados foram, então, testadas em mais dois casos distintos. Todos os três casos testados foram em um ambiente de uma camada, com albedo de espalhamento dependente da posição espacial. As estratégias que apresentaram os resultados mais competitivos foram testadas em um meio de duas camadas. Para este novo cenário foram propostos cinco novos casos de testes. Os resultados obtidos, pelas novas variantes do algoritmo dos vagalumes, foram criticamente analisados.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.
Resumo:
O desenvolvimento de sistemas computacionais é um processo complexo, com múltiplas etapas, que requer uma análise profunda do problema, levando em consideração as limitações e os requisitos aplicáveis. Tal tarefa envolve a exploração de técnicas alternativas e de algoritmos computacionais para optimizar o sistema e satisfazer os requisitos estabelecidos. Neste contexto, uma das mais importantes etapas é a análise e implementação de algoritmos computacionais. Enormes avanços tecnológicos no âmbito das FPGAs (Field-Programmable Gate Arrays) tornaram possível o desenvolvimento de sistemas de engenharia extremamente complexos. Contudo, o número de transístores disponíveis por chip está a crescer mais rapidamente do que a capacidade que temos para desenvolver sistemas que tirem proveito desse crescimento. Esta limitação já bem conhecida, antes de se revelar com FPGAs, já se verificava com ASICs (Application-Specific Integrated Circuits) e tem vindo a aumentar continuamente. O desenvolvimento de sistemas com base em FPGAs de alta capacidade envolve uma grande variedade de ferramentas, incluindo métodos para a implementação eficiente de algoritmos computacionais. Esta tese pretende proporcionar uma contribuição nesta área, tirando partido da reutilização, do aumento do nível de abstracção e de especificações algorítmicas mais automatizadas e claras. Mais especificamente, é apresentado um estudo que foi levado a cabo no sentido de obter critérios relativos à implementação em hardware de algoritmos recursivos versus iterativos. Depois de serem apresentadas algumas das estratégias para implementar recursividade em hardware mais significativas, descreve-se, em pormenor, um conjunto de algoritmos para resolver problemas de pesquisa combinatória (considerados enquanto exemplos de aplicação). Versões recursivas e iterativas destes algoritmos foram implementados e testados em FPGA. Com base nos resultados obtidos, é feita uma cuidada análise comparativa. Novas ferramentas e técnicas de investigação que foram desenvolvidas no âmbito desta tese são também discutidas e demonstradas.
Resumo:
Esta tese dedica-se ao estudo de hipermapas regulares bicontactuais, hipermapas com a propriedade que cada hiperface contacta só com outras duas hiperfaces. Nos anos 70, S. Wilson classificou os mapas bicontactuais e, em 2003, Wilson e Breda d’Azevedo classificaram os hipermapas bicontactuais no caso não-orientável. Quando esta propriedade é transferida para hipermapas origina três tipos de bicontactualidade, atendendo ao modo como as duas hiperfaces aparecem à volta de uma hiperface fixa: edge-twin, vertextwin and alternate (dois deles são o dual um do outro). Um hipermapa topológico é um mergulho celular de um grafo conexo trivalente numa superfície compacta e conexa tal que as células são 3-coloridas. Ou de maneira mais simples, um hipermapa pode ser visto como um mapa bipartido. Um hipermapa orientado regular é um triplo ordenado consistindo num conjunto finito e dois geradores, que são permutações (involuções) do conjunto tal que o grupo gerado por eles, chamado o grupo de monodromia, actua regularmente no conjunto. Nesta tese, damos uma classificação de todos os hipermapas orientados regulares bicontactuais e, para completar, reclassificamos, usando o nosso método algébrico, os hipermapas não-orientáveis bicontactuais.
Resumo:
This thesis studies properties and applications of different generalized Appell polynomials in the framework of Clifford analysis. As an example of 3D-quasi-conformal mappings realized by generalized Appell polynomials, an analogue of the complex Joukowski transformation of order two is introduced. The consideration of a Pascal n-simplex with hypercomplex entries allows stressing the combinatorial relevance of hypercomplex Appell polynomials. The concept of totally regular variables and its relation to generalized Appell polynomials leads to the construction of new bases for the space of homogeneous holomorphic polynomials whose elements are all isomorphic to the integer powers of the complex variable. For this reason, such polynomials are called pseudo-complex powers (PCP). Different variants of them are subject of a detailed investigation. Special attention is paid to the numerical aspects of PCP. An efficient algorithm based on complex arithmetic is proposed for their implementation. In this context a brief survey on numerical methods for inverting Vandermonde matrices is presented and a modified algorithm is proposed which illustrates advantages of a special type of PCP. Finally, combinatorial applications of generalized Appell polynomials are emphasized. The explicit expression of the coefficients of a particular type of Appell polynomials and their relation to a Pascal simplex with hypercomplex entries are derived. The comparison of two types of 3D Appell polynomials leads to the detection of new trigonometric summation formulas and combinatorial identities of Riordan-Sofo type characterized by their expression in terms of central binomial coefficients.