895 resultados para Anchoring heuristic
Resumo:
We are at the cusp of a historic transformation of both communication system and electricity system. This creates challenges as well as opportunities for the study of networked systems. Problems of these systems typically involve a huge number of end points that require intelligent coordination in a distributed manner. In this thesis, we develop models, theories, and scalable distributed optimization and control algorithms to overcome these challenges.
This thesis focuses on two specific areas: multi-path TCP (Transmission Control Protocol) and electricity distribution system operation and control. Multi-path TCP (MP-TCP) is a TCP extension that allows a single data stream to be split across multiple paths. MP-TCP has the potential to greatly improve reliability as well as efficiency of communication devices. We propose a fluid model for a large class of MP-TCP algorithms and identify design criteria that guarantee the existence, uniqueness, and stability of system equilibrium. We clarify how algorithm parameters impact TCP-friendliness, responsiveness, and window oscillation and demonstrate an inevitable tradeoff among these properties. We discuss the implications of these properties on the behavior of existing algorithms and motivate a new algorithm Balia (balanced linked adaptation) which generalizes existing algorithms and strikes a good balance among TCP-friendliness, responsiveness, and window oscillation. We have implemented Balia in the Linux kernel. We use our prototype to compare the new proposed algorithm Balia with existing MP-TCP algorithms.
Our second focus is on designing computationally efficient algorithms for electricity distribution system operation and control. First, we develop efficient algorithms for feeder reconfiguration in distribution networks. The feeder reconfiguration problem chooses the on/off status of the switches in a distribution network in order to minimize a certain cost such as power loss. It is a mixed integer nonlinear program and hence hard to solve. We propose a heuristic algorithm that is based on the recently developed convex relaxation of the optimal power flow problem. The algorithm is efficient and can successfully computes an optimal configuration on all networks that we have tested. Moreover we prove that the algorithm solves the feeder reconfiguration problem optimally under certain conditions. We also propose a more efficient algorithm and it incurs a loss in optimality of less than 3% on the test networks.
Second, we develop efficient distributed algorithms that solve the optimal power flow (OPF) problem on distribution networks. The OPF problem determines a network operating point that minimizes a certain objective such as generation cost or power loss. Traditionally OPF is solved in a centralized manner. With increasing penetration of volatile renewable energy resources in distribution systems, we need faster and distributed solutions for real-time feedback control. This is difficult because power flow equations are nonlinear and kirchhoff's law is global. We propose solutions for both balanced and unbalanced radial distribution networks. They exploit recent results that suggest solving for a globally optimal solution of OPF over a radial network through a second-order cone program (SOCP) or semi-definite program (SDP) relaxation. Our distributed algorithms are based on the alternating direction method of multiplier (ADMM), but unlike standard ADMM-based distributed OPF algorithms that require solving optimization subproblems using iterative methods, the proposed solutions exploit the problem structure that greatly reduce the computation time. Specifically, for balanced networks, our decomposition allows us to derive closed form solutions for these subproblems and it speeds up the convergence by 1000x times in simulations. For unbalanced networks, the subproblems reduce to either closed form solutions or eigenvalue problems whose size remains constant as the network scales up and computation time is reduced by 100x compared with iterative methods.
Resumo:
The centralized paradigm of a single controller and a single plant upon which modern control theory is built is no longer applicable to modern cyber-physical systems of interest, such as the power-grid, software defined networks or automated highways systems, as these are all large-scale and spatially distributed. Both the scale and the distributed nature of these systems has motivated the decentralization of control schemes into local sub-controllers that measure, exchange and act on locally available subsets of the globally available system information. This decentralization of control logic leads to different decision makers acting on asymmetric information sets, introduces the need for coordination between them, and perhaps not surprisingly makes the resulting optimal control problem much harder to solve. In fact, shortly after such questions were posed, it was realized that seemingly simple decentralized optimal control problems are computationally intractable to solve, with the Wistenhausen counterexample being a famous instance of this phenomenon. Spurred on by this perhaps discouraging result, a concerted 40 year effort to identify tractable classes of distributed optimal control problems culminated in the notion of quadratic invariance, which loosely states that if sub-controllers can exchange information with each other at least as quickly as the effect of their control actions propagates through the plant, then the resulting distributed optimal control problem admits a convex formulation.
The identification of quadratic invariance as an appropriate means of "convexifying" distributed optimal control problems led to a renewed enthusiasm in the controller synthesis community, resulting in a rich set of results over the past decade. The contributions of this thesis can be seen as being a part of this broader family of results, with a particular focus on closing the gap between theory and practice by relaxing or removing assumptions made in the traditional distributed optimal control framework. Our contributions are to the foundational theory of distributed optimal control, and fall under three broad categories, namely controller synthesis, architecture design and system identification.
We begin by providing two novel controller synthesis algorithms. The first is a solution to the distributed H-infinity optimal control problem subject to delay constraints, and provides the only known exact characterization of delay-constrained distributed controllers satisfying an H-infinity norm bound. The second is an explicit dynamic programming solution to a two player LQR state-feedback problem with varying delays. Accommodating varying delays represents an important first step in combining distributed optimal control theory with the area of Networked Control Systems that considers lossy channels in the feedback loop. Our next set of results are concerned with controller architecture design. When designing controllers for large-scale systems, the architectural aspects of the controller such as the placement of actuators, sensors, and the communication links between them can no longer be taken as given -- indeed the task of designing this architecture is now as important as the design of the control laws themselves. To address this task, we formulate the Regularization for Design (RFD) framework, which is a unifying computationally tractable approach, based on the model matching framework and atomic norm regularization, for the simultaneous co-design of a structured optimal controller and the architecture needed to implement it. Our final result is a contribution to distributed system identification. Traditional system identification techniques such as subspace identification are not computationally scalable, and destroy rather than leverage any a priori information about the system's interconnection structure. We argue that in the context of system identification, an essential building block of any scalable algorithm is the ability to estimate local dynamics within a large interconnected system. To that end we propose a promising heuristic for identifying the dynamics of a subsystem that is still connected to a large system. We exploit the fact that the transfer function of the local dynamics is low-order, but full-rank, while the transfer function of the global dynamics is high-order, but low-rank, to formulate this separation task as a nuclear norm minimization problem. Finally, we conclude with a brief discussion of future research directions, with a particular emphasis on how to incorporate the results of this thesis, and those of optimal control theory in general, into a broader theory of dynamics, control and optimization in layered architectures.
Resumo:
This doctoral Thesis defines and develops a new methodology for feeder reconfiguration in distribution networks with Distributed Energy Resources (DER). The proposed methodology is based on metaheuristic Ant Colony Optimization (ACO) algorithms. The methodology is called Item Oriented Ant System (IOAS) and the doctoral Thesis also defines three variations of the original methodology, Item Oriented Ant Colony System (IOACS), Item Oriented Max-min Ant System (IOMMAS) y Item Oriented Max-min Ant Colony System (IOACS). All methodologies pursue a twofold objective, to minimize the power losses and maximize DER penetration in distribution networks. The aim of the variations is to find the algorithm that adapts better to the present optimization problem, solving it most efficiently. The main feature of the methodology lies in the fact that the heuristic information and the exploitation information (pheromone) are attached to the item not to the path. Besides, the doctoral Thesis proposes to use feeder reconfiguration in order to increase the distribution network capacity of accepting a major degree of DER. The proposed methodology and its three variations have been tested and verified in two distribution networks well documented in the existing bibliography. These networks have been modeled and used to test all proposed methodologies for different scenarios with various DER penetration degrees.
Resumo:
Através da análise da revista Nação Armada, publicação de caráter civil-militar dedicada a Segurança Nacional, publicada pelo Exército brasileiro entre 1939 e 1947, o presente trabalho tem como objetivo compreender o processo de construção de um pensamento autoritário e anticomunista no Exército brasileiro neste período, e medir a contribuição do periódico Nação Armada neste processo. Utilizando a Nação Armada como fio condutor, procuramos remontar as formas de pensamento dos homens da época, tendo o mesmo cuidado em analisar conceitos como o de autoritarismo. Metodologicamente, adotamos primeiramente uma abordagem hermenêutica, quando todos os dados relacionados à publicação da Nação Armada (editores, tiragem, formato, autores, artigos, etc.), foram exaustivamente levantados e organizados, e em seguida passamos a uma abordagem heurística, quando passamos à crítica interna do conteúdo da Nação Armada, analisando os conceitos e discursos mais recorrentes. Contextualizamos nossa circunscrição temporal e temática à Era Vargas, e ao momento internacional. Trouxemos à discussão fatos históricos pontuais e locais, cronologicamente anteriores à publicação de Nação Armada, como a Intentona Comunista de 1935, bem como processos mais abrangentes e internacionais como a crise do sistema político liberal, a Segunda Guerra Mundial e o comunismo. Autores como Azevedo Amaral, Francisco Campos e Oliveira Vianna nos forneceram um arcabouço primordial para o entendimento de uma ideologia autoritária no Brasil na primeira metade do século XX. Dentre as várias ramificações que o presente trabalho apresentou, em virtude de período tão rico e transformador da história nacional e mundial, adotamos uma hipótese principal, que vai ao sentido de um processo contínuo de elaboração de ideário anticomunista e autoritário no Exército brasileiro através de construções simbólicas, e de tradições inventadas.
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Com o passar do tempo, a demanda elétrica de diversas áreas varia tornando necessária a construção de novos geradores elétricos e a expansão da rede de transmissão de energia elétrica. Nesta dissertação, focamos no problema de expansão da rede de transmissão, assumindo que novos geradores estão construídos para suprir as novas demandas. Essa expansão exige altos investimentos que precisam ser cuidadosamente planejados. O problema pode ser modelado como um problema de otimização não linear inteira mista e pertence à classe dos problemas NP-difíceis. Desta forma, uma abordagem heurística pode ser adequada para a sua solução pois pode vir a fornecer boas soluções em tempo computacional aceitável. Esta dissertação se propõe a apresentar um estudo do problema de planejamento da expansão de redes de transmissão de energia elétrica estático e multiestágio. Mostramos o que já existe na literatura para o que é chamado de problema sem redimensionamento e as inovações feitas por nós para o problema com redimensionamento. Quanto aos métodos de solução, utilizamos a metaheurística GRASP para o problema estático e combinamos o GRASP com o procedimento Backward-Forward quando falamos em problema multiestágio. Nesta dissertação comparamos os resultados computacionais obtidos com resultados encontrados na literatura.
Resumo:
O objetivo do presente trabalho foi examinar o desempenho das firmas em períodos próximos à realização da colocação secundária, perfazendo uma análise das pesquisas relatadas sobre o evento. Como constatado na literatura, os agentes alienam sua participação acionária por motivos diversos e, dependendo do tipo de informação que o alienante possui, a performance das ações e operacional das firmas tendem a ser robusto em momentos próximos ao fenômeno e fraco conforme vai se distanciando do mesmo. Foi a demonstração dessa repercussão que se buscou comprovar nesse trabalho, tratando de diferenciar os efeitos no mercado quando a venda é feita por um detentor de informação privilegiada da que é realizada por um alienante que não detém esse tipo de informação. O que se depreende da literatura é que os agentes no momento da venda de suas ações tendem a se aproveitar da janela de oportunidade. Apresentando ainda as teorias levantadas sobre o tema, percebe-se que elas possuem um poder de explicação sobre o que ocorre no mercado de capitais no momento da distribuição secundária.
Resumo:
Genetic structure and average long-term connectivity and effective size of mutton snapper (Lutjanus analis) sampled from offshore localities in the U.S. Caribbean and the Florida Keys were assessed by using nuclear-encoded microsatellites and a fragment of mitochondrial DNA. No significant differences in allele, genotype (microsatellites), or haplotype (mtDNA) distributions were detected; tests of selective neutrality (mtDNA) were nonsignificant after Bonferroni correction. Heuristic estimates of average long-term rate of migration (proportion of migrant individuals/generation) between geographically adjacent localities varied from 0.0033 to 0.0054, indicating that local subpopulations could respond independently of environmental perturbations. Estimates of average longterm effective population sizes varied from 341 to 1066 and differed significantly among several of the localities. These results indicate that over time larval drift and interregional adult movement may not be sufficient to maintain population sustainability across the region and that there may be different demographic stocks at some of the localities studied. The estimate of long-term effective population size at the locality offshore of St. Croix was below the minimum threshold size considered necessary to maintain the equilibrium between the loss of adaptive genetic variance from genetic drift and its replacement by mutation. Genetic variability in mutton snapper likely is maintained at the intraregional level by aggregate spawning and random mating of local populations. This feature is perhaps ironic in that aggregate spawning also renders mutton snapper especially vulnerable to overexploitation.
Resumo:
Articulo científico Dalton Transactions
Resumo:
A tese aqui apresentada almeja contribuir para a secular polêmica que recobre o ideal democrático. Com este propósito, buscar-se-á delinear, a partir das contribuições de Chantal Mouffe e Ernesto Laclau, o que poderia ser entendido como um modelo agonístico de democracia, operando, primeiramente, um breve resgate do espectro conceitual que o circunda, cujos extremos podem ser encontrados nas obras de Jürgen Habermas e Carl Schmitt, em relação às quais, segundo a hipótese perseguida ao longo do prólogo e do primeiro capítulo, tal modelo assumiria feições sintéticas. Em seguida, o agonismo será utilizado como ferramenta heurística mobilizada para responder à seguinte pergunta: o governo de Hugo Chávez representa uma ruptura ou uma continuidade, conquanto ao regime jurídico-político que o precedera? De acordo com este objetivo, no curso do segundo e do terceiro capítulos será construída uma narrativa que visa a atender ao desdobramento da hipótese central deste trabalho acerca da pertinência do modelo agonístico de democracia, entendido como ferramenta analítica particularmente adequada ao estudo do fenômeno chavista. Tal suposição, por sua vez, desdobrar-se-á em dois eixos intrinsecamente relacionados: um descritivo e outro normativo. No tocante ao primeiro, os esforços concentrar-se-ão na demonstração da adequação do conceito laclauniano de populismo para o entendimento do tipo de vínculo representativo estabelecido entre Hugo Chávez e seus eleitores. Quanto ao segundo eixo, espera-se ressaltar, através das considerações de Laclau mas, principalmente, Mouffe, os riscos inerentes a este tipo de representação, assim como possíveis formas de contorná-los.
Resumo:
A presente tese tem por objetivo principal estudar a legitimação jurídico-moral da regulação estatal. Trata-se de tema de grande relevância e extrema atualidade em decorrência de dois fatores. Por um lado, desde o fenômeno da virada kantiana e da retomada da preocupação com o estabelecimento de uma teoria da justiça, tornou-se necessária a análise de justificação jurídico-moral de toda e qualquer instituição político-jurídica positivada. Por outro lado, entre as inúmeras instituições político-jurídicas positivadas, cresce cada vez mais a utilização das medidas jurídicas regulatórias, através das quais o Poder Público direciona ou controla a conduta dos agentes com o intuito de atingir determinada finalidade. Instituto econômico que é, ao interferir na alocação de riquezas, bens e serviços no mercado, a regulação estatal há tempos já vem sendo objeto de análise em uma perspectiva de legitimação econômica. Tradicionalmente, ainda dentro do paradigma da racionalidade, os economistas sempre apontaram as falhas de mercado como as razões a justificar as regulações estatais em um viés econômico. Mais recentemente, por sua vez, os adeptos da economia comportamental, rompendo ou relativizando as lições da Rational Choice Theory, têm apontado também as ações irracionais em heurística como razões a justificar as regulações estatais em um viés econômico. Ocorre, entretanto, que a regulação estatal é um instituto interdisciplinar. Ao direcionar ou controlar a conduta dos indivíduos, limitando ou implementando direitos e liberdades, a regulação constitui instituto simultaneamente jurídico e moral. A presente tese, portanto, buscará apresentar as razões a servir de justificação para a regulação estatal em uma perspectiva jurídico-moral. Neste ponto, adotar-se-á como paradigma de aferição de legitimação jurídico-moral das instituições político-jurídicas positivadas (entre as quais as regulações estatais) um liberalismo-republicano, consistente na compatibilização do liberalismo-igualitário com um republicanismo moderado. Desta forma, o estudo buscará defender a possibilidade de a legitimação jurídico-moral das diversas regulações estatais encontrar fundamento em um ou alguns de três valores jurídico-morais: a autonomia individual privada, as condições igualitárias e a autonomia pública. No que diz respeito à implementação da autonomia individual privada e das condições igualitárias, primeiramente, a tese defenderá a possibilidade de ser realizada uma nova leitura jurídico-moral dos institutos econômicos das falhas de mercado e das ações irracionais em heurística. Neste sentido, o conceito de falhas de mercado e o conceito de ações irracionais em heurística, em uma leitura jurídico-moral como razões a justificar a legitimação das regulações estatais, devem ser entendidos como situações em que o atuar livre dos agentes no mercado viole ou deixe de implementar os valores jurídico-morais fundamentais da autonomia individual privada e das condições igualitárias. Ainda no que diz respeito às influências liberal-igualitárias, a tese sustentará que, mesmo na inexistência de falhas de mercado ou de ações irracionais em heurística, será possível o estabelecimento de regulações estatais que encontrem justificação no valor jurídico-moral fundamental da igualdade, desde que tais regulações estejam destinadas a implementar as condições igualitárias mínimas necessárias à manutenção da própria autonomia individual privada e da dignidade humana. Por outro lado, no que diz respeito às influências republicanas, será exposto que as regulações estatais podem encontrar legitimação jurídico-moral também no valor jurídico-moral fundamental da autonomia pública. A saber, as regulações podem se encontrar legitimadas jurídico-moralmente quando da implementação dos projetos e políticas deliberados pelos cidadãos e pela sociedade no exercício da soberania popular, desde que tais projetos coletivos não violem os requisitos mínimos de dignidade humana dos indivíduos. A tese defenderá que os princípios da proporcionalidade e da igualdade podem exercer um papel de destaque na análise de legitimação jurídico-moral das regulações estatais. O princípio da proporcionalidade, neste ponto, será útil instrumental metodológico na aferição de legitimação jurídico-moral de uma medida regulatória em uma perspectiva interna, quando da aferição da relação estabelecida entre os meios e os fins da regulação. O princípio da igualdade, por sua vez, será útil instrumental metodológico na aferição de legitimação jurídico-moral de uma medida regulatória em uma perspectiva comparativa entre as diversas medidas regulatórias existentes. Por fim, uma vez enfrentados os pontos mais sensíveis pertinentes à justificação de toda e qualquer medida regulatória bem como estabelecida uma teoria geral acerca da legitimação jurídico-moral da regulação estatal, a presente tese realizará um estudo de caso acerca da legitimação jurídico-moral especificamente das regulações que utilizam argumentos de natureza paternalista. Trata-se de regulações que, ao direcionar a conduta de agentes com o intuito de zelar por bens, direitos e interesses destes próprios indivíduos cuja liberdade é restringida, apresentam-se extremamente controversas. Será exposto que, desde a clássica obra On Liberty de JONH STUART MILL, o paternalismo jurídico vem sendo tradicionalmente associado a uma conotação pejorativa de violação aos valores jurídico-morais fundamentais. A tese, porém, adotará posição segundo a qual as regulações paternalistas podem eventualmente encontrar legitimação jurídico-moral na promoção ou proteção dos valores jurídico-morais fundamentais da autonomia individual privada e da igualdade. Além disto, defenderá o estudo que os institutos econômicos das falhas de mercado da assimetria de informações e dos problemas de coordenação bem como os institutos econômicos das ações irracionais em heurística, adotados na nova leitura jurídico-moral proposta, servirão de instrumental útil na identificação das situações em que tais regulações paternalistas se encontram legitimadas jurídico-moralmente diante da premissa liberal-republicana.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
Comunicación a congreso (póster): 12th European Biological Inorganic Chemistry Conference (EuroBIC 12) Zurich, August 24-28 2014.
Resumo:
Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.
Resumo:
Este trabalho objetiva investigar os processos de produção de sentidos na construção de políticas curriculares no entre-lugar Educação Infantil - Ensino Fundamental, analisando as articulações/mediações/negociações firmadas nas arenas em que são produzidos os sentidos que se hegemonizam na construção do currículo, observando e compreendendo a Coordenação Pedagógica como instância de articulação/mediação/negociação. Para tanto, optei por observar no contexto amplo no Colégio de Aplicação do Instituto Superior do Rio de Janeiro (CAp-ISERJ) os encontros dos professores da Educação Infantil e Ensino Fundamental realizados como espaço de produção curricular, ancorando-se na perspectiva metodológica da abordagem do ciclo de políticas desenvolvido por Stephen J. Ball, que considera os contextos de influências, contextos da produção de textos e contextos da prática instâncias que não estão segmentadas, superando a ideia de que as políticas curriculares são produzidas pelos governos e a escola as implementa. Esse entendimento insere ainda a Coordenação Pedagógica no contexto que rompe com a perspectiva geralmente a ela associada, de esfera administrativa de onde emana ou representa as políticas governamentais, mas como esfera marcada pela ação de articulação por meio de mediação e negociação no processo de construção dos textos na escola. Introduzo as questões da pesquisa trazendo inicialmente os caminhos pelos quais a pesquisa foi se delineando e os objetivos. No primeiro capítulo situo a pesquisa, o cotidiano escolar e as situações provocadas pela Lei Estadual n 5.488/09 no espaço do CAp-ISERJ. Através dos textos das legislações e orientações curriculares sobre a ampliação do Ensino Fundamental para nove anos, observo seu processo de construção da legislação em vigor a partir do olhar para o lugar da criança com seis anos, em âmbito nacional e com seis/cinco no âmbito estadual. No segundo capítulo, proponho o diálogo a partir da abordagem metodológica do ciclo de políticas em Ball. As leituras de Bhabha e Bakhtin se configuram no horizonte de entendimento dos processos discursivos no espaço dos encontros dos professores como espaço pesquisado. A postura desconstrutivista perpassou a construção do terceiro capítulo; a análise foi desenvolvida a partir dos vieses da integração, como discurso na escola e a criança com cinco anos e como esses sentidos vêm sendo disputados na escola; essa leitura possibilitou o desdobramento das questões relativas a infância, escolarização e ludicidade no processo de negociação das produções de políticas curriculares no contexto da prática. Na impossibilidade da totalidade, as questões inerentes à construção da pesquisa e os fios que foram puxados como aberturas de reflexões não concluem ou não fixam as considerações apresentadas.