981 resultados para branch prefetch
Resumo:
In this work we extend to the multistage case two recent risk averse measures for two-stage stochastic programs based on first- and second-order stochastic dominance constraints induced by mixed-integer linear recourse. Additionally, we consider Time Stochastic Dominance (TSD) along a given horizon. Given the dimensions of medium-sized problems augmented by the new variables and constraints required by those risk measures, it is unrealistic to solve the problem up to optimality by plain use of MIP solvers in a reasonable computing time, at least. Instead of it, decomposition algorithms of some type should be used. We present an extension of our Branch-and-Fix Coordination algorithm, so named BFC-TSD, where a special treatment is given to cross scenario group constraints that link variables from different scenario groups. A broad computational experience is presented by comparing the risk neutral approach and the tested risk averse strategies. The performance of the new version of the BFC algorithm versus the plain use of a state-of-the-artMIP solver is also reported.
Resumo:
二维相位展开方法是近年来较为活跃、引起关注的一个研究课题,它在许多测量应用中有着重要的作用。尽管掩膜阻断算法在多个领域都有成功应用实例,该算法存在着固有的缺陷。为了克服掩膜阻断算法的缺陷,综合分支阻断方法和质量导引方法的优点,提出一种基于分支设置的质量导引相位展开新算法。它先以一个初始质量图来引导分支的设置,然后把分支对应的相位质量设置为最低,从而产生一个新的质量图,最后按新质量图来引导相位展开,并使用几个包裹相位图来验证此方法的有效性。计算机模拟相位图和实际相位图的相位展开结果表明,在存在复杂轮廓不连续
Resumo:
Climate change is arguably the most critical issue facing our generation and the next. As we move towards a sustainable future, the grid is rapidly evolving with the integration of more and more renewable energy resources and the emergence of electric vehicles. In particular, large scale adoption of residential and commercial solar photovoltaics (PV) plants is completely changing the traditional slowly-varying unidirectional power flow nature of distribution systems. High share of intermittent renewables pose several technical challenges, including voltage and frequency control. But along with these challenges, renewable generators also bring with them millions of new DC-AC inverter controllers each year. These fast power electronic devices can provide an unprecedented opportunity to increase energy efficiency and improve power quality, if combined with well-designed inverter control algorithms. The main goal of this dissertation is to develop scalable power flow optimization and control methods that achieve system-wide efficiency, reliability, and robustness for power distribution networks of future with high penetration of distributed inverter-based renewable generators.
Proposed solutions to power flow control problems in the literature range from fully centralized to fully local ones. In this thesis, we will focus on the two ends of this spectrum. In the first half of this thesis (chapters 2 and 3), we seek optimal solutions to voltage control problems provided a centralized architecture with complete information. These solutions are particularly important for better understanding the overall system behavior and can serve as a benchmark to compare the performance of other control methods against. To this end, we first propose a branch flow model (BFM) for the analysis and optimization of radial and meshed networks. This model leads to a new approach to solve optimal power flow (OPF) problems using a two step relaxation procedure, which has proven to be both reliable and computationally efficient in dealing with the non-convexity of power flow equations in radial and weakly-meshed distribution networks. We will then apply the results to fast time- scale inverter var control problem and evaluate the performance on real-world circuits in Southern California Edison’s service territory.
The second half (chapters 4 and 5), however, is dedicated to study local control approaches, as they are the only options available for immediate implementation on today’s distribution networks that lack sufficient monitoring and communication infrastructure. In particular, we will follow a reverse and forward engineering approach to study the recently proposed piecewise linear volt/var control curves. It is the aim of this dissertation to tackle some key problems in these two areas and contribute by providing rigorous theoretical basis for future work.
Resumo:
O Legislativo é vital para o autogoverno coletivo e para a contenção do poder. Impõe-se revigorá-lo. Esta dissertação traz propostas para incrementar a legitimidade do Poder Legislativo que independem da reforma política. A primeira proposta consiste na correção de algumas práticas comprometedoras da atuação do Legislativo, quais sejam, a falta de apreciação do veto, a atual forma de elaboração e execução da lei orçamentária, o poder excessivo dos líderes e a tutela jurisdicional limitada do devido processo legislativo. A segunda proposta reside no fortalecimento das comissões temáticas, arenas mais adequadas do que o Plenário para desenvolver o potencial deliberativo do Parlamento. Esses órgãos fracionários podem empregar a avaliação de impacto, recurso que se destina a aprimorar a legislação. A terceira proposta corresponde à regulamentação do lobby. A institucionalização dessa atividade revela-se essencial para imprimir-lhe transparência, de modo a possibilitar o controle, e para minimizar o desequilíbrio no acesso aos tomadores de decisão.
Resumo:
The wave-theoretical analysis of acoustic and elastic waves refracted by a spherical boundary across which both velocity and density increase abruptly and thence either increase or decrease continuously with depth is formulated in terms of the general problem of waves generated at a steady point source and scattered by a radially heterogeneous spherical body. A displacement potential representation is used for the elastic problem that results in high frequency decoupling of P-SV motion in a spherically symmetric, radially heterogeneous medium. Through the application of an earth-flattening transformation on the radial solution and the Watson transform on the sum over eigenfunctions, the solution to the spherical problem for high frequencies is expressed as a Weyl integral for the corresponding half-space problem in which the effect of boundary curvature maps into an effective positive velocity gradient. The results of both analytical and numerical evaluation of this integral can be summarized as follows for body waves in the crust and upper mantle:
1) In the special case of a critical velocity gradient (a gradient equal and opposite to the effective curvature gradient), the critically refracted wave reduces to the classical head wave for flat, homogeneous layers.
2) For gradients more negative than critical, the amplitude of the critically refracted wave decays more rapidly with distance than the classical head wave.
3) For positive, null, and gradients less negative than critical, the amplitude of the critically refracted wave decays less rapidly with distance than the classical head wave, and at sufficiently large distances, the refracted wave can be adequately described in terms of ray-theoretical diving waves. At intermediate distances from the critical point, the spectral amplitude of the refracted wave is scalloped due to multiple diving wave interference.
These theoretical results applied to published amplitude data for P-waves refracted by the major crustal and upper mantle horizons (the Pg, P*, and Pn travel-time branches) suggest that the 'granitic' upper crust, the 'basaltic' lower crust, and the mantle lid all have negative or near-critical velocity gradients in the tectonically active western United States. On the other hand, the corresponding horizons in the stable eastern United States appear to have null or slightly positive velocity gradients. The distribution of negative and positive velocity gradients correlates closely with high heat flow in tectonic regions and normal heat flow in stable regions. The velocity gradients inferred from the amplitude data are generally consistent with those inferred from ultrasonic measurements of the effects of temperature and pressure on crustal and mantle rocks and probable geothermal gradients. A notable exception is the strong positive velocity gradient in the mantle lid beneath the eastern United States (2 x 10-3 sec-1), which appears to require a compositional gradient to counter the effect of even a small geothermal gradient.
New seismic-refraction data were recorded along a 800 km profile extending due south from the Canadian border across the Columbia Plateau into eastern Oregon. The source for the seismic waves was a series of 20 high-energy chemical explosions detonated by the Canadian government in Greenbush Lake, British Columbia. The first arrivals recorded along this profile are on the Pn travel-time branch. In northern Washington and central Oregon their travel time is described by T = Δ/8.0 + 7.7 sec, but in the Columbia Plateau the Pn arrivals are as much as 0.9 sec early with respect to this line. An interpretation of these Pn arrivals together with later crustal arrivals suggest that the crust under the Columbia Plateau is thinner by about 10 km and has a higher average P-wave velocity than the 35-km-thick, 62-km/sec crust under the granitic-metamorphic terrain of northern Washington. A tentative interpretation of later arrivals recorded beyond 500 km from the shots suggests that a thin 8.4-km/sec horizon may be present in the upper mantle beneath the Columbia Plateau and that this horizon may form the lid to a pronounced low-velocity zone extending to a depth of about 140 km.
Resumo:
Part I. The regions of sequence homology and non-homology between the DNA molecules of T2, T4, and T6 have been mapped by the electron microscopic heteroduplex method. The heteroduplex maps have been oriented with respect to the T4 genetic map. They show characteristic, reproducible patterns of substitution and deletion loops. All heteroduplex molecules show more than 85% homology. Some of the loop patterns in T2/T4 heteroduplexes are similar to those in T4/T6.
We find that the rII, the lysozyme and ac genes, the D region, and gene 52 are homologous in T2, T4, and T6. Genes 43 and 47 are probably homologous between T2 and T4. The region of greatest homology is that bearing the late genes. The host range region, which comprises a part of gene 37 and all of gene 38, is heterologous in T2, T4, and T6. The remainder of gene 37 is partially homologous in the T2/T4 heteroduplex (Beckendorf, Kim and Lielausis, 1972) but it is heterologous in T4/T6 and in T2/T6. Some of the tRNA genes are homologous and some are not. The internal protein genes in general seem to be non-homologous.
The molecular lengths of the T-even DNAs are the same within the limit of experimental error; their calculated molecular weights are correspondingly different due to unequal glucosylation. The size of the T2 genome is smaller than that of T4 or T6, but the terminally repetitious region in T2 is larger. There is a length distribution of the terminal repetition for any one phage DNA, indicating a variability in length of the DNA molecules packaged within the phage.
Part II. E. coli cells infected with phage strains carrying extensive deletions encompassing the gene for the phage ser-tRNA are missing the phage tRNAs normally present in wild type infected cells. By DNA-RNA hybridization we have demonstrated that the DNA complementary to the missing tRNAs is also absent in such deletion mutants. Thus the genes for these tRNAs must be clustered in the same region of the genome as the ser-tRNA gene. Physical mapping of several deletions of the ser-tRNA and lysozyme genes, by examination of heteroduplex DNA in the electron microscope, has enabled us to locate the cluster, to define its maximum size, and to order a few of the tRNA genes within it. That such deletions can be isolated indicates that the phage-specific tRNAs from this cluster are dispensable.
Part III. Genes 37 and 38 between closely related phages T2 and T4 have been compared by genetic, biochemical, and hetero-duplex studies. Homologous, partially homologous and non-homologous regions of the gene 37 have been mapped. The host range determinant which interacts with the gene 38 product is identified.
Part IV. A population of double-stranded ØX-RF DNA molecules carrying a deletion of about 9% of the wild-type DNA has been discovered in a sample cultivated under conditions where the phage lysozyme gene is nonessential. The structures of deleted monomers, dimers, and trimers have been studied by the electron microscope heteroduplex method. The dimers and trimers are shown to be head-to-tail repeats of the deleted monomers. Some interesting examples of the dynamical phenomenon of branch migration in vitro have been observed in heteroduplexes of deleted dimer and trimer strands with undeleted wild-type monomer viral strands.
Resumo:
La asignatura Investigación Operativa es una asignatura cuatrimestral dedicada fundamentalmente a la introducción de los modelos deterministas más elementales dentro de la investigación de operaciones. Esta asignatura se ha impartido en los últimos años en el tercer curso de la Licenciatura de Administración y Dirección de Empresas (L.A.D.E.) en la Facultad de Ciencias Económicas y Empresariales de la UPV/EHU. Esta publicación recoge los problemas resueltos propuestos en los exámenes de las distintas convocatorias entre los años 2005 y 2010. El temario oficial de la asignatura desglosado por temas es el siguiente: 1. Programación lineal entera: 1.1 Formulación de problemas de Programación Lineal Entera. 1.2 Método de ramificación y acotación (Branch and Bound). 1.3 Otros métodos de resolución. 2. Programación multiobjetivo y por metas: 2.1 Introducción a la Programación Multiobjetivo. 2.2 Programación por metas. 2.3 Programación por prioridades. 3. Modelos en redes: 3.1 Conceptos básicos. 3.2 Problema del árbol de expansión minimal. 3.3 Problema del camino más corto. 3.4 Problema del camino más largo. 3.5 Problema del flujo máximo. 3.6 Problema de asignación. 3.7 Planificación de Proyectos: Métodos C.P.M. y P.E.R.T.
Resumo:
Tris-thenoyltrifluroacetonate of Nd3+ has been prepared and dissolved in DMF solation with very high concentration, and the contained hydrogen has not been substituted by deuterium. The absorption spectrum, emission spectrum, and fluorescence lifetime of the solution were measured. Very obvious characteristic fluorescence peaks were observed at 898 and 1058 nm. Based on Judd-Ofelt theory, three intensity parameters were obtained: Omega(2) = 4.9 x 10(-20) cm(2), Omega(4) = 5.1 x 10(-20) cm(2) and Omega(6) = 2.5 x 10(-20) cm(2). Line strengths S-cal, oscillator strengths f(cal), radiative transition probabilities A(ed), radiative lifetimes tau(r) and branch ratios beta were calculated too. The measured lifetime tau of 1058 nm peak is 460 mu s, and that of 898 nm 505 mu s. Comparison between theoretically computed radiative lifetime tau(r)(682 mu s) and the measured lifetime indicates that the non-radiative transition probability of the solution is very low and the fluorescence quantum efficiency very high. High values of three intensity parameters prove the high asymmetric surroundings of Nd3+, which is important for Nd3+ to absorb the excitation energy. Spectropic quality factor Omega(4)/Omega(6) > 1 makes radiation at 898 nm stronger than at 1058 nm.
Resumo:
Devido a sua alta incidência, mortalidade e custos elevados, o câncer de mama feminino é considerado um problema de saúde pública no Brasil. Sua etiologia envolve uma interação de diversos fatores denominados de risco os quais podem ser ambientais e genéticos. A história familiar positiva para câncer de mama é um importante fator de risco para o desenvolvimento dessa patologia. Conhecer esses fatores e as medidas de proteção permite que mulheres com risco elevado possam criar estratégias pessoais que venham minimizar os danos causados pela doença. Diante do exposto, o presente estudo tem como objetivos avaliar o nível de conhecimento de mulheres acerca do risco de desenvolverem câncer de mama em decorrência do vínculo familiar com a população portadora desta neoplasia matriculada no Hospital do Câncer III, unidade do Instituto Nacional de Câncer (INCA) especializada no tratamento e controle do câncer de mama, localizada no município do Rio de Janeiro, Brasil; descrever as características sociodemográficas das mulheres familiares de pacientes portadoras de câncer de mama e descrever a história reprodutiva e hormonal, bem como seus hábitos de cuidado com a saúde. Metodologia: trata-se de um estudo exploratório sob a perspectiva quantitativa, transversal e descritiva com 52 mulheres que acompanhavam suas familiares internadas em unidade clínica e cirúrgica do Hospital do Câncer III. A coleta de dados ocorreu no período entre julho e agosto de 2011. A técnica de amostragem adotada foi a não probabilística, intencional Para o cálculo amostral aplicou-se a fórmula de população infinita. Foram selecionadas as seguintes variáveis para compor o estudo: aspectos sociodemográficos, aspectos da vida reprodutiva e hormonal, aspectos de cuidados com a saúde e aspectos de esclarecimento relacionados à patologia/doença. Realizou-se entrevista estruturada com utilização de um formulário composto por 63 questões. A descrição das variáveis foi feita através de frequência simples e porcentagem. Resultados: 61,5% eram filhas, 34,6% eram irmãs e 3,8% eram mães, 40,4% moram no município do Rio de Janeiro, 86,4% encontram-se na faixa etária entre 29 e acima de 51 anos de idade, 32% são pardas, 46,1% apresentavam 2 grau completo, 46,2% são do lar, 15,4% tiveram menarca precoce, 7,7 % tiveram na menopausa tardia, 7,7% fizeram Terapia de Reposição Hormonal, 38,5% nunca engravidaram, 3,8% engravidaram após 30 anos, 3,8% não amamentaram, 42,4% usam anticoncepcional hormonal por mais de 5 anos e 40,4% nunca fizeram descanso ou faz por tempo inferior a 6 meses, 7,7% e 7,6% nunca fizeram e apresenta mais de 24 meses que fizeram exame ginecológico. Quanto ao grau de esclarecimento 34% concordaram com as afirmativas sobre fatores de risco, 65% concordaram com medidas preventivas e os profissionais de saúde foram os que mais transmitiram informação sobre o câncer de mama. Conclusão: ser familiar de primeiro grau associado à falta de esclarecimento sobre a doença torna essas mulheres mais vulneráveis em relação à população geral feminina. Torna-se oportuno para a enfermagem estratégias educativas que visem à promoção da saúde e que contribuam para a modificação do panorama da doença, em razão da detecção mais precoce.
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
Este trabalho se propõe a desvendar os contornos principiológicos e instrumentais daquilo que doravante iremos chamar Justo Processo Coletivo Laboral, ramo especialíssimo do processo dedicado à resolução de lides trabalhistas metaindividuais. O foco de nossas atenções é a tutela que é prestada em favor e não contra a coletividade. A falta de disposições específicas na CLT a respeito da tutela de direitos difusos, coletivos e individuais homogêneos próprios à realidade do trabalho torna imperiosa a inserção do Processo Trabalhista no circuito normativo de tutela coletiva, no chamado microssistema coletivo de tutela, composto, dentre outros diplomas, pelo Código de Defesa do Consumidor e pela Lei da Ação Civil Pública. A acomodação do Processo do Trabalho no ambiente coletivista será feita à luz da constelação de princípios constitucionais do processo e sob influxo do paradigma processual instrumental. A partir da identificação das principais barreiras que repelem o trabalhador do Poder Judiciário, procura-se demonstrar de que modo podem as ações coletivas contribuir para sua superação e assim para alavancar e universalizar o acesso à justiça, meta síntese para a qual convergem todos os esforços da processualística contemporânea. Apresentadas suas nuanças principiológicas, parte-se para a análise de seus principais institutos e do modo como deverá ser operacionalizado no dia-a-dia, isto é, de como irá funcionar. A crise de efetividade do processo de bases individualistas, especialmente para o trabalhador hipossuficiente, acentua a importância do devido processo legal coletivo do trabalho, instrumentalmente vocacionado a tornar justo o embate Capital X Trabalho e a conduzir grupos de trabalhadores de uma só vez à justa ordem jurídico-social.
Resumo:
A presente tese investiga as dimensões históricas, filosóficas e políticas do conceito de comum, a partir de uma problematização influenciada pelos estudos marxistas heterodoxos e pelo pensamento de Michel Foucault. O percurso teórico inicia com a análise da hipótese da tragédia do comum, veiculado por Garret Hardin em um famoso artigo na Revista Science, em 1968. O desenvolvimento posterior busca compreender tal formulação a partir das análises foucaultianas sobre a arte de governar liberal e ngeoliberal, com ênfase nos conceitos de biopolítica e produção de subjetividade. Esse campo de análise é preenchido por estudos da corrente denominada bioeconomia, que busca entrelaçar a biopolítica com a compreensão das atuais formas de crise e acumulação capitalistas. A partir de uma pesquisa que se direciona para o campo definido como marxismo heterodoxo, busca-se estudar a relação entre o comum e os novos modos de acumulação primitiva, percebendo como o primeiro conceito passa a ocupar progressivamente essa corrente de estudos críticos. Nesse domínio, enfatiza-se a concepção de acumulação primitiva social e de subjetividade, com base em estudos de Karl Marx (Grundrisse), Antonio Negri e Jason Read. O último capítulo é dedicado ao conceito de produção do comum, tendo como ponto de partida o trabalho de Jean-Luc-Nancy e, principalmente, as investigações de Antonio Negri e Michael Hardt. O comum aparece como conceito central para a compreensão da produção biopolítica da riqueza social no capitalismo contemporâneo, e também sua expropriação por novos modos de acumulação. Por outro lado, o comum também emerge como antagonismo ao capital e à dicotomia público-privado, apontando para novas formas de compreender o comunismo.
Resumo:
A planar waveguide laser operating in a negative branch unstable resonator is Q-switched by an acoustooptic mod latorin anew configuration, providing effective, high-speed switching. The laser using a 200-mu m Nd:YAG core, face pumped by 10 laser diode bars, has produced 100-W output in a good beam quality at 100-kHz pulse rate, and 4.5 mJ at lower frequency with 15-ns pulse duration.
Resumo:
为了同时补偿固体增益介质的热致双折射及热透镜效应,进一步提高重复频率1 kHz激光二极管(LD)侧向抽运高平均功率电光调Q Nd:YAG激光器的输出功率,设计了一种完全消除热退偏损耗的双调Q开关谐振腔结构,此结构在传统调Q谐振腔的基础上沿着偏振片的退偏方向增加了一个调Q谐振支路,并使得激光从增益介质方向输出。实验结果表明,此激光器的单脉冲能量比单Q开关结构的非补偿腔输出能量高出74.7%。当侧面抽运的激光二极管输出脉冲能量达到307 mJ时,激光输出能量达到26.2 mJ,光-光转换效率为8.5%,光束发
Resumo:
Output beam quality of edge pumped planar waveguide lasers with confocal unstable resonators is investigated by diffraction methods, taking into account gain saturation, asymmetric pumping, and beam interaction. The influences of pumping uniformity, doping concentration, cavity length and effective Fresnel number are analyzed with respect to output beam quality and pumping efficiency. It is found that good beam quality and high efficiency can be obtained with asymmetric pumping and optimized negative branch confocal unstable resonators. (c) 2005 The Optical Society of Japan.