896 resultados para Jump linear quadratic (JLQ) control
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.
Resumo:
In this article, a model for the determination of displacements, deformations and tensions of a submarine pipeline during the construction is presented. The process is carried out from an initial floating situation to the final laying position on the seabed. The existence of currents and small waves are also considered. Firstly, this technique, usually applied to polyethylene pipelines, is described in this paper as well as some real world examples, as well as the variables that can be modified to control the behavior of the structure. A detailed description of the actions in this process is considered, specially the ones related to marine environment, as Archimedes force, current and sea waves. The behavior of the pipeline is modeled with a non linear elasto dynamic model where geometric non linearities are taken into account. A 3-D beam model, without cross section deformation effects, is developed. Special care is taken in the numerical analysis, developed within an updated lagrangian formulation framework, with the sea bed contact, the follower forces due to the external water pressures and the dynamic actions. Finally, some subroutines are implemented into ANSYS to simulate the two dimensional case, where the whole construction process is achieved. With this software, a sensibility analysis of the bending moments, axial forces and stresses obtained with different values of the control variables in order to optimize the construction steps. These control variables are, the axial load in the pipe, the inundated inner length and the distance of the control barge from the coast.
Resumo:
We are studying the intracellular trafficking of the multispanning membrane protein Ste6p, the a-factor transporter in Saccharomyces cerevisiae and a member of the ATP-binding cassette superfamily of proteins. In the present study, we have used Ste6p as model for studying the process of endoplasmic reticulum (ER) quality control, about which relatively little is known in yeast. We have identified three mutant forms of Ste6p that are aberrantly ER retained, as determined by immunofluorescence and subcellular fractionation. By pulse-chase metabolic labeling, we demonstrate that these mutants define two distinct classes. The single member of Class I, Ste6–166p, is highly unstable. We show that its degradation involves the ubiquitin–proteasome system, as indicated by its in vivo stabilization in certain ubiquitin–proteasome mutants or when cells are treated with the proteasome inhibitor drug MG132. The two Class II mutant proteins, Ste6–13p and Ste6–90p, are hyperstable relative to wild-type Ste6p and accumulate in the ER membrane. This represents the first report of a single protein in yeast for which distinct mutant forms can be channeled to different outcomes by the ER quality control system. We propose that these two classes of ER-retained Ste6p mutants may define distinct checkpoint steps in a linear pathway of ER quality control in yeast. In addition, a screen for high-copy suppressors of the mating defect of one of the ER-retained ste6 mutants has identified a proteasome subunit, Hrd2p/p97, previously implicated in the regulated degradation of wild-type hydroxymethylglutaryl-CoA reductase in the ER membrane.
Resumo:
The effect of different total enzyme concentrations on the flux through the bacterial phosphoenolpyruvate:carbohydrate phosphotransferase system (PTS) in vitro was determined by measuring PTS-mediated carbohydrate phosphorylation at different dilutions of cell-free extract of Escherichia coli. The dependence of the flux on the protein concentration was more than linear but less than quadratic. The combined flux–response coefficient of the four enzymes constituting the glucose PTS decreased slightly from values of ≈1.8 with increasing protein concentrations in the assay. Addition of the macromolecular crowding agents polyethylene glycol (PEG) 6000 and PEG 35000 led to a sharper decrease in the combined flux–response coefficient, in one case to values of ≈1. PEG 6000 stimulated the PTS flux at lower protein concentrations and inhibited the flux at higher protein concentrations, with the transition depending on the PEG 6000 concentration. This suggests that macromolecular crowding decreases the dissociation rate constants of enzyme complexes. High concentrations of the microsolute glycerol did not affect the combined flux–response coefficient. The data could be explained with a kinetic model of macromolecular crowding in a two-enzyme group-transfer pathway. Our results suggest that, because of the crowded environment in the cell, the different PTS enzymes form complexes that live long on the time-scale of their turnover. The implications for the metabolic behavior and control properties of the PTS, and for the effect of macromolecular crowding on nonequilibrium processes, are discussed.
Resumo:
A sociedade está cada vez mais exigente com relação à qualidade dos produtos consumidos e se preocupa com os benefícios para a saúde. Neste contexto, objetivou-se avaliar o efeito da inclusão de níveis de óleo de canola na dieta de vacas sobre amanteiga e muçarela, buscando produtos mais saudáveis para o consumo humano. Foram utilizadas 18 vacas Holandesas, em estágio intermediário de lactação, com produção média de 22 (± 4) Kg de leite/ dia, as quais foram distribuídas em dois quadrados latinos 3x3 contemporâneos e receberam as dietas experimentais: T1- Controle (0% de inclusão de óleo); T2- 3% de inclusão de óleo de canola e T3- 6% de inclusão de óleo de canola. O perfil lipídico foi determinado através de cromatografia gasosa, além da avaliação de qualidade nutricional, realizada através de equações utilizando os ácidos graxos obtidos no perfil lipídico, análises físico-químicas determinadas pela metodologia do Instituto Adolfo Lutz e análises microbiológicas. Houveram problemas durante processamento do leite, gerando alterações de tecnologia de fabricação do produto manteiga, obtendo-se outro produto, o creme de leite, ao invés de manteiga, além de prejuízos na qualidade microbiológicas do creme de leite e muçarela. A inclusão de óleo de canola na dieta em lactação reduziu quadraticamente os ácidos graxos de cadeia curta e proporcionou aumento quadrático dos ácidos graxos de cadeia longa, dos ácidos graxos insaturados e ácidos graxos monoinsaturados na muçarela. A relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) e a relação ômega-6/ômega-3, assim como os índices de aterogenicidade e trombogenicidade, na muçarela, reduziram linearmente 25,68%, 31,35%; 32,12% e 21,78%, respectivamente, quando comparando T1 e T3. No creme de leite, houve redução linear dos ácidos graxos de cadeia curta e média, bem como, os ácidos graxos saturados e a relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) em 41,07%; 23,82%; 15,91% e 35,59%, respectivamente, enquanto os ácidos graxos de cadeia longa, ácidos graxos insaturados e ácidos graxos monoinsaturados aumentaram linearmente 41,40%; 28,24% e 32,07%, nesta ordem, quando comparando T1 com T3. Os índices de aterogenicidade e trombogenicidade reduziram de forma linear, enquanto o índice h/H (razão ácidos graxos hipocolesterolêmicos e hipercolesterolêmicos) aumentou linearmente. A composição físico-química de ambos derivados e o rendimento da muçarela não apresentaram efeito significativo com a inclusão do óleo de canola, exceto a proteína bruta da muçarela que apresentou aumento linear e a gordura do creme de leite que apresentou efeito quadrático. As análises microbiológicas mostram contagens muito elevadas de microrganismos, sugerindo que os produtos não apresentam qualidade microbiológica, decorrente da ausência do processo de pasteurização do creme e da baixa eficiência do tratamento térmico aplicado ao leite destinado a produção da muçarela. Conclui-se que a adição de óleo de canola na dieta de vacas lactantes proporciona muçarela e creme de leite mais saudáveis para o consumo humano, pois apresentaram perfil lipídico mais rico em ácidos graxos insaturados, além da série ômega-3 e ácido oleico, entretanto, devido a problemas de processamento, estes produtos obtidos, não estão aptos ao consumo devido à ausência de qualidade microbiológica.
Resumo:
Objetivou-se avaliar a utilização de doses crescentes de enzima fibrolítica exógena na alimentação de vacas leiteiras e seus efeitos sobre o consumo e digestibilidade aparente total da matéria seca e nutrientes, cinética ruminal, fermentação e síntese de proteína microbiana ruminal, produção e composição do leite, perfil metabólico e balanço de energia e nitrogênio. Foram utilizadas 24 vacas da raça Holandesa, multíparas, em delineamento Quadrado Latino 4x4, com 646,75 ± 77,54 kg de peso corporal, 3,02 ± 0,56 de escore de condição corporal, com 176 ± 82,27 dias em lactação e produção de leite de 33,72 ± 7,63 kg/dia, no início do estudo. Os animais foram distribuídos aleatoriamente para receber os seguintes tratamentos: 1) Controle (0), composta por dieta basal sem a inclusão de enzima fibrolítica; 2) com inclusão de 8 g/vaca/dia de enzima fibrolítica; 3) com inclusão de 16 g/vaca/dia da enzima fibrolítica; 4) com inclusão de 24 g/vaca/dia da enzima fibrolítica (Fibrozyme® - Alltech Inc., Nicholasville, KY). A utilização de enzima fibrolítica nas dietas resultou em aumento linear no consumo de matéria seca, matéria orgânica e da fibra em detergente neutro. Foi detectado aumento linear no consumo de partículas longas com a suplementação de enzima. Houve efeito quadrático na ruminação e na atividade mastigatória. O aumento no consumo de matéria seca refletiu no aumento linear de consumo de energia líquida e no balanço de energia líquida. Houve efeito quadrático na concentração de N-NH3 ruminal e aumento linear na quantidade de ácido acético, propiônico e butírico com o aumento da dose de enzima suplementada. Houve efeito quadrático na síntese de proteína microbiana com a inclusão de enzima fibrolítica. Não foram observadas diferenças na produção de leite e na produção de seus componentes, entretanto houve aumento linear no ganho de peso corporal com utilização de enzima fibrolítica. Houve efeito quadrático positivo na excreção via urina e efeito quadrático negativo no balanço de nitrogênio mostrando maior retenção de nitrogênio com a suplementação intermediária de enzimas fibrolíticas. Conclui-se que a enzima fibrolítica exógena é efetiva em aumentar o consumo de matéria seca e FDN e também melhorar a eficiência fermentativa de vacas leiteiras melhorando o balanço energético, entretanto não foi efetiva em aumentar a produção de leite de vacas da raça holandesa no terço médio da lactação
Resumo:
Objetivou-se avaliar o efeito da suplementação prolongada de grão de soja cru e integral (GSI) como fonte de ácido graxo Ω6 sobre o desempenho produtivo, perfil metabólico, qualidade oocitária e embrionária e função imune de vacas leiteiras no período de transição e início de lactação. Foram selecionadas 44 vacas da raça Holandesa, multíparas e gestantes, com parto previsto para 90 dias após o início da avaliação e fornecimento das dietas experimentais, porém em razão da ocorrência de enfermidades metabólicas ou infecciosas (3 abortos; 3 deslocamentos de abomaso; 3 enfermidades podais; 4 distocias) 13 animais foram retirados do experimento. As vacas foram distribuídas aleatoriamente em quatro grupos experimentais diferindo entre eles o início do fornecimento de grão de soja cru e integral (GSI) durante o pré-parto. A dieta era baseada na inclusão de 12% de GSI %MS, com aproximadamente 5,1% de extrato etéreo (EE) o início de seu fornecimento foi conforme descrito a seguir: Grupo 0: Animais não receberam dieta contendo GSI no pré-parto; Grupo 30: Início do fornecimento de dieta com GSI nos 30 dias finais da gestação; Grupo 60: Início do fornecimento de dieta com GSI nos 60 dias finais da gestação; Grupo 90: Início do fornecimento de dieta com GSI nos 90 dias finais da gestação. Após o parto, todas as vacas receberam dieta única com 5,1% de EE, baseada na inclusão de 12% de GSI %MS até 90 dias de lactação. Os animais foram arraçoados de acordo com o consumo de matéria seca no dia anterior, de forma a ser mantido porcentual de sobras das dietas, diariamente, entre 5 e 10%. As amostras dos alimentos e sobras foram coletadas diariamente e armazenadas a -20ºC. Semanalmente as amostras coletadas diariamente foram misturadas e foi retirada uma amostra composta referente a um período de uma semana, a fim de mensurar o consumo de matéria seca e nutrientes. Amostras de fezes foram coletadas nos dias -56, -21, 21, 56 e 84 dias em relação ao parto, com o propósito de mensurar a digestibilidade da matéria seca e nutrientes. A produção de leite foi mensurada diariamente e para a composição dos teores de gordura, proteína, lactose e perfil de ácidos graxos amostras foram coletadas semanalmente. As amostras de sangue para análise dos metabólitos sanguíneos foram coletadas semanalmente. Amostras de sangue para mensurar a atividade do sistema imune foram coletadas na semanas -8, -4, -2, -1 em relação ao parto, parto, +1, +2, +4 e +8 semanas no período pós-parto. Nos dias 21, 42, 63 e 84 do período pós-parto foram realizadas aspirações foliculares, com posterior fertilização in vitro dos oócitos. Todas as variáveis mensuradas foram analisadas pelo procedimento PROC MIXED do SAS 9.4 através de regressão polinomial, utilizando efeito fixo de tratamento, semana, interação tratamento*semana e efeito de animal dentro de tratamento como aleatório. Utilizou nível de 5% de significância. Foi observado efeito (P<0,05) linear crescente para CEE no pré-parto. Não foi observado diferenças no CMS e nutrientes no pós-parto. Não houve alteração da digestibilidade nos períodos pré e pós-parto. Não houve alteração no balanço de energia e nitrogênio nos periodos pré e pós-parto. Não foi observado diferença na produção, composição e teor dos componentes totais do leite. No perfil de ácidos graxos do leite houve efeito (P<0,05) linear descrescente para as concentrações de C16:1cis, C18:1 cis, total de C:18 insaturado, total de AG monoinsaturados, insaturados e a relação do total de AGS:AGI. Foi observado efeito linear (P<0,05) crescente para o total de AG aturado e efeito (P<0,05) quadrático para C18:2, CLAcis9-trans11, e total de AGPI. Foi observado efeito linear crescente (P<0,05) para colesterol total, LDL no préparto e linear decrescente (P<0,05) para GGT nos períodos pré e pós-parto. Foi observado efeito quadrático (P<0,05) para HDL no pré-parto e AST no pós-parto. Em relação a atividade do sistema imune foi observado efeito linear (P<0,05) crescente para o percentual de CD3+ ativos no pós-parto, para o percentual de monócitos que produziram espécie reativa de oxigênio (ERO) no pós-parto quando foram estimulados por S.aureus e E.coli e para a intensidade de imunofluorescência de ERO para ganulócitos no pós-parto quando estimulados por S.aureus. Foi observado efeito (P<0,05) quadrático para o percentual de granulócitos, mononucleares, CD8+ ativos no pós-parto e para o percentual de granulócitos que produziram ERO no pós-parto quando estimulados por E.coli. A suplementação prolongada com GSI no pré-parto melhora a atividade do sistema imune, não melhora a qualidade oocitária e embrionária bem como não influencia negativamente os parametros produtivos de vacas leiteiras no período de transição e início de lactação
Resumo:
O objetivo do presente trabalho é a investigação e o desenvolvimento de estratégias de otimização contínua e discreta para problemas de Fluxo de Potência Ótimo (FPO), onde existe a necessidade de se considerar as variáveis de controle associadas aos taps de transformadores em-fase e chaveamentos de bancos de capacitores e reatores shunt como variáveis discretas e existe a necessidade da limitação, e/ou até mesmo a minimização do número de ações de controle. Neste trabalho, o problema de FPO será abordado por meio de três estratégias. Na primeira proposta, o problema de FPO é modelado como um problema de Programação Não Linear com Variáveis Contínuas e Discretas (PNLCD) para a minimização de perdas ativas na transmissão; são propostas três abordagens utilizando funções de discretização para o tratamento das variáveis discretas. Na segunda proposta, considera-se que o problema de FPO, com os taps de transformadores discretos e bancos de capacitores e reatores shunts fixos, possui uma limitação no número de ações de controles; variáveis binárias associadas ao número de ações de controles são tratadas por uma função quadrática. Na terceira proposta, o problema de FPO é modelado como um problema de Otimização Multiobjetivo. O método da soma ponderada e o método ε-restrito são utilizados para modificar os problemas multiobjetivos propostos em problemas mono-objetivos. As variáveis binárias associadas às ações de controles são tratadas por duas funções, uma sigmoidal e uma polinomial. Para verificar a eficácia e a robustez dos modelos e algoritmos desenvolvidos serão realizados testes com os sistemas elétricos IEEE de 14, 30, 57, 118 e 300 barras. Todos os algoritmos e modelos foram implementados em General Algebraic Modeling System (GAMS) e os solvers CONOPT, IPOPT, KNITRO e DICOPT foram utilizados na resolução dos problemas. Os resultados obtidos confirmam que as estratégias de discretização são eficientes e as propostas de modelagem para variáveis binárias permitem encontrar soluções factíveis para os problemas envolvendo as ações de controles enquanto os solvers DICOPT e KNITRO utilizados para modelar variáveis binárias não encontram soluções.
Resumo:
The subject of this thesis is the real-time implementation of algebraic derivative estimators as observers in nonlinear control of magnetic levitation systems. These estimators are based on operational calculus and implemented as FIR filters, resulting on a feasible real-time implementation. The algebraic method provide a fast, non-asymptotic state estimation. For the magnetic levitation systems, the algebraic estimators may replace the standard asymptotic observers assuring very good performance and robustness. To validate the estimators as observers in closed-loop control, several nonlinear controllers are proposed and implemented in a experimental magnetic levitation prototype. The results show an excellent performance of the proposed control laws together with the algebraic estimators.
Resumo:
We discuss Fermi-edge singularity effects on the linear and nonlinear transient response of an electron gas in a doped semiconductor. We use a bosonization scheme to describe the low-energy excitations, which allows us to compute the time and temperature dependence of the response functions. Coherent control of the energy absorption at resonance is analyzed in the linear regime. It is shown that a phase shift appears in the coherent control oscillations, which is not present in the excitonic case. The nonlinear response is calculated analytically and used to predict that four wave-mixing experiments would present a Fermi-edge singularity when the exciting energy is varied. A new dephasing mechanism is predicted in doped samples that depends linearly on temperature and is produced by the low-energy bosonic excitations in the conduction band.
Resumo:
El presente estudio tiene como objeto analizar la abundancia y distribución de la urraca en función de las diferentes matrices de usos del suelo y gradientes ambientales. Este trabajo se ha centrado en la Comarca de la Marina Baja (Alicante), una región con 578,8 Km² de superficie. La zona cuenta con una vegetación climática de carrascal de termotipo mesomediterráneo y ombrotipo seco y subhúmedo. Se han realizado un total de 396 transectos para estimar la abundancia de la urraca durante los años 2006-2008, en diferentes matrices del paisaje: natural, abandono, regadío y secano. Las abundancias relativas, la evolución de la especie, el efecto sobre otras especies de caza y el efecto que tiene el control poblacional de las urracas se ha obtenido de 21 encuestas realizadas a los gestores de los terrenos cinegéticos. El análisis de los resultados, muestra una mayor abundancia de los individuos en zonas de cultivo de secano (IKA=0.76 aves/km) y cultivos abandonados (IKA=0.73 aves/km), siendo los valores medios anuales cada vez mayores desde el inicio del muestreo. El análisis múltiple de regresión lineal de la abundancia de urraca con la matriz de usos del suelo muestra una relación significativa y positiva con el abandono antiguo (p<0.01), el frutal de secano y las zonas húmedas (p<0.05), mientras que no hay relación significativa (p>0.05) con los índices del paisaje. El análisis ANOVA muestra que las variables significativas influyentes sobre el número de urracas son: matriz de usos del suelo, latitud/ombroclima, continentalidad y la interacción usos del suelo:continentalidad (p<0.05). La urraca ha experimentado un aumento en sus poblaciones desde principios de la primera década del actual siglo. Los cotos que realizan un control sobre la población de urracas tienen un efecto positivo que se ve reflejado en la menor afección sobre otras especies cinegéticas.
Resumo:
One of the most important developments in EC competition policy during 2006 was the Court of First Instance’s (CFI) Impala v. Commission judgment annulling the European Commission’s approval of the merger between the music units of Sony and Bertelsmann. It harshly criticized the Commission’s Decision because it found that the evidence relied on was not capable of substantiating the conclusion. This was the first time that a merger decision was annulled for not meeting the requisite legal standard for authorizing the merger. Consequently, the CFI raised fundamental questions about the standard of proof incumbent on the Commission in its merger review procedures. On July 10, 2008, the European Court of Justice overturned Impala, yet it did not resolve the fundamental question underlying the judicial review of the Sony BMG Decision; does the Commission have the necessary resources and expertise to meet the Community Court’s standard of proof? This paper addresses the wider implications of the Sony BMG saga for the Commission’s future handling of complex merger investigations. It argues that the Commission may have set itself an impossible precedent in the second approval of the merger. While the Commission has made a substantial attempt to meet the high standard of proof imposed by the Community Courts, it is doubtful that it will be able to jump the fence again in a similar fashion under normal procedural circumstances.
Resumo:
The synthetic control (SC) method has been recently proposed as an alternative to estimate treatment effects in comparative case studies. The SC relies on the assumption that there is a weighted average of the control units that reconstruct the potential outcome of the treated unit in the absence of treatment. If these weights were known, then one could estimate the counterfactual for the treated unit using this weighted average. With these weights, the SC would provide an unbiased estimator for the treatment effect even if selection into treatment is correlated with the unobserved heterogeneity. In this paper, we revisit the SC method in a linear factor model where the SC weights are considered nuisance parameters that are estimated to construct the SC estimator. We show that, when the number of control units is fixed, the estimated SC weights will generally not converge to the weights that reconstruct the factor loadings of the treated unit, even when the number of pre-intervention periods goes to infinity. As a consequence, the SC estimator will be asymptotically biased if treatment assignment is correlated with the unobserved heterogeneity. The asymptotic bias only vanishes when the variance of the idiosyncratic error goes to zero. We suggest a slight modification in the SC method that guarantees that the SC estimator is asymptotically unbiased and has a lower asymptotic variance than the difference-in-differences (DID) estimator when the DID identification assumption is satisfied. If the DID assumption is not satisfied, then both estimators would be asymptotically biased, and it would not be possible to rank them in terms of their asymptotic bias.
Resumo:
"August 1973."
Resumo:
National Highway Traffic Safety Administration, Washington, D.C.