981 resultados para Cramer-Rao bounds


Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present a generator for single top-quark production via flavour-changing neutral currents. The MEtop event generator allows for Next-to-Leading-Order direct top production pp -> t and Leading-Order production of several other single top processes. A few packages with definite sets of dimension six operators are available. We discuss how to improve the bounds on the effective operators and how well new physics can be probed with each set of independent dimension six operators.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumo: Cement, as well as the remaining constituents of self-compacting mortars, must be carefully selected, in order to obtain an adequate composition with a granular mix as compact as possible and a good performance in the fresh state (self-compacting effect) and the hardened state (mechanical and durability-related behavior). Therefore in this work the possibility of incorporating nano particles in self-compacting mortars was studied. Nano materials are very reactive due mostly to their high specific surface and show a great potential to improve the properties of these mortars, both in mechanical and durability terms. In this work two nano materials were used, nano silica (nano SiO2) in colloidal state and nano titanium (nano TiO2) in amorphous state, in two types of self-compacting mortars (ratio binder:sand of 1:1 and 1:2). The self-compacting mortar mixes have the same water/cement ratio and 30% of replacement of cement with fly ashes. The influence of nano materials nano-SiO2 and nano-TiO2 on the fresh and hardened state properties of these self-compacting mortars was studied. The results show that the use of nano materials in repair and rehabilitation mortars has significant potential but still needs to be optimized. (C) 2015 Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Consider the problem of assigning implicit-deadline sporadic tasks on a heterogeneous multiprocessor platform comprising two different types of processors—such a platform is referred to as two-type platform. We present two low degree polynomial time-complexity algorithms, SA and SA-P, each providing the following guarantee. For a given two-type platform and a task set, if there exists a task assignment such that tasks can be scheduled to meet deadlines by allowing them to migrate only between processors of the same type (intra-migrative), then (i) using SA, it is guaranteed to find such an assignment where the same restriction on task migration applies but given a platform in which processors are 1+α/2 times faster and (ii) SA-P succeeds in finding a task assignment where tasks are not allowed to migrate between processors (non-migrative) but given a platform in which processors are 1+α times faster. The parameter 0<α≤1 is a property of the task set; it is the maximum of all the task utilizations that are no greater than 1. We evaluate average-case performance of both the algorithms by generating task sets randomly and measuring how much faster processors the algorithms need (which is upper bounded by 1+α/2 for SA and 1+α for SA-P) in order to output a feasible task assignment (intra-migrative for SA and non-migrative for SA-P). In our evaluations, for the vast majority of task sets, these algorithms require significantly smaller processor speedup than indicated by their theoretical bounds. Finally, we consider a special case where no task utilization in the given task set can exceed one and for this case, we (re-)prove the performance guarantees of SA and SA-P. We show, for both of the algorithms, that changing the adversary from intra-migrative to a more powerful one, namely fully-migrative, in which tasks can migrate between processors of any type, does not deteriorate the performance guarantees. For this special case, we compare the average-case performance of SA-P and a state-of-the-art algorithm by generating task sets randomly. In our evaluations, SA-P outperforms the state-of-the-art by requiring much smaller processor speedup and by running orders of magnitude faster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hard real- time multiprocessor scheduling has seen, in recent years, the flourishing of semi-partitioned scheduling algorithms. This category of scheduling schemes combines elements of partitioned and global scheduling for the purposes of achieving efficient utilization of the system’s processing resources with strong schedulability guarantees and with low dispatching overheads. The sub-class of slot-based “task-splitting” scheduling algorithms, in particular, offers very good trade-offs between schedulability guarantees (in the form of high utilization bounds) and the number of preemptions/migrations involved. However, so far there did not exist unified scheduling theory for such algorithms; each one was formulated in its own accompanying analysis. This article changes this fragmented landscape by formulating a more unified schedulability theory covering the two state-of-the-art slot-based semi-partitioned algorithms, S-EKG and NPS-F (both fixed job-priority based). This new theory is based on exact schedulability tests, thus also overcoming many sources of pessimism in existing analysis. In turn, since schedulability testing guides the task assignment under the schemes in consideration, we also formulate an improved task assignment procedure. As the other main contribution of this article, and as a response to the fact that many unrealistic assumptions, present in the original theory, tend to undermine the theoretical potential of such scheduling schemes, we identified and modelled into the new analysis all overheads incurred by the algorithms in consideration. The outcome is a new overhead-aware schedulability analysis that permits increased efficiency and reliability. The merits of this new theory are evaluated by an extensive set of experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Many-core” systems based on a Network-on-Chip (NoC) architecture offer various opportunities in terms of performance and computing capabilities, but at the same time they pose many challenges for the deployment of real-time systems, which must fulfill specific timing requirements at runtime. It is therefore essential to identify, at design time, the parameters that have an impact on the execution time of the tasks deployed on these systems and the upper bounds on the other key parameters. The focus of this work is to determine an upper bound on the traversal time of a packet when it is transmitted over the NoC infrastructure. Towards this aim, we first identify and explore some limitations in the existing recursive-calculus-based approaches to compute the Worst-Case Traversal Time (WCTT) of a packet. Then, we extend the existing model by integrating the characteristics of the tasks that generate the packets. For this extended model, we propose an algorithm called “Branch and Prune” (BP). Our proposed method provides tighter and safe estimates than the existing recursive-calculus-based approaches. Finally, we introduce a more general approach, namely “Branch, Prune and Collapse” (BPC) which offers a configurable parameter that provides a flexible trade-off between the computational complexity and the tightness of the computed estimate. The recursive-calculus methods and BP present two special cases of BPC when a trade-off parameter is 1 or ∞, respectively. Through simulations, we analyze this trade-off, reason about the implications of certain choices, and also provide some case studies to observe the impact of task parameters on the WCTT estimates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recently simple limiting functions establishing upper and lower bounds on the Mittag-Leffler function were found. This paper follows those expressions to design an efficient algorithm for the approximate calculation of expressions usual in fractional-order control systems. The numerical experiments demonstrate the superior efficiency of the proposed method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Technology is present in almost every simple aspect of the people’s daily life. As an instance, let us refer to the smartphone. This device is usually equipped with a GPS modulewhich may be used as an orientation system, if it carries the right functionalities. The problem is that these applications may be complex to operate and may not be within the bounds of everybody. Therefore, the main goal here is to develop an orientation system that may help people with cognitive disabilities in their day-to-day journeys, when the caregivers are absent. On the other hand, to keep paid helpers aware of the current location of the disable people, it will be also considered a localization system. Knowing their current locations, caregiversmay engage in others activities without neglecting their prime work, and, at the same time, turning people with cognitive disabilities more independent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO A acção hipoglicemiante da insulina é máxima no estado pós-prandial e depende da substância hepática sensibilizadora da insulina (HISS). Esta dissertação visa o estudo do mecanismo de acção da insulina no estado pós-prandial e em particular da via dependente da HISS, em modelos animais fisiológicos e patológicos (obesidade e diabetes mellitus tipo 2). Avaliaram-se diferentes tipos de refeição quanto ao seu efeito potenciador da acção da insulina, em ratos Sprague-Dawley (modelo fisiológico). A administração intragástrica de glícidos não afecta a acção da insulina, mas a refeição mista (lípidos, glícidos e proteínas), promove a sensibilização para a acção da insulina, através de um processo que parece ser iniciado no intestino e envolve a activação da via da HISS. Nos estudos de obesidade, o primeiro modelo utilizado foi o rato alimentado com dieta hiperlipídica (HFD), no qual se observou uma insulinorresistência pós-prandial devida quase exclusivamente à perda de acção da HISS, que se correlaciona com a adiposidade (corporal e abdominal) e parece ser devida à diminuição da sua síntese. O segundo modelo de obesidade usado foi o rato Zucker obeso (OZR), modelo genético que apresenta uma diminuição idêntica de ambas as componentes de acção da insulina (dependente e independente da HISS). A alteração na via da HISS parece localizar-se a jusante da sua síntese, sugerindo que um ou vários pontos comuns entre as vias de sinalização intracelular da HISS e da insulina per se estão alterados, resultando num diminuto aporte de glucose. No OZR, a acção da HISS não se altera com a idade, apresentando-se baixa também às 52 semanas de idade. Em ratos não obesos (LZR), a acção da HISS diminui entre as 9 e 52 semanas, sendo acompanhada por um decréscimo menos acentuado, embora significativo, da acção da insulina per se. A diminuição da acção da HISS com a idade parece ser a principal causa de insulinorresistência pós-prandial em LZR velhos, não se agravando no OZR. No modelo de diabetes tipo 2 estudado, o rato Zucker diabético (ZDF), também ambas as componentes de acção da insulina estavam diminuídas. No entanto, a alimentação com ração Purina, ligeiramente mais energética e lipídica do que a ração standard, agrava a disfunção da via da HISS nestes animais, sugerindo que a sensibilidade à insulina em ratos ZDF é muito susceptível a factores nutricionais. A via da HISS é essencial para potenciar a acção da insulina do estado de jejum para o pós-prandial e a sua disfunção é em grande medida responsável pela insulinorresistência observada nos modelos animais de obesidade e diabetes estudados. xix SUMMARY Hypoglycemic insulin action is maximal in the postprandial state and depends on the hepatic insulin sensitizing substance (HISS). The present thesis focus on the postprandial insulin action and, in particular, on the HISS-dependent pathway, both in physiological and pathological (obesity and type 2 diabetes mellitus) animal models. Different meals were tested in Sprague-Dawley rats (physiological model) for their capacity to potentiate insulin action. It was observed that intragastric administration of either glucose or sucrose does not affect insulin sensitivity, unlike the mixed meal, composed of lipids carbohydrates and proteins, which significantly potentiated insulin action through a process that seems to be initiated at the intestine and involves activation of the HISS pathway. For the obesity studies, the first of the two obesity models used was the high fat-fed rat (HFD), in which the postprandial insulin resistance was almost exclusively caused by the decrease of HISS action, probably due to the impairment of HISS synthesis. This impairment correlates with both corporal and abdominal adiposity. The second obesity model used was the obese Zucker rat (OZR), a genetic model, which presented a similar impairment of both components of insulin action (HISSdependent and –independent). The modification in HISS pathway in OZR seems to be located downstream from HISS synthesis, that is, at its site of action – the skeletal muscle -, suggesting that one or several points common to both HISS and insulin per se signaling cascades are defective, resulting in a decreased glucose uptake. In OZR, HISS action does not decrease with age and is also low at 52 weeks of age. In non-obese rats (LZR), HISS action decreases from 9 to 52 weeks and it is accompanied by a lower, although significant, impairment of insulin action per se. HISS action impairment with aging seems to be the major cause of insulin resistance in old LZR, whereas insulin resistance is not aggravated in aging OZR. In the type 2 diabetes model, the diabetic Zucker rat (ZDF), both components of insulin action were also equally impaired. However, feeding the animals with Purina rat chow, which is slightly more caloric and more lipidic, induces additional HISS deterioration when compared with the standard lab diet, suggesting that insulin sensitivity in ZDF is very susceptible to nutritional factors. In conclusion, HISS pathway is essential to potentiate insulin action from the fasted to the fed state and its dysfunction is highly responsible for the insulin resistance observed in the obesity and diabetes animal models studied.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comunicação apresentada no 3º Congresso Nacional de Administração Pública "O novo ciclio de desenvolvimento da administ~ração pública: abertura, eficiência, independência", em Lisboa, de 3 a 4 de Novembro de 2005.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We examine the constraints on the two Higgs doublet model (2HDM) due to the stability of the scalar potential and absence of Landau poles at energy scales below the Planck scale. We employ the most general 2HDM that incorporates an approximately Standard Model (SM) Higgs boson with a flavor aligned Yukawa sector to eliminate potential tree-level Higgs-mediated flavor changing neutral currents. Using basis independent techniques, we exhibit robust regimes of the 2HDM parameter space with a 125 GeV SM-like Higgs boson that is stable and perturbative up to the Planck scale. Implications for the heavy scalar spectrum are exhibited.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geociências, Museu Nac. Hist. Nat. Univ. Lisboa, nº 2, 35-84

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O instável mas tendencialmente crescente preço dos combustíveis associado a preocupações ambientais cada vez mais enraizadas nas sociedades, têm vindo a despoletar uma maior atenção à procura de combustíveis alternativos. Por outro lado, várias projecções indicam um aumento muito acentuado do consumo energético global no curto prazo, fruto do aumento da população e do nível de industrialização das sociedades. Neste contexto, o biodiesel (ésteres de ácidos gordos) obtido através da transesterificação de triglicerídeos de origem vegetal ou animal, surge como a alternativa “verde” mais viável para utilização em equipamentos de combustão. A reacção de transesterificação é catalisada, por norma com recurso a catalisadores homogéneos alcalinos (NaOH ou KOH). Este tipo de processo, o único actualmente com expressão a nível industrial, apresenta algumas desvantagens que, para além de aumentarem o custo do produto final, contribuem para reduzir a benignidade do mesmo: a impossibilidade de reutilização do catalisador, o aumento do número e complexidade das etapas de separação e a produção de efluentes resultantes das referidas etapas. Com o intuito de minimizar ou eliminar estes problemas, vários catalisadores heterogéneos têm vindo a ser estudados para esta reacção. Apesar de muitos apresentarem resultados promissores, a grande maioria não tem viabilidade para aplicação industrial seja devido ao seu próprio custo, seja devido aos pré-tratamentos necessários à sua utilização. Entre estes catalisadores, o óxido de cálcio é talvez o que apresenta resultados mais promissores. O crescente número de estudos envolvendo este catalisador em detrimento de outros, é por si mesmo prova do potencial do CaO. A realização deste trabalho pretendia atingir os seguintes objectivos principais: • Avaliar a elegibilidade do óxido de cálcio enquanto catalisador da reacção de transesterificação de óleos alimentares usados com metanol; • Avaliar qual a sua influência nas características dos produtos finais; • Avaliar as diferenças de performance entre o óxido de cálcio activado em atmosfera inerte (N2) e em ar, enquanto catalisadores da reacção de transesterificação de óleos alimentares usados com metanol; • Optimizar as condições da reacção com recurso às ferramentas matemáticas disponibilizadas pelo planeamento factorial, através da variação de quatro factores chave de influência: temperatura, tempo, relação metanol / óleo e massa de catalisador utilizado. O CaO utlizado foi obtido a partir de carbonato de cálcio calcinado numa mufla a 750 °C durante 3 h. Foi posteriormente activado a 900 °C durante 2h, em atmosferas diferentes: azoto (CaO-N2) e ar (CaO-Ar). Avaliaram-se algumas propriedades dos catalisadores assim preparados, força básica, concentração de centros activos e áreas específicas, tendo-se obtido uma força básica situada entre 12 e 14 para ambos os catalisadores, uma concentração de centros activos de 0,0698 mmol/g e 0,0629 mmol/g e áreas específicas de 10 m2/g e 11 m2/g respectivamente para o CaO-N2 e CaO-Ar. Efectuou-se a transesterificação, com catálise homogénea, da mistura de óleos usados utilizada neste trabalho com o objectivo de determinar os limites para o teor de FAME’s (abreviatura do Inglês de Fatty Acid Methyl Esters’) que se poderiam obter. Foi este o parâmetro avaliado em cada uma das amostras obtidas por catálise heterogénea. Os planos factoriais realizados tiveram como objectivo maximizar a sua quantidade recorrendo à relação ideal entre tempo de reacção, temperatura, massa de catalisador e quantidade de metanol. Verificou-se que o valor máximo de FAME’s obtidos a partir deste óleo estava situado ligeiramente acima dos 95 % (m/m). Realizaram-se três planos factoriais com cada um dos catalisadores de CaO até à obtenção das condições óptimas para a reacção. Não se verificou influência significativa da relação entre a quantidade de metanol e a massa de óleo na gama de valores estudada, pelo que se fixou o valor deste factor em 35 ml de metanol / 85g de óleo (relação molar aproximada de 8:1). Verificou-se a elegibilidade do CaO enquanto catalisador para a reacção estudada, não se tendo observado diferenças significativas entre a performance do CaO-N2 e do CaO-Ar. Identificaram-se as condições óptimas para a reacção como sendo os valores de 59 °C para a temperatura, 3h para o tempo e 1,4 % de massa de catalisador relativamente à massa de óleo. Nas referidas condições, obtiveram-se produtos com um teor de FAME’s de 95,7 % na catálise com CaO-N2 e 95,3 % na catálise com CaO-Ar. Alguns autores de estudos consultados no desenvolvimento do presente trabalho, referiam como principal problema da utilização do CaO, a lixiviação de cálcio para os produtos obtidos. Este facto foi confirmado no presente trabalho e na tentativa de o contornar, tentou-se promover a carbonatação do cálcio com a passagem de ar comprimido através dos produtos e subsequente filtração. Após a realização deste tratamento, não mais se observaram alterações nas suas propriedades (aparecimento de turvação ou precipitados), no entanto, nos produtos obtidos nas condições óptimas, a concentração de cálcio determinada foi de 527 mg/kg no produto da reacção catalisada com CaO-N2 e 475 mg/kg com CaO-A. O óxido de cálcio apresentou-se como um excelente catalisador na transesterificação da mistura de óleos alimentares usados utilizada no presente trabalho, apresentando uma performance ao nível da obtida por catálise homogénea básica. Não se observaram diferenças significativas de performance entre o CaO-N2 e o CaO-Ar, sendo possível obter nas mesmas condições reaccionais produtos com teores de FAME’s superiores a 95 % utilizando qualquer um deles como catalisador. O elevado teor de cálcio lixiviado observado nos produtos, apresenta-se como o principal obstáculo à aplicação a nível industrial do óxido de cálcio como catalisador para a transesterificação de óleos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento descreve um modelo de tolerância a falhas para sistemas de tempo-real distribuídos. A sugestão deste modelo tem como propósito a apresentação de uma solu-ção fiável, flexível e adaptável às necessidades dos sistemas de tempo-real distribuídos. A tolerância a falhas é um aspeto extremamente importante na construção de sistemas de tempo-real e a sua aplicação traz inúmeros benefícios. Um design orientado para a to-lerância a falhas contribui para um melhor desempenho do sistema através do melhora-mento de aspetos chave como a segurança, a confiabilidade e a disponibilidade dos sis-temas. O trabalho desenvolvido centra-se na prevenção, deteção e tolerância a falhas de tipo ló-gicas (software) e físicas (hardware) e assenta numa arquitetura maioritariamente basea-da no tempo, conjugada com técnicas de redundância. O modelo preocupa-se com a efi-ciência e os custos de execução. Para isso utilizam-se também técnicas tradicionais de to-lerância a falhas, como a redundância e a migração, no sentido de não prejudicar o tempo de execução do serviço, ou seja, diminuindo o tempo de recuperação das réplicas, em ca-so de ocorrência de falhas. Neste trabalho são propostas heurísticas de baixa complexida-de para tempo-de-execução, a fim de se determinar para onde replicar os componentes que constituem o software de tempo-real e de negociá-los num mecanismo de coordena-ção por licitações. Este trabalho adapta e estende alguns algoritmos que fornecem solu-ções ainda que interrompidos. Estes algoritmos são referidos em trabalhos de investiga-ção relacionados, e são utilizados para formação de coligações entre nós coadjuvantes. O modelo proposto colmata as falhas através de técnicas de replicação ativa, tanto virtual como física, com blocos de execução concorrentes. Tenta-se melhorar ou manter a sua qualidade produzida, praticamente sem introduzir overhead de informação significativo no sistema. O modelo certifica-se que as máquinas escolhidas, para as quais os agentes migrarão, melhoram iterativamente os níveis de qualidade de serviço fornecida aos com-ponentes, em função das disponibilidades das respetivas máquinas. Caso a nova configu-ração de qualidade seja rentável para a qualidade geral do serviço, é feito um esforço no sentido de receber novos componentes em detrimento da qualidade dos já hospedados localmente. Os nós que cooperam na coligação maximizam o número de execuções para-lelas entre componentes paralelos que compõem o serviço, com o intuito de reduzir atra-sos de execução. O desenvolvimento desta tese conduziu ao modelo proposto e aos resultados apresenta-dos e foi genuinamente suportado por levantamentos bibliográficos de trabalhos de in-vestigação e desenvolvimento, literaturas e preliminares matemáticos. O trabalho tem também como base uma lista de referências bibliográficas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The last decade has witnessed a major shift towards the deployment of embedded applications on multi-core platforms. However, real-time applications have not been able to fully benefit from this transition, as the computational gains offered by multi-cores are often offset by performance degradation due to shared resources, such as main memory. To efficiently use multi-core platforms for real-time systems, it is hence essential to tightly bound the interference when accessing shared resources. Although there has been much recent work in this area, a remaining key problem is to address the diversity of memory arbiters in the analysis to make it applicable to a wide range of systems. This work handles diverse arbiters by proposing a general framework to compute the maximum interference caused by the shared memory bus and its impact on the execution time of the tasks running on the cores, considering different bus arbiters. Our novel approach clearly demarcates the arbiter-dependent and independent stages in the analysis of these upper bounds. The arbiter-dependent phase takes the arbiter and the task memory-traffic pattern as inputs and produces a model of the availability of the bus to a given task. Then, based on the availability of the bus, the arbiter-independent phase determines the worst-case request-release scenario that maximizes the interference experienced by the tasks due to the contention for the bus. We show that the framework addresses the diversity problem by applying it to a memory bus shared by a fixed-priority arbiter, a time-division multiplexing (TDM) arbiter, and an unspecified work-conserving arbiter using applications from the MediaBench test suite. We also experimentally evaluate the quality of the analysis by comparison with a state-of-the-art TDM analysis approach and consistently showing a considerable reduction in maximum interference.