932 resultados para Uncertainty in governance
Resumo:
As ações de maior liquidez do índice IBOVESPA, refletem o comportamento das ações de um modo geral, bem como a relação das variáveis macroeconômicas em seu comportamento e estão entre as mais negociadas no mercado de capitais brasileiro. Desta forma, pode-se entender que há reflexos de fatores que impactam as empresas de maior liquidez que definem o comportamento das variáveis macroeconômicas e que o inverso também é uma verdade, oscilações nos fatores macroeconômicos também afetam as ações de maior liquidez, como IPCA, PIB, SELIC e Taxa de Câmbio. O estudo propõe uma análise da relação existente entre variáveis macroeconômicas e o comportamento das ações de maior liquidez do índice IBOVESPA, corroborando com estudos que buscam entender a influência de fatores macroeconômicos sobre o preço de ações e contribuindo empiricamente com a formação de portfólios de investimento. O trabalho abrangeu o período de 2008 a 2014. Os resultados concluíram que a formação de carteiras, visando a proteção do capital investido, deve conter ativos com correlação negativa em relação às variáveis estudadas, o que torna possível a composição de uma carteira com risco reduzido.
Resumo:
Establishing accurate extragalactic distances has provided an immense challenge to astronomers since the 1920s. The situation has improved dramatically as better detectors have become available, and as several new, promising techniques have been developed. For the first time in the history of this difficult field, relative distances to galaxies are being compared on a case-by-case basis, and their quantitative agreement is being established. New instrumentation, the development of new techniques for measuring distances, and recent measurements with the Hubble Space telescope all have resulted in new distances to galaxies with precision at the ±5–20% level. The current statistical uncertainty in some methods for measuring H0 is now only a few percent; with systematic errors, the total uncertainty is approaching ±10%. Hence, the historical factor-of-two uncertainty in the value of the H0 is now behind us.
Resumo:
A maioria das demandas envolvendo pedidos de danos morais no judiciário trabalhista brasileiro é originada a partir de abusos patronais cometidos no exercício do poder diretivo, em especial de sua dimensão fiscalizatória. Embora inexista, no Brasil, disciplina normativa específica quanto aos limites à maior parte das manifestações do poder de fiscalização, seu exercício é restringido pela dignidade da pessoa humana, que deve ser compreendida de acordo com a noção de trabalho decente propugnada pela OIT. A dignidade humana constitui cláusula geral de proteção aos direitos da personalidade, dentre eles, os direitos à intimidade e à vida privada, os mais ofendidos por meio da fiscalização patronal abusiva nas fases précontratual, contratual e pós-contratual. Práticas como a revista pessoal nos trabalhadores e em seus pertences, a limitação à utilização de banheiros, a instalação de câmeras e microfones no local de trabalho e o monitoramento dos computadores utilizados na empresa revelam, por vezes, violações a esses direitos. A revista não encontra fundamento no poder de fiscalização e no direito de propriedade do empregador, salvo quando tiver por objetivo a garantia da saúde ou segurança no ambiente laboral. A instalação de equipamentos audiovisuais, quando visar a proteção patrimonial do empregador ou for essencial ao procedimento de gestão, somente pode se dar nos espaços em que o trabalho for efetivamente desenvolvido e por tempo determinado, fundada em situação específica, sendo imprescindível a ciência dos monitorados quanto à instalação e à localização dos equipamentos. A escuta telefônica e o monitoramento de computadores e e-mails somente será possível quando o empregador determinar a utilização dos meios exclusivamente para os fins da prestação laboral, com ciência inequívoca dos trabalhadores, além de disponibilizar ou autorizar a utilização de meios alternativos para a comunicação pessoal. Não devem ser admitidas quaisquer limitações à utilização de banheiros, bem como o estabelecimento de escala de gravidez no âmbito empresarial. Sendo o tomador de serviços legitimado a exercer o poder fiscalizatório sobre a atividade produtiva empreendida no estabelecimento e havendo a indiscutível imperatividade da proteção aos direitos da personalidade obreiros, é necessária a fixação normativa de limites ao poder patronal, em prol do estabelecimento da segurança jurídica. O direito de resistência é contraface do poder diretivo, no sentido de que o uso irregular deste faz nascer aquele e, consequentemente, os limites do poder diretivo condicionam os do ius resistentiae. Os trabalhadores devem exercê-lo com fulcro nos direitos à vida privada, à intimidade, à honra e à dignidade humana. A doutrina deve valer-se da técnica da ponderação para estabelecer os limites ao poder fiscalizatório patronal, com fulcro no princípio da proporcionalidade. A divergência jurisprudencial deve ser minimizada pela atividade criativa dos juízes quanto aos limites ao poder fiscalizatório, consoante o princípio da proporcionalidade, e por meio da utilização de mecanismos específicos voltados à redução da insegurança jurídica no Judiciário Trabalhista, tais como recursos de revista, embargos de divergência, incidentes de uniformização de jurisprudência, súmulas, precedentes normativos e orientações jurisprudenciais. Nada impede, ainda, que limites ao poder fiscalizatório patronal sejam estabelecidos por meio de negociação coletiva.
Resumo:
Ensaios de distribuição de água de aspersores são convencionalmente realizados manualmente, requerendo tempo e mão de obra treinada. A automação desses ensaios proporciona redução da demanda por esses recursos e apresenta potencial para minimizar falhas e/ou desvios de procedimento. Atualmente, laboratórios de ensaio e calibração acreditados junto a organismos legais devem apresentar em seus relatórios a incerteza de medição de seus instrumentos e sistemas de medição. Além disso, normas de ensaio e calibração apresentam especificação de incerteza aceitável, como a norma de ensaios de distribuição de água por aspersores, ISO 15886-3 (2012), a qual exige uma incerteza expandida de até 3% em 80% dos coletores. Os objetivos deste trabalho foram desenvolver um sistema automatizado para os ensaios de aspersores em laboratório e realizar a análise de incerteza de medição, para sua quantificação nos resultados de ensaio e para dar suporte ao dimensionamento dos tubos de coleta. O sistema automático foi constituído por um subsistema de gerenciamento, por meio de um aplicativo supervisório, um de pressurização e um de coleta, por meio de módulos eletrônicos microprocessados desenvolvidos. De acordo com instruções do sistema de gerenciamento o sistema de pressurização ajustava a pressão no aspersor por meio do controle da rotação da motobomba, e o sistema de coleta realizava a medição da intensidade de precipitação de água ao longo do raio de alcance do aspersor. A água captada por cada coletor drenava para um tubo de coleta, que estava conectado a uma das válvulas solenoides de um conjunto, onde havia um transmissor de pressão. Cada válvula era acionada individualmente numa sequência para a medição do nível de água em cada tubo de coleta, por meio do transmissor. Por meio das análises realizadas, as menores incertezas foram obtidas para os menores diâmetros de tubo de coleta, sendo que se deve utilizar o menor diâmetro possível. Quanto ao tempo de coleta, houve redução da incerteza de medição ao se aumentar a duração, devendo haver um tempo mínimo para se atingir a incerteza-alvo. Apesar de cada intensidade requer um tempo mínimo para garantir a incerteza, a diferença mínima de nível a ser medida foi a mesma. Portanto, para os ensaios visando atender a incerteza, realizou-se o monitoramento da diferença de nível nos tubos, ou diferença de nível, facilitando a realização do ensaio. Outra condição de ensaio considerou um tempo de coleta para 30 voltas do aspersor, também exigido pela norma ISO 15886-3 (2012). A terceira condição considerou 1 h de coleta, como tradicionalmente realizado. As curvas de distribuição de água obtidas por meio do sistema desenvolvido foram semelhantes às obtidas em ensaios convencionais, para as três situações avaliadas. Para tempos de coleta de 1 h ou 30 voltas do aspersor o sistema automático requereu menos tempo total de ensaio que o ensaio convencional. Entretanto, o sistema desenvolvido demandou mais tempo para atingir a incerteza-alvo, o que é uma limitação, mesmo sendo automatizado. De qualquer forma, o sistema necessitava apenas que um técnico informasse os parâmetros de ensaio e o acionasse, possibilitando que o mesmo alocasse seu tempo em outras atividades.
Resumo:
La temperatura superficial del mar (SST) estimada a partir de los productos 11 μm diurnos y nocturnos y 4 μm nocturnos del sensor MODIS (Moderate Resolution Imaging Spectroradiometer) a bordo de la plataforma Aqua, han sido comparados con datos medidos in situ a tres profundidades diferentes (15, 50 y 100 cm) en una zona costera del Mediterráneo Occidental. Esta comparación ha permitido analizar la incertidumbre que existe en la estimación de este parámetro en aguas someras y próximas a la costa mediante imágenes de satélite de baja resolución espacial. Los resultados obtenidos demuestran que el producto diurno SST_11 μm, obtiene los estadísticos RMSE (error cuadrático medio) y r2 (coeficiente de correlación de Pearson) más ajustados con valores de 1°C y 0,96, respectivamente, para la profundidad 50 cm.
Resumo:
Tese de mestrado em Geologia Aplicada, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2016
Resumo:
A growing body of research focuses on the expanding roles of NGOs in global and supranational governance. The research emphasizes the increasing number of participation patterns of NGOs in policymaking and cross-national cooperation. It has produced important insights into the evolving political role of NGOs and their growing involvement in governance. The focus on activities at a transnational level has, however, lead to the virtual exclusion of research on other levels of governance. It has not been possible to tell whether the locus of their political activity is shifting from the national to the transnational environment, or whether it is simply broadening. Missing from the literature is an examination of the variety of cooperative relationships, including those between NGOs, which impact policy involvement across different levels of governance. To bridge this gap, I address two key questions: 1) Is the strategy of cooperation among NGOs a common feature of social movement activity across levels of governance, and if so, what does the structure of cooperation look like? 2) What impact, if any, does cooperation have on the expanding political involvement of NGOS, both within and across levels of governance? Using data from an original survey of migrant and refugee organizations across much of Europe, I test several hypotheses that shed light on these issues. The findings broadly indicate that 1) Cooperation is a widely-used strategy across levels of governance, 2) Cooperation with specific sets of actors increases the likelihood of NGO involvement at different levels of governance. Specifically, cooperation with EU-level actors increases the likelihood of national-level involvement, and 3) NGOs are more likely to extend their involvement across a range of institutions if they cooperate with a broad range of actors.
Resumo:
In dieser Arbeit wird das Verhalten eines Ladungsverstärkers bei verschiedenen Eingangsimpulsformen und -zeiten untersucht. Als erstes wird der derzeitige Stand der Technik dargelegt und die Funktionsweise eines Ladungsverstärkers erläutert. Um die Messungen am Ladungsverstärker durchzuführen, wurde ein Messprogramm in LabView geschrieben und das verwendete Messsystem auf seine Tauglichkeit untersucht. Dazu wurde unter anderem eine Software entwickelt, die einen Ladungsverstärker simuliert. Nach einer kurzen Betrachtung möglicher Fehlereinflüsse, die bei der Digitalisierung von Messsignalen auftreten können, wurde eine Messunsicherheitsbetrachtung nach dem „Guide to the Expression of Uncertainty in Measurement“ (GUM) durchgeführt. Um den gemessenen Übertragungskoeffizienten des Ladungsverstärkers mit dem herkömmlichen Kalibrierverfahren (sinusförmiges Eingangssignal) vergleichbar zu machen, wurde eine Fourier-Analyse der Messsignale angewendet. Für den Frequenzbereich unterhalb von 20 kHz ergibt sich eine gute Übereinstimmung des Übertragungsverhaltens des Ladungsverstärkers mit dem herkömmlichen Kalibierverfahren bei Anregungen mit verschiedenen impulsförmigen Eingangssignalen. Oberhalb von 20 kHz weichen die Ergebnisse der zwei Messverfahren voneinander ab, da die maximale Signalanstiegsrate des Ladungsverstärkers überschritten wird.
Resumo:
Substantial retreat or disintegration of numerous ice shelves have been observed on the Antarctic Peninsula. The ice shelf in the Prince Gustav Channel retreated gradually since the late 1980's and broke-up in 1995. Tributary glaciers reacted with speed-up, surface lowering and increased ice discharge, consequently contributing to sea level rise. We present a detailed long-term study (1993-2014) on the dynamic response of Sjögren Inlet glaciers to the disintegration of Prince Gustav Ice Shelf. We analyzed various remote sensing datasets to observe the reactions of the glaciers to the loss of the buttressing ice shelf. A strong increase in ice surface velocities was observed with maximum flow speeds reaching 2.82±0.48 m/d in 2007 and 1.50±0.32 m/d in 2004 at Sjögren and Boydell glaciers respectively. Subsequently, the flow velocities decelerated, however in late 2014, we still measured about two times the values of our first measurements in 1996. The tributary glaciers retreated 61.7±3.1 km² behind the former grounding line of the ice shelf. In regions below 1000 m a.s.l., a mean surface lowering of -68±10 m (-3.1 m/a) was observed in the period 1993-2014. The lowering rate decreased to -2.2 m/a in recent years. Based on the surface lowering rates, geodetic mass balances of the glaciers were derived for different time steps. High mass loss rate of -1.21±0.36 Gt/a was found in the earliest period (1993-2001). Due to the dynamic adjustments of the glaciers to the new boundary conditions the ice mass loss reduced to -0.59±0.11 Gt/a in the period 2012-2014, resulting in an average mass loss rate of -0.89±0.16 Gt/a (1993-2014). Including the retreat of the ice front and grounding line, a total mass change of -38.5±7.7 Gt and a contribution to sea level rise of 0.061±0.013 mm were computed. Analysis of the ice flux revealed that available bedrock elevation estimates at Sjögren Inlet are too shallow and are the major uncertainty in ice flux computations. This temporally dense time series analysis of Sjögren Inlet glaciers shows that the adjustments of tributary glaciers to ice shelf disintegration are still going on and provides detailed information of the changes in glacier dynamics.
Resumo:
In the deep-sea, the Paleocene-Eocene Thermal Maximum (PETM) is often marked by clay-rich condensed intervals caused by dissolution of carbonate sediments, capped by a carbonate-rich interval. Constraining the duration of both the dissolution and subsequent cap-carbonate intervals is essential to computing marine carbon fluxes and thus testing hypotheses for the origin of this event. To this end, we provide new high-resolution helium isotope records spanning the Paleocene-Eocene boundary at ODP Site 1266 in the South Atlantic. The extraterrestrial 3He, 3HeET, concentrations replicate trends observed at ODP Site 690 by Farley and Eltgroth (2003, doi:10.1016/S0012-821X(03)00017-7). By assuming a constant flux of 3HeET we constrain relative changes in accumulation rates of sediment across the PETM and construct a new age model for the event. In this new chronology the zero carbonate layer represents 35 kyr, some of which reflects clay produced by dissolution of Paleocene (pre-PETM) sediments. Above this layer, carbonate concentrations increase for ~165 kyr and remain higher than in the latest Paleocene until 234 +48/-34 kyr above the base of the clay. The new chronology indicates that minimum d13C values persisted for a maximum of 134 +27/-19 kyr and the inflection point previously chosen to designate the end of the CIE recovery occurs at 217 +44/-31 kyr. This allocation of time differs from that of the cycle-based age model of Röhl et al. (2007, doi:10.1029/2007GC001784) in that it assigns more time to the clay layer followed by a more gradual recovery of carbonate-rich sedimentation. The new model also suggests a longer sustained d13C excursion followed by a more rapid recovery to pre-PETM d13C values. These differences have important implications for constraining the source(s) of carbon and mechanisms for its subsequent sequestration, favoring models that include a sustained release
Resumo:
Following three decades of relative stability, Jakobshavn Isbrae, West Greenland, underwent dramatic thinning, retreat and speed-up starting in 1998. To assess the amount of ice loss, we analyzed 1985 aerial photos and derived a 40 m grid digital elevation model (DEM). We also obtained a 2007 40 m grid SPOT DEM covering the same region. Comparison of the two DEMs over an area of ~4000 km**2 revealed a total ice loss of 160 ± 4 km**3, with 107 ± 0.2 km**3 in grounded regions (0.27 mm eustatic sea-level rise) and 53 ± 4 km**3 from the disintegration of the floating tongue. Comparison of the DEMs with 1997 NASA Airborne Topographic Mapper data indicates that this ice loss essentially occurred after 1997, with +0.7 ± 5.6 km**3 between 1985 and 1997 and -160 ± 7 km**3 between 1997 and 2007. The latter is equivalent to an average specific mass balance of -3.7 ± 0.2 m/a over the study area. Previously reported thickening of the main glacier during the early 1990s was accompanied by similar-magnitude thinning outside the areas of fast flow, indicating that the land-based ice continued reacting to longer-term climate forcing.
Resumo:
O presente trabalho tem por finalidade apresentar uma contribuição teórica para os estudos de defesa, tendo como objeto de análise os livros brancos e também demais documentos oficiais relacionados ao tema. Inspirado no realismo neoclássico e nos conceitos estruturalistas empreendeu-se uma pesquisa quantitativa da dinâmica dos processos de elaboração da política declarada de defesa e seu correspondente alinhamento na construção ou desconstrução das estruturas de defesa no Pós-Segunda Grande Guerra, com vistas a compreender os novos caminhos que os sistemas de defesa selecionaram nesse início de século. Os documentos oficiais de defesa surgiram com escopo principal de promover a estabilidade e reduzir as incertezas no ambiente internacional, e pôde ser verificado que a difusão, desses documentos, ocorreu por ondas, durante o período da Guerra Fria, no Pós-Guerra Fria e depois dos atentados de 11 de setembro. A pesquisa também teve por escopo apresentar fatores domésticos e externos que contribuíram ou não para a difusão da documentação e também para a orientação doutrinária de defesa, usando como método de pesquisa o teste de Wald e a técnica implementada por Benoit, Laver e Garry, que desenvolveram uma forma de análise de textos políticos com auxílio de programa de computador, para estimar o posicionamento de cada documento por meio da contagem de palavras. Em que pese à pesquisa ser basicamente quantitativa, foram produzidos dois capítulos essencialmente qualitativos que tiveram o objetivo de prover os instrumentos quantitativos com um necessário arcabouço teórico, sendo feita uma análise mais qualitativa em 52 documentos de defesa e uma discussão teórica entre as principais correntes de pensamento que tratam do tema defesa. E por fim buscou-se atestar a validade desses documentos de defesa quanto aos propósitos que se destinam.
Resumo:
Risk-ranking protocols are used widely to classify the conservation status of the world's species. Here we report on the first empirical assessment of their reliability by using a retrospective study of 18 pairs of bird and mammal species (one species extinct and the other extant) with eight different assessors. The performance of individual assessors varied substantially, but performance was improved by incorporating uncertainty in parameter estimates and consensus among the assessors. When this was done, the ranks from the protocols were consistent with the extinction outcome in 70-80% of pairs and there were mismatches in only 10-20% of cases. This performance was similar to the subjective judgements of the assessors after they had estimated the range and population parameters required by the protocols, and better than any single parameter. When used to inform subjective judgement, the protocols therefore offer a means of reducing unpredictable biases that may be associated with expert input and have the advantage of making the logic behind assessments explicit. We conclude that the protocols are useful for forecasting extinctions, although they are prone to some errors that have implications for conservation. Some level of error is to be expected, however, given the influence of chance on extinction. The performance of risk assessment protocols may be improved by providing training in the application of the protocols, incorporating uncertainty in parameter estimates and using consensus among multiple assessors, including some who are experts in the application of the protocols. Continued testing and refinement of the protocols may help to provide better absolute estimates of risk, particularly by re-evaluating how the protocols accommodate missing data.
Resumo:
Background: Major depression is the largest single cause of nonfatal disease burden in Australia. Effective drug and psychological treatments exist, yet are underused. Objective: To quantify the burden of disease currently averted in people seeking care for major depression and the amount of disease burden that could be averted in these people under optimal episodic and maintenance treatment strategies. Design: Modeling impact of current and optimal treatment strategies based on secondary analysis of mental health survey data, studies of the natural history of major depression, and meta-analyses of effectiveness data. Monte Carlo simulation of uncertainty in the model. Setting: The cohort of Australian adults experiencing an episode of major depression in 2000 are modeled through "what if" scenarios of no treatment, current treatment, and optimal treatment strategies with cognitive behavioral therapy or antidepressant drug treatment. Main Outcome Measure: Disability-Adjusted Life Year. Results: Current episodic treatment averts 9% (95% uncertainty interval, 6%-12%) of the disease burden of major depression in Australian adults. Optimal episodic treatment with cognitive behavioral therapy could avert 28% (95% uncertainty interval, 19%-39%) of this disease burden, and with drugs 24% (95% uncertainty interval, 19%-30%) could be averted. During the 5 years after an episode of major depression, current episodic treatment patterns would avert 13% (95% uncertainty interval, 10%-17%) of Disability-Adjusted Life Years, whereas maintenance drug treatment could avert 50% (95% uncertainty interval, 40%-60%) and maintenance cognitive behavioral therapy could avert 52% (95% uncertainty interval, 42%-64%), even if adherence of around 60% is taken into account. Conclusions: Longer-term maintenance drug or psychological treatment strategies are required to make significant inroads into the large disease burden associated with major depression in the Australian population.
Resumo:
The purpose of this research was to estimate the cost-effectiveness of two rehabilitation interventions for breast cancer survivors, each compared to a population-based, non-intervention group (n = 208). The two services included an early home-based physiotherapy intervention (DAART, n = 36) and a group-based exercise and psychosocial intervention (STRETCH, n = 31). A societal perspective was taken and costs were included as those incurred by the health care system, the survivors and community. Health outcomes included: (a) 'rehabilitated cases' based on changes in health-related quality of life between 6 and 12 months post-diagnosis, using the Functional Assessment of Cancer Therapy - Breast Cancer plus Arm Morbidity (FACT-B+4) questionnaire, and (b) quality-adjusted life years (QALYs) using utility scores from the Subjective Health Estimation (SHE) scale. Data were collected using self-reported questionnaires, medical records and program budgets. A Monte-Carlo modelling approach was used to test for uncertainty in cost and outcome estimates. The proportion of rehabilitated cases was similar across the three groups. From a societal perspective compared with the non-intervention group, the DAART intervention appeared to be the most efficient option with an incremental cost of $1344 per QALY gained, whereas the incremental cost per QALY gained from the STRETCH program was $14,478. Both DAART and STRETCH are low-cost, low-technological health promoting programs representing excellent public health investments.