959 resultados para Default Soberano


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Size-at-50% maturity, age and growth, of Oreochromis (Nyasalapia) karongae (‘chambo’) in Lakes Malawi and Malombe were studied. Similar size-at-50% maturity and growth patterns were found for populations in Lake Malawi, but differences were observed for Lake Malombe populations, suggesting that current chambo fisheries management regulations, based on findings from the southern part of Lake Malawi, may be applicable to the central and southern parts of that lake, but not to Lake Malombe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese de doutorado é dedicada ao estudo do pensamento de Nietzsche quanto à liberdade e à responsabilidade. Circunscrevendo-se no período que vai de Humano, demasiado Humano até as obras da maturidade produtiva do filósofo, o autor busca identificar os diversos meios que o pensador usou para tentar conceber uma noção de liberdade individual que não incorresse nos pressupostos metafísicos que historicamente determinaram seu conceito, problematizando assim as noções de sujeito, autodeterminação, intencionalidade, vontade, metas, motivos da ação e, particulamente, a noção de responsabilidade. Por meio da análise crítica de determinadas referências teóricas do filósofo, junto de uma leitura cronológica que acompanha as transformações conceituais presentes nas obras publicadas e nas anotações póstumas, esta pesquisa mostra o caminho de experimentação por meio do qual o pensamento de Nietzsche tomou forma e amadureceu ao longo dos anos. O problema que orienta toda a concepção da tese é o questionamento sobre como ser possível a responsabilidade no interior da própria desconstrução do sentido quanto aos critérios de avaliação das ações, de seus motivos e objetivos. Neste sentido, esta pesquisa investiga como Nietzsche busca por outros critérios que possibilitem avaliações e ações com engajamento efetivo e duradouro. Na medida em que sua busca por superação da metafísica envolve o ensaio de pensar num outro modo de relação com a prática de estabilização do devir que não exclua a assunção de sua vigência e as consequências disso, o autor postula a hipótese interpretativa de que o ideal moral de Nietzsche reside na figura do indivíduo soberano apresentado em Para a Genealogia da Moral, no qual se concretizaria a viabilidade de uma forma de comprometimento com projetos e pessoas, reinstaurando-se a liberdade e a responsabilidade como critérios de autorealização que superem, ao mesmo tempo, os seus tradicionais critérios metafísico-niilistas, por meio de uma outra compreensão de subjetividade e de autodeterminação, a partir da prática de experimentos de auto superação que não incorram necessariamente na impossibilidade de engajamentos duradouros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese versa sobre a análise de um dos grandes projetos tecnológicos do Estado nacional, o PEB, com o intuito de verificar em que medida o Brasil, enquanto País em desenvolvimento e inserido no processo de globalização econômica, tem a possibilidade de autodeterminar um projeto nacional de desenvolvimento relativamente soberano e sustentável, mediante sua capacitação tecnológica em áreas de ponta, como as tecnologias espaciais. Neste ínterim, é discutido o processo de institucionalização da ciência no País e a implantação de um moderno sistema de C&T no Brasil através de uma aliança entre cientistas e militares, culminando com a criação do CNPq em 1951. Apresentamos uma releitura da nossa recente história política e os projetos nacionais de desenvolvimento de que foi alvo o País, formulados pelos grupos sociais mais representativos da sociedade na época estudada, recuperando uma discussão que, estendendo-se por décadas, reservou à questão científica um lugar privilegiado no planejamento do Estado. O período da ditadura militar é especialmente contemplado, considerando-se ter sido esta a fase em que realmente o Programa Espacial Brasileiro sofreu maiores investimentos, conferindo aos militares um papel de destaque no quadro de atores sociais coletivos empenhados no projeto de desenvolvimento do País, destacando as diversas correntes ideológicas em ação dentro das Forças Armadas. Foi analisado o processo de globalização devido ao seu nexo interno e externo com as políticas científicas implantadas ou preconizadas no País. Esse processo, alavancado pela nova dinâmica tecnológica internacional iniciada nos anos 1980, estabeleceu profundos impactos e mudanças na constituição atual da esfera do político. Este é o cenário onde, de nosso ponto de vista, inscreve-se a questão da capacitação científico-tecnológica como variável estratégica em todos os níveis das relações internacionais. A compreensão desta problemática deve ser entendida como parte do cenário mundial que se configurou nas últimas décadas do século XX, tendo no entrelaçamento das dinâmicas científico-tecnológica e a soberania nacional dos Estados uma sinergia diferenciada na reordenação geopolítica contemporânea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem por objetivo analisar a cláusula de não indenizar, expressão utilizada como gênero do qual são espécies a cláusula que exonera e a que limita o dever de indenizar, à luz do ordenamento jurídico brasileiro. O estudo se justifica em virtude da cada vez mais frequente utilização deste ajuste para regular negócios jurídicos e por não existir um marco legislativo a respeito da matéria. A controvérsia inicial diz respeito à validade da convenção, que é resultado da ponderação do direito de autorregular suas relações e o princípio da reparação integral. Os seus principais requisitos de validade são a inexistência de dolo do agente causador do dano e a não violação a normas de ordem pública. A convenção pode incidir sobre a obrigação principal, salvo quando esta for personalíssima ou quando a indenização for a única forma de o credor obter o resultado equivalente à prestação Para ser eficaz, a convenção deve, ainda, guardar relação de equilíbrio e proporcionalidade entre os riscos assumidos e o benefício daquele que se submete ao risco de não ter ou ter parcialmente reparado os danos que lhe foi causado. O inadimplemento, absoluto ou relativo, é basicamente o risco contratual ao qual se submetem todos os contratantes e, nesse contexto, a cláusula de não indenizar tem como função alterar a distribuição dos riscos já fixados pelo legislador. A negociação dos riscos submete-se a alguns limites, destacando-se a possibilidade de os riscos serem previstos, o respeito aos princípios da boa-fé objetiva e do equilíbrio contratual, bem como a necessidade de ultrapassar o juízo de merecimento de tutela (meritevolezza). Nos contratos de adesão, a cláusula pode ser prevista, desde que a obrigação que atinge não seja personalíssima ou que tenha a indenização como única forma de o credor obter o equivalente a prestação. Já nas relações de consumo, é possível a limitação do dever de indenizar nos vícios de produtos e serviços, desde que o consumidor seja pessoa jurídica e a situação seja justificável, o que ocorre quando há negociação entre as partes, o consumidor é beneficiado com uma expressa vantagem e é assistido por consultor jurídico que lhe aponte os riscos inerentes àquela convenção.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Predicting and averting the spread of invasive species is a core focus of resource managers in all ecosystems. Patterns of invasion are difficult to forecast, compounded by a lack of user-friendly species distribution model (SDM) tools to help managers focus control efforts. This paper presents a web-based cellular automata hybrid modeling tool developed to study the invasion pattern of lionfish (Pterois volitans/miles) in the western Atlantic and is a natural extension our previous lionfish study. Our goal is to make publically available this hybrid SDM tool and demonstrate both a test case (P. volitans/miles) and a use case (Caulerpa taxifolia). The software derived from the model, titled Invasionsoft, is unique in its ability to examine multiple default or user-defined parameters, their relation to invasion patterns, and is presented in a rich web browser-based GUI with integrated results viewer. The beta version is not species-specific and includes a default parameter set that is tailored to the marine habitat. Invasionsoft is provided as copyright protected freeware at http://www.invasionsoft.com.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A novel monolithically integrated Michelson interferometer using intersecting twin-contact semiconductor optical amplifiers is proposed and implemented whereby the two arms are gain imbalanced to give enhanced noise suppression. Experimental OSNR improvements of 8.4 dB for pulses with durations 8 ps and by default ER of 14 dB are demonstrated for low driving currents of between 25 and 30 mA. This is believed to be the smallest Michelson interferometer to date.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Most assessments of fish stocks use some measure of the reproductive potential of a population, such as spawning biomass. However, the correlation between spawning biomass and reproductive potential is not always strong, and it likely is weakest in the tropics and subtropics, where species tend to exhibit indeterminate fecundity and release eggs in batches over a protracted spawning season. In such cases, computing annual reproductive output requires estimates of batch fecundity and the annual number of batches—the latter subject to spawning frequency and duration of spawning season. Batch fecundity is commonly measured by age (or size), but these other variables are not. Without the relevant data, the annual number of batches is assumed to be invariant across age. We reviewed the literature and found that this default assumption lacks empirical support because both spawning duration and spawning frequency generally increase with age or size. We demonstrate effects of this assumption on measures of reproductive value and spawning potential ratio, a metric commonly used to gauge stock status. Model applications showed substantial sensitivity to age dependence in the annual number of batches. If the annual number of batches increases with age but is incorrectly assumed to be constant, stock assessment models would tend to overestimate the biological reference points used for setting harvest rates. This study underscores the need to better understand the age- or size-dependent contrast in the annual number of batches, and we conclude that, for species without evidence to support invariance, the default assumption should be replaced with one that accounts for age- or size-dependence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The occurrence of hypoxia, or low dissolved oxygen, is increasing in coastal waters worldwide and represents a significant threat to the health and economy of our Nation’s coasts and Great Lakes. This trend is exemplified most dramatically off the coast of Louisiana and Texas, where the second largest eutrophication-related hypoxic zone in the world is associated with the nutrient pollutant load discharged by the Mississippi and Atchafalaya Rivers. Aquatic organisms require adequate dissolved oxygen to survive. The term “dead zone” is often used in reference to the absence of life (other than bacteria) from habitats that are devoid of oxygen. The inability to escape low oxygen areas makes immobile species, such as oysters and mussels, particularly vulnerable to hypoxia. These organisms can become stressed and may die due to hypoxia, resulting in significant impacts on marine food webs and the economy. Mobile organisms can flee the affected area when dissolved oxygen becomes too low. Nevertheless, fish kills can result from hypoxia, especially when the concentration of dissolved oxygen drops rapidly. New research is clarifying when hypoxia will cause fish kills as opposed to triggering avoidance behavior by fish. Further, new studies are better illustrating how habitat loss associated with hypoxia avoidance can impose ecological and economic costs, such as reduced growth in commercially harvested species and loss of biodiversity, habitat, and biomass. Transient or “diel-cycling” hypoxia, where conditions cycle from supersaturation of oxygen late in the afternoon to hypoxia or anoxia near dawn, most often occurs in shallow, eutrophic systems (e.g., nursery ground habitats) and may have pervasive impacts on living resources because of both its location and frequency of occurrence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Three-dimensional bumps have been developed and investigated, aiming at the two major objectives of shock-wave / boundary-layer interaction control, i.e. drag reduction and suppression of separation, simultaneously. An experimental investigation has been conducted for a default rounded bump in channel now at University of Cambridge and a computational study has been performed for a spanwise series of rounded bumps mounted on a transonic aerofoil at University of Stuttgart. Observed in both cases are wave drag reduction owing to A-shock structures produced by three-dimensional surface bumps and mild control effects on the boundary layer. The effects of rough surface and tall extension have been investigated as well as several geometric variations and multiple bump configurations. A double configuration of narrow rounded bumps has been found to best perform amongst the tested, considerably reducing wave drag through a well-established A-shock structure with little viscous penalty and thus achieving substantial overall drag reduction. Counter-rotating streamwise vortex pairs have been produced by some configurations as a result of local flow separation, but they have been observed to be confined in relatively narrow wake regions, expected to be beneficial in suppressing large-scale separation under off-design condition despite increase of viscous drag. On the whole a large potential of three-dimensional control with discrete rounded bumps has been demonstrated both experimentally and numerically, and experimental investigation of bumps fitted on a transonic aerofoil or wing is suggested toward practical application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The unscented Kalman filter (UKF) is a widely used method in control and time series applications. The UKF suffers from arbitrary parameters necessary for a step known as sigma point placement, causing it to perform poorly in nonlinear problems. We show how to treat sigma point placement in a UKF as a learning problem in a model based view. We demonstrate that learning to place the sigma points correctly from data can make sigma point collapse much less likely. Learning can result in a significant increase in predictive performance over default settings of the parameters in the UKF and other filters designed to avoid the problems of the UKF, such as the GP-ADF. At the same time, we maintain a lower computational complexity than the other methods. We call our method UKF-L. ©2010 IEEE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The unscented Kalman filter (UKF) is a widely used method in control and time series applications. The UKF suffers from arbitrary parameters necessary for sigma point placement, potentially causing it to perform poorly in nonlinear problems. We show how to treat sigma point placement in a UKF as a learning problem in a model based view. We demonstrate that learning to place the sigma points correctly from data can make sigma point collapse much less likely. Learning can result in a significant increase in predictive performance over default settings of the parameters in the UKF and other filters designed to avoid the problems of the UKF, such as the GP-ADF. At the same time, we maintain a lower computational complexity than the other methods. We call our method UKF-L. © 2011 Elsevier B.V.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper aims to solve the fault tolerant control problem of a wind turbine benchmark. A hierarchical controller with model predictive pre-compensators, a global model predictive controller and a supervisory controller is proposed. In the model predictive pre-compensator, an extended Kalman Filter is designed to estimate the system states and various fault parameters. Based on the estimation, a group of model predictive controllers are designed to compensate the fault effects for each component of the wind turbine. The global MPC is used to schedule the operation of the components and exploit potential system-level redundancies. Extensive simulations of various fault conditions show that the proposed controller has small transients when faults occur and uses smoother and smaller generator torque and pitch angle inputs than the default controller. This paper shows that MPC can be a good candidate for fault tolerant controllers, especially the one with an adaptive internal model combined with a parameter estimation and update mechanism, such as an extended Kalman Filter. © 2012 IFAC.