863 resultados para Statutory Licensing
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
Published by the BMJ Publishing Group Limited. For permission to use (where not already granted under a licence) please go to http://group.bmj.com/group/rights-licensing/permissions.
Resumo:
Somatic histone H1 reduces both the rate and extent of DNA replication in Xenopus egg extract. We show here that H1 inhibits replication directly by reducing the number of replication forks, but not the rate of fork progression, in Xenopus sperm nuclei. Density substitution experiments demonstrate that those forks that are active in H1 nuclei elongate to form large tracts of fully replicated DNA, indicating that inhibition is due to a reduction in the frequency of initiation and not the rate or extent of elongation. The observation that H1 dramatically reduces the number of replication foci in sperm nuclei supports this view. The establishment of replication competent DNA in egg extract requires the assembly of prereplication complexes (pre-RCs) on sperm chromatin. H1 reduces binding of the pre-RC proteins, XOrc2, XCdc6, and XMcm3, to chromatin. Replication competence can be restored in these nuclei, however, only under conditions that promote the loss of H1 from chromatin and licensing of the DNA. Thus, H1 inhibits replication in egg extract by preventing the assembly of pre-RCs on sperm chromatin, thereby reducing the frequency of initiation. These data raise the interesting possibility that H1 plays a role in regulating replication origin use during Xenopus development.
Resumo:
Objective: To develop and evaluate an effective, community based, multiagency course (involving doctors, nurses, non-health statutory workers, and voluntary organisations) for all Leicester medical students, in response to the General Medical Council’s recommendation of preparing the doctors of tomorrow to handle society’s medical problems.
Resumo:
Contracting to provide technological information (TI) is a significant challenge. TI is an unusual commodity in five ways. (i) TI is difficult to count and value; conventional indicators, such as patents and citations, hardly indicate value. TI is often sold at different prices to different parties. (ii) To value TI, it may be necessary to “give away the secret.” This danger, despite nondisclosure agreements, inhibits efforts to market TI. (iii) To prove its value, TI is often bundled into complete products, such as a computer chip or pharmaceutical product. Efficient exchange, by contrast, would involve merely the raw information. (iv) Sellers’ superior knowledge about TI’s value make buyers wary of overpaying. (v) Inefficient contracts are often designed to secure rents from TI. For example, licensing agreements charge more than marginal cost. These contracting difficulties affect the way TI is produced, encouraging self-reliance. This should be an advantage to large firms. However, small research and development firms spend more per employee than large firms, and nonprofit universities are major producers. Networks of organizational relationships, particularly between universities and industry, are critical in transmitting TI. Implicit barter—money for guidance—is common. Property rights for TI are hard to establish. Patents, quite suitable for better mousetraps, are inadequate for an era when we design better mice. Much TI is not patented, and what is patented sets fuzzy demarcations. New organizational forms are a promising approach to contracting difficulties for TI. Webs of relationships, formal and informal, involving universities, start-up firms, corporate giants, and venture capitalists play a major role in facilitating the production and spread of TI.
Resumo:
The intellectual property laws in the United States provide the owners of intellectual property with discretion to license the right to use that property or to make or sell products that embody the intellectual property. However, the antitrust laws constrain the use of property, including intellectual property, by a firm with market power and may place limitations on the licensing of intellectual property. This paper focuses on one aspect of antitrust law, the so-called “essential facilities doctrine,” which may impose a duty upon firms controlling an “essential facility” to make that facility available to their rivals. In the intellectual property context, an obligation to make property available is equivalent to a requirement for compulsory licensing. Compulsory licensing may embrace the requirement that the owner of software permit access to the underlying code so that others can develop compatible application programs. Compulsory licensing may undermine incentives for research and development by reducing the value of an innovation to the inventor. This paper shows that compulsory licensing also may reduce economic efficiency in the short run by facilitating the entry of inefficient producers and by promoting licensing arrangements that result in higher prices.
Resumo:
Trata-se de um estudo descritivo e exploratório, com abordagem qualitativa dos dados. Objetivou-se analisar a percepção da equipe de enfermagem sobre as condições geradoras de absenteísmo e suas implicações na assistência nas unidades de Urgência e Emergência (UE) das cinco distritais de saúde no município de Ribeirão Preto/SP. Os sujeitos foram profissionais da equipe de enfermagem (enfermeiro, auxiliar e técnico de enfermagem) que atuam nestas unidades. Foram selecionados 2 profissionais de cada categoria, a partir dos critérios de inclusão do estudo, sem considerar sexo, faixa etária e tempo de trabalho no serviço, totalizando 30 participantes. Os dados foram coletados por meio de entrevistas individuais semiestruturadas, conduzidas a partir de um roteiro norteador composto pelas variáveis (Processo de Gestão de Recursos Humanos (RH); Condição de Trabalho em Equipe e Qualidade do Cuidado Prestado) abordadas no estudo. Para análise dos dados utilizou-se análise de conteúdo, modalidade temática. Após análise dos dados, as categorias encontradas foram: TEMA 1 - Gerenciamento, organização e enfrentamento para a operacionalização do trabalho de enfermagem (Subtema 1 - Operacionalização da escala de trabalho frente ao desafio do quantitativo da equipe de enfermagem na unidade de UE; Subtema 2 - Reorganização do trabalho e a perspectiva dos trabalhadores frente à mudança para as 30h/semanais e a terceirização do serviço; Subtema 3 - Tempo de permanência do profissional no serviço; Subtema 4 - Comunicação como ferramenta para desenvolver o trabalho em equipe e gerenciar conflitos); TEMA 2 - Condições impostas ao trabalhador e sua influência no desenvolvimento do trabalho (Subtema 1 - Plano de carreira e salário como estimulantes para desenvolvimento do trabalho; Subtema 2 - Vínculo empregatício: vantagens e desvantagens; Subtema 3 - Educação permanente e sua importância para desenvolvimento do trabalho; Subtema 4 - Influência da estrutura física, materiais e equipamentos no cuidado) e TEMA 3 - Avaliação do serviço e da assistência prestada. No que diz respeito ao quantitativo de enfermagem disposto nas unidades, todos os entrevistados relatam que é um quantitativo razoável e que, em alguns momentos, se sentem sobrecarregados quando ocorrem ausências não previstas. Ao se tratar da terceirização das unidades estatutárias, relata-se que não houve comunicação prévia do evento e é visível a insegurança e frustração por parte dos entrevistados. Ressalta-se que a unidade terceirizada não sofreu mudanças em sua rotina. A rotatividade é presente nestas unidades de UE, sendo maior em determinada unidade e ocorre por inúmeros motivos, dentre eles, aposentadoria, transferência para Unidade Básica de Saúde (UBS), conflitos na equipe e/ou com pacientes, dentre outros. Todos os entrevistados sugerem que a comunicação é fundamental para o desenvolvimento do trabalho em equipe e é através dela que os conflitos possam vir a ser resolvidos. Neste momento, percebe-se, a partir das falas, que a comunicação é diferente entre as unidades e, portanto, existem níveis diferentes de conflitos entre as unidades. O município não possui um plano de carreira efetivo, portanto os entrevistados demonstram desmotivação para buscar novos conhecimentos. Quanto ao salário, estes têm a visão de que é razoável, sendo considerado elevado em relação às demais instituições de saúde do município, porém, defasado em relação à categoria profissional. Os profissionais terceirizados relatam uma certa insatisfação por trabalhar da mesma forma que os estatutários, recebendo um menor salário e sem os mesmos benefícios, o que nos leva à categoria vínculo empregatício, onde a estabilidade é abordada com visões positivas e negativas. Ao se tratar da visão negativa, os entrevistados sugerem que muitos colegas não sabem lidar com esse benefício, se ausentando do trabalho ou trabalhando de uma forma não adequada, prejudicando a rotina do serviço. No que tange à educação permanente, temos a diferença mais gritante do estudo, visto que os entrevistados estatutários relatam que não possuem a disponibilização, através da prefeitura, de cursos de atualização, capacitação e constante aprendizado enquanto que os terceirizados relatam atualizações constantes e apoio por parte da instituição com a qual eles estão vinculados. É unânime que todos os entrevistados consideram que a estrutura física, materiais e equipamentos interferem diretamente no cuidado. Ao serem questionados em relação à avaliação do cuidado prestado, eles o consideram bom, podendo ser melhor caso fossem disponibilizadas condições de trabalho mais adequadas. Considera-se o estudo como um possível instrumento de avaliação dos serviços prestados em unidade de UE, bem como das condições de trabalho fornecidas ao trabalhador e sua satisfação profissional
Resumo:
Após os acidentes nucleares ocorridos no mundo, critérios e requisitos extremamente rígidos para a operação das instalações nucleares foram determinados pelos órgãos internacionais que regulam essas instalações. A partir da ocorrência destes eventos, as operadoras de plantas nucleares necessitam simular alguns acidentes e transientes, por meio de programas computacionais específicos, para obter a licença de operação de uma planta nuclear. Com base neste cenário, algumas ferramentas computacionais sofisticadas têm sido utilizadas como o Reactor Excursion and Leak Analysis Program (RELAP5), que é o código mais utilizado para a análise de acidentes e transientes termo-hidráulicos em reatores nucleares no Brasil e no mundo. Uma das maiores dificuldades na simulação usando o código RELAP5 é a quantidade de informações geométricas da planta necessárias para a análise de acidentes e transientes termo-hidráulicos. Para a preparação de seus dados de entrada é necessário um grande número de operações matemáticas para calcular a geometria dos componentes. Assim, a fim de realizar estes cálculos e preparar dados de entrada para o RELAP5, um pré-processador matemático amigável foi desenvolvido, neste trabalho. O Visual Basic for Applications (VBA), combinado com o Microsoft Excel, foi utilizado e demonstrou ser um instrumento eficiente para executar uma série de tarefas no desenvolvimento desse pré-processador. A fim de atender as necessidades dos usuários do RELAP5, foi desenvolvido o Programa de Cálculo do RELAP5 PCRELAP5 onde foram codificados todos os componentes que constituem o código, neste caso, todos os cartões de entrada inclusive os opcionais de cada um deles foram programados. Adicionalmente, uma versão em inglês foi criada para PCRELAP5. Também um design amigável do PCRELAP5 foi desenvolvido com a finalidade de minimizar o tempo de preparação dos dados de entrada e diminuir os erros cometidos pelos usuários do código RELAP5. Nesse trabalho, a versão final desse pré-processador foi aplicada com sucesso para o Sistema de Injeção de Emergência (SIE) da usina Angra 2.
Resumo:
O objeto desta pesquisa são as relações entre os conceitos de interpretação conforme a Constituição e os limites à utilização, segundo a doutrina brasileira. O propósito é verificar se e como os diferentes conceitos de interpretação conforme a Constituição empregados pelos autores influenciam seus argumentos em torno dos limites à utilização desse instrumento. Parte-se de um referencial teórico de análise conceitual, ancorado sobretudo nos trabalhos de Brian Bix e Andrew Halpin, para estruturar-se a identificação e a análise dos diferentes conceitos presentes na literatura. Opta-se pela apresentação das ideias dos autores mais influentes na doutrina nacional, selecionados a partir de um critério de número de citações e especialidade da obra. Ao final, conclui-se que: (a) os autores utilizam ao menos nove conceitos diferentes: (i) como interpretação orientada pela Constituição, (ii) integração conforme a Constituição, critério normativo (iii) com e (iv) sem declaração de inconstitucionalidade, (v) interpretação extensiva ou restritiva de acordo com a Constituição, (vi) declaração de inconstitucionalidade da interpretação em concreto, (vii) um tipo de decisão com estrutura específica e (viii) um tipo de dispositivo decisório específico; (ix) um argumento retórico; (b) que os autores geralmente mencionam os mesmos limites, independentemente do conceito que adotam; (c) que, no entanto, os limites não se adequam da mesma forma a todos os conceitos empregados. Sustenta-se que o esclarecimento dessas relações é capaz de aumentar a compreensão sobre o tema, inclusive para os fins de análise da jurisprudência.
Resumo:
O presente trabalho tem por objetivo aprofundar o regime jurídico disciplinar do servidor público temporário. Analisam-se as características principais dessa espécie de agente público que o diferenciam dos demais servidores e que justificam um regime disciplinar próprio. Em uma breve investigação sobre as prováveis origens do temporário, constata-se a presença desse servidor na Administração Pública brasileira desde 1823. No direito estrangeiro (particularmente, no direito francês e no direito português), verifica-se a existência de figuras assemelhadas ao servidor público temporário brasileiro, que é uma espécie de servidor público do gênero agente público, exercendo uma função pública, mas não ocupando nem cargo, nem emprego públicos, sendo contratado por tempo determinado para atender a necessidade temporária de excepcional interesse público. A Constituição Federal, em seu artigo 37, IX, indica que a lei estabelecerá os casos de contratação por tempo determinado, mas não há uma uniformidade entre os entes da federação sobre o regime jurídico adotado para o servidor temporário. Esta análise concentra-se na Lei Federal n.º 8.745/93, que disciplina o assunto. No âmbito federal, o servidor público temporário é dotado de um regime jurídico com características mais próximas do regime jurídico administrativo, sendo recrutado por meio de contrato administrativo assemelhado ao regime estatutário. Tal contratação deve pautar-se pela observância dos princípios da continuidade do serviço público, da moralidade, da impessoalidade, da razoabilidade, da proporcionalidade e da motivação. Focaliza-se a responsabilidade do servidor público temporário no âmbito administrativo, procurando-se demonstrar que tal servidor, por um princípio de equiparação, submete-se a um processo administrativo disciplinar para apuração de suas faltas, o qual cumpre prazos especiais e condições específicas em razão do vínculo temporário com a Administração Pública, em tudo sendo respeitado o devido processo legal, a ampla defesa e o contraditório. Analisam-se as diferenças entre o processo disciplinar do servidor temporário (sindicância) e o processo do servidor público em geral, os ritos adotados, os prazos, as penalidades e os recursos, constatando-se que o servidor público temporário responde pelos atos ilícitos em todas as esferas: penal, civil, administrativa e por atos de improbidade. A transitoriedade na função não o exime de responsabilidades, por isso, com as devidas adaptações, está sujeito aos ônus e bônus do serviço público. Daí a necessidade de construir, com base nas características próprias dessa espécie de servidor público, um regime adaptado às especificações do vínculo especial a que se submete o servidor público temporário. Propõe-se aqui um miniprocesso disciplinar ou um processo disciplinar especial, ou uma minissindicância ou uma sindicância especial, sui generis.
Resumo:
O presente trabalho questiona o papel da legislação na realização judicial do direito. Para responder a essa questão, empreende-se uma tese conceitual sobre a dinâmica jurídica, que pretende superar a tradicional dicotomia entre a legislação e a função judicial concebida pela doutrina clássica da separação dos poderes. De acordo com a argumentação desenvolvida aqui, o judiciário julga não somente fatos dos casos, mas também as próprias escolhas legislativas, de modo que já não é possível defender que a função judicial consiste em mera declaração da lei nos casos particulares ou ainda em subsunção lógica das lides que lhe são submetidas às normas previamente postas pelo processo legislativo. Assim, a realização judicial do direito não pode ser anteriormente determinada, uma vez que não está condicionada pelo conteúdo legislado. Contudo, os conteúdos da lei transmitem algum sentido para os cidadãos e, por isso, criam expectativas. Confirmar ou não essas expectativas é uma questão relacionada com a justificação e a legitimidade dos Estados racionais modernos, que estabelecem com os cidadãos uma relação de dominação legal-racional. Desse modo, a questão do papel da legislação (direito positivo passado) na realização do direito atual é posta em termos de legitimidade. Se, de um lado, constatamos que não é possível pretender controlar a discricionariedade judicial dentro dos próprios limites do direito, de outro lado defendemos que é legítimo pretender submeter o direito positivo à crítica e ao controle democrático. Isso porque interessa a todos os cidadãos que as decisões judiciais possam ser justificadas de modo razoável, graças a uma argumentação cuja força e a pertinência se reconheçam amplamente na sociedade. A partir dessa perspectiva, propomos um redimensionamento do argumento legal na prática jurídica e passamos a analisar as diversas implicações da questão central posta neste trabalho na realização judicial do direito.
Resumo:
O ônus da prova tem sido tradicionalmente distribuído no processo civil brasileiro segundo disposições legais prévias, contidas em geral no artigo 333 do Código de Processo Civil e que em geral seguem os brocados jurídicos onus probandi incumbit ei qui allegat, probatio incumbit asserenti e semper necessitas probandi incumbit illi quit agit. Nos últimos anos, no entanto, tem crescido na doutrina e na jurisprudência a tendência de atribuir o onus probandi à parte que supostamente tem mais facilidade em produzir a prova nos autos, independentemente da distribuição predeterminada pela lei. A inspiração para esta mudança vem da teoria argentina das cargas probatórias dinâmicas, introduzida pelo juiz Jorge Peyrano e que teria suas raízes, supostamente, no trabalho de Jeremy Bentham. O projeto de um novo Código de Processo Civil, que está sendo discutido no Congresso Nacional, muito provavelmente incluirá disposição autorizado expressamente que o juiz desloque o ônus da prova de uma parte para a outra quando entender que esta última tem melhores condições de produzí-la. Os riscos invocados contra esta teoria são o aumento da insegurança jurídica, da possibilidade de arbitrariedade do julgador e da dificuldade de estabelecer previsões sobre sucesso processual, impedindo que as partes possam tomar as melhores decisões sobre como se portar antes e durante um eventual processo. Também há crítica contra o enfraquecimento da imparcialidade do juiz, o que, segundo os defensores da teoria, não ocorreria. Uma análise dos argumentos contra e a favor da teoria do ônus dinâmico da prova, dos instrumentos já existentes no direito brasileiro para os problemas que esta teoria vida atacar, e das novas disposições legais a serem em breve introduzidas demonstra que existe uma linha tênue a ser traçada e seguida para que se atinjam os benefícios pretendidos, sem cair em novos problemas. É importante adotar e interpretar as novas normas processuais cuidadosa e atenciosamente, de modo a evitar prejuízo a garantias básicas dos jurisdicionados.
Resumo:
Foi desenvolvida uma proposta de sistemática para implementação de Sistema de Gestão da Segurança de Alimentos com base na Norma ISO 22000:2005 (NBR ISO 22000:2006). Esta sistemática está composta por: A) Mapeamento da documentação; B) Formulários para o Planejamento do sistema APPCC/ HACCP com base na norma ISO 22000, bem como Instrução para seu uso, incluindo tanto as etapas preliminares como os 7 Princípios estabelecidos pelo Codex Alimentarius; C) Documentos para a verificação dos sistemas: Checklist para auditoria de verificação, tanto de adequação como de implementação, e Mapeamento da comunicação. Esta sistemática foi aplicada em uma linha de produtos em pó de empresa real, de porte médio, denominada, ficticiamente, empresa EXEMPLO. Foram dados os treinamentos necessários, adequados ao nível de conhecimento da equipe de segurança de alimentos, e realizadas reuniões de consultoria. Após implementação da sistemática proposta pela equipe da empresa EXEMPLO na linha de produtos escolhida para este fim, foi realizada uma auditoria de verificação para a avaliação da adequação do Sistema de Gestão da Segurança de Alimentos com base na Norma ISO 22000. A equipe foi composta por três auditores, sendo dois deles com formação nível auditor líder de ISO 22000. Concluiu-se que a sistemática é eficaz e adequada, atendendo plenamente às exigências da Norma ISO 22000. Foi, também, incluído no trabalho exemplo prático da documentação básica resultante da implementação na empresa EXEMPLO. A sistemática e modelos desenvolvidos, bem como a visualização de um exemplo prático, podem auxiliar as empresas a diminuir significativamente o tempo de implementação, embora ajustes devam ser feitos para adequação à sua realidade. Os ajustes necessários devem considerar os requisitos regulamentares, dependendo do tipo de produto e do órgão regulatório responsável pela sua regulamentação e fiscalização, bem como requisitos estatutários que possam impactar na sistemática desenvolvida.
Resumo:
This Article examines a problem in cybercrime law that is both persistent and pervasive. What counts as “communication” on the Internet? Defining the term is particularly important for crimes such as cyberstalking, cyberharassment, and cyberbullying, where most statutes require a showing that the alleged perpetrator “communicated” with the victim or impose a similar requirement through slightly different language. This Article takes up the important task of defining communication. As a foundation to our discussion, we provide the first comprehensive survey of state statutes and case law relating to cyberstalking, cyberharassment, and cyberbullying. We then examine the realities of the way people use the Internet to develop a definition of “communication” that reflects those realities. That is, we aim to provide effective tools by which prosecutors can address wrongful conduct without punishing innocuous behavior or chilling speech. We conclude by proposing a model statute that appropriately defines “communication.” We recommend that state legislatures adopt the statute or modify existing laws to match it in pertinent part and demonstrate how the statute would apply in a range of situations.