417 resultados para Pluralistic Ignorance
Resumo:
El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.
Resumo:
Relatório de estágio apresentado para obtenção do grau de mestre na especialidade profissional de educação pré-escolar
Resumo:
The biotic crisis overtaking our planet is likely to precipitate a major extinction of species. That much is well known. Not so well known but probably more significant in the long term is that the crisis will surely disrupt and deplete certain basic processes of evolution, with consequences likely to persist for millions of years. Distinctive features of future evolution could include a homogenization of biotas, a proliferation of opportunistic species, a pest-and-weed ecology, an outburst of speciation among taxa that prosper in human-dominated ecosystems, a decline of biodisparity, an end to the speciation of large vertebrates, the depletion of “evolutionary powerhouses” in the tropics, and unpredictable emergent novelties. Despite this likelihood, we have only a rudimentary understanding of how we are altering the evolutionary future. As a result of our ignorance, conservation policies fail to reflect long-term evolutionary aspects of biodiversity loss.
Resumo:
Our global impact is finally receiving the scientific attention it deserves. The outcome will largely determine the future course of evolution. Human-modified ecosystems are shaped by our activities and their side effects. They share a common set of traits including simplified food webs, landscape homogenization, and high nutrient and energy inputs. Ecosystem simplification is the ecological hallmark of humanity and the reason for our evolutionary success. However, the side effects of our profligacy and poor resource practices are now so pervasive as to threaten our future no less than that of biological diversity itself. This article looks at human impact on ecosystems and the consequences for evolution. It concludes that future evolution will be shaped by our awareness of the global threats, our willingness to take action, and our ability to do so. Our ability is presently hampered by several factors, including the poor state of ecosystem and planetary knowledge, ignorance of human impact, lack of guidelines for sustainability, and a paucity of good policies, practices, and incentives for adopting those guidelines in daily life. Conservation philosophy, science, and practice must be framed against the reality of human-dominated ecosystems, rather than the separation of humanity and nature underlying the modern conservation movement. The steps scientists can take to imbed science in conservation and conservation in the societal process affecting the future of ecosystems and human well-being are discussed.
Resumo:
The dichotomy between two groups of workers on neuroelectrical activity is retarding progress. To study the interrelations between neuronal unit spike activity and compound field potentials of cell populations is both unfashionable and technically challenging. Neither of the mutual disparagements is justified: that spikes are to higher functions as the alphabet is to Shakespeare and that slow field potentials are irrelevant epiphenomena. Spikes are not the basis of the neural code but of multiple codes that coexist with nonspike codes. Field potentials are mainly information-rich signs of underlying processes, but sometimes they are also signals for neighboring cells, that is, they exert influence. This paper concerns opportunities for new research with many channels of wide-band (spike and slow wave) recording. A wealth of structure in time and three-dimensional space is different at each scale—micro-, meso-, and macroactivity. The depth of our ignorance is emphasized to underline the opportunities for uncovering new principles. We cannot currently estimate the relative importance of spikes and synaptic communication vs. extrasynaptic graded signals. In spite of a preponderance of literature on the former, we must consider the latter as probably important. We are in a primitive stage of looking at the time series of wide-band voltages in the compound, local field, potentials and of choosing descriptors that discriminate appropriately among brain loci, states (functions), stages (ontogeny, senescence), and taxa (evolution). This is not surprising, since the brains in higher species are surely the most complex systems known. They must be the greatest reservoir of new discoveries in nature. The complexity should not deter us, but a dose of humility can stimulate the flow of imaginative juices.
Resumo:
O cenário competitivo e globalizado em que as empresas estão inseridas, sobretudo a partir do século XXI, associados a ciclos de vida cada vez menores dos produtos, rigorosos requisitos de qualidade, além de políticas de preservação do meio ambiente, com redução de consumo energético e de recursos hídricos, somadas às exigências legais de melhores condições de trabalho, resultaram em uma quebra de paradigma nos processos produtivos até então concebidos. Como solução a este novo cenário produtivo pode-se citar o extenso uso da automação industrial, fato que resultou em sistemas cada vez mais complexos, tanto do ponto de vista estrutural, em função do elevado número de componentes, quanto da complexidade dos sistemas de controle. A previsibilidade de todos os estados possíveis do sistema torna-se praticamente impossível. Dentre os estados possíveis pode-se citar os estados de falha que, dependendo da severidade do efeito associado à sua ocorrência, podem resultar em sérios danos para o homem, o meio ambiente e às próprias instalações, caso não sejam corretamente diagnosticados e tratados. Fatos recentes de catástrofes relacionadas à sistemas produtivos revelam a necessidade de se implementar medidas para prevenir e para mitigar os efeitos da ocorrência de falhas, com o objetivo de se evitar a ocorrência de catástrofes. De acordo com especialistas, os Sistemas Instrumentados de Segurança SIS, referenciados em normas como a IEC 61508 e IEC 61511, são uma solução para este tipo de problema. Trabalhos publicados tratam de métodos para a implementação de camadas SIS de prevenção, porém com escassez de trabalhos para camadas SIS de mitigação. Em função do desconhecimento da dinâmica do sistema em estado de falha, técnicas tradicionais de modelagem tornam-se inviáveis. Neste caso, o uso de inteligência artificial, como por exemplo a lógica fuzzy, pode se tornar uma solução para o desenvolvimento do algoritmo de controle, associadas a ferramentas de edição, modelagem e geração dos códigos de controle. A proposta deste trabalho é apresentar uma sistemática para a implementação de um sistema de controle para a mitigação de falhas críticas em sistemas produtivos, com referência às normas IEC 61508/61511, com ação antecipativa à ocorrência de catástrofes.
Resumo:
Se presenta un análisis de las publicaciones de la colección «Al Servicio de España y del Niño Español», aparecidas entre 1938 y 1952 en relación con la salud maternal, el discurso de género, el trabajo femenino y las prácticas del cuidado de niños. La mayor preocupación del régimen franquista en este ámbito fue la política pronatalista y combatir los elevados índices de mortalidad infantil, de los que la ignorancia femenina se consideraba una de las principales causas. Las campañas de divulgación sanitaria estuvieron dirigidas a mejorar la capacitación de las mujeres en la denominada «ciencia materna», culpabilizándolas de esas muertes. La salud de la mujer preocupó porque de ella dependía la salud del niño. El discurso de género favoreció el modelo ideológico de mujer de la Sección Femenina de Falange, Auxilio Social y de la Iglesia Católica.
Resumo:
The English language and the Internet, both separately and taken together, are nowadays well-acknowledged as powerful forces which influence and affect the lexico-grammatical characteristics of other languages world-wide. In fact, many authors like Crystal (2004) have pointed out the emergence of the so-called Netspeak, that is, the language used in the Net or World Wide Web; as Crystal himself (2004: 19) puts it, ‘a type of language displaying features that are unique to the Internet […] arising out of its character as a medium which is electronic, global and interactive’. This ‘language’, however, may be differently understood: either as an adaptation of the English language proper to internet requirements and purposes, or as a new and rapidly-changing and developing language as a result of a rapid evolution or adaptation to Internet requirements of almost all world languages, for whom English is a trendsetter. If the second and probably most plausible interpretation is adopted, there are three salient features of ‘Netspeak’: (a) the rapid expansion of all its new linguistic developments thanks to the Internet itself, which may lead to the generalization and widespread acceptance of new words, coinages, or meanings, hundreds of times faster than was the case with the printed media. As said above, (b) the visible influence of English, the most prevalent language on the Internet. Consequently, (c) this new language tends to reduce the ‘distance’ between English and other languages as well as the ignorance of the former by speakers of other languages, since the ‘Netspeak’ version of the latter adopts grammatical, syntactic and lexical features of English. Thus, linguistic differences may even disappear when code-switching and/or borrowing occurs, as whole fragments of English appear in other language contexts. As a consequence of the new situation, an ideal context appears for interlanguage or multilingual word formation to thrive: puns, blends, compounds and word creativity in general find in the web the ideal place to gain rapid acceptance world-wide, as a result of fashion, coincidence, or sheer merit of the new linguistic proposals.
Resumo:
La aparición de Internet ha cambiado los medios de comunicación. En un primer momento, el desconocimiento de las posibilidades que ofrecía marcaron el paso del mundo analógico al mundo digital, pero después los diarios, las radios y las televisiones se han introducido masivamente en la Red y también han aparecido nuevos medios creados específicamente para Internet. Estos cambios han sido objeto de estudio de los investigadores y se ha hecho necesaria la consolidación de una nueva terminología. Se explican en este trabajo las cuestiones terminológicas que afectan el ciberperiodismo, se define el concepto de estudio, para hacer después un breve recorrido por la historia de la ciberprensa y las diferentes etapas y tipologías de cibermedios que han establecido los investigadores.
Resumo:
Objetivo: Explorar el conocimiento de los hombres procedentes de países donde se realiza la mutilación genital femenina sobre las consecuencias negativas en la salud de las mujeres afectadas. Métodos: Metodología cualitativa con enfoque etnometodológico, a través de entrevistas semiestructuradas individuales y grupales a 25 hombres, en relación con la mutilación genital femenina, seleccionados mediante triple muestreo. Se entregó una carta de presentación del estudio a los participantes y la declaración del consentimiento informado, y se les solicitó permiso para grabar la entrevista en audio. El análisis de los datos se realizó con el software informático Atlas. Ti7. Resultados: Los participantes contrarios al corte son conscientes de la diversidad de complicaciones físicas, obstétricas, psicológicas, sobre la sexualidad y sociales en las mujeres sometidas a mutilación. Sin embargo, los hombres que tienen un posicionamiento favorable muestran en general un desconocimiento de los problemas secundarios a esta práctica. Conclusiones: Los participantes procedentes de países donde se realiza la mutilación genital femenina, contrarios a mantener esta práctica, muestran un mayor conocimiento de las consecuencias negativas que los que se manifiestan a favor. El diseño de herramientas y programas de sensibilización destinados a la lucha contra la mutilación genital femenina debe visibilizar las complicaciones sobre la salud de las mujeres y las niñas, e incluir intervenciones familiares que impliquen a los hombres en el proceso de erradicación de esta práctica.
Resumo:
Introduction. Regional government in contemporary western Europe corresponds to a type of society and economy variously labeled "post-industrial", "post-bourgeois" or merely "the New Europe."l This New Europe evolved historically from the interconnected strands of capitalism; industrialism and pluralistic democracy. It resembles in many respects the type of economy and society familiar to us in North America. Regional government in such a society is thus merely an adaptation on the scale of half a continent of forms of social and economic organization which evolved historically at the national level. Regional government in the New Europe is the institutional and political recognition that societies have changed dramatically since 1945, so dramatically that they cannot be adequately described in the doctrines and ideologies made familiar by nineteenth and early twentieth century political thought. Hence the New Europe and its regional government is the future of that part of history which has also been aptly described as "the end of ideology."
Resumo:
2009 may become a turning point in the history of post-Soviet Moldova. The country’s political class and society are faced with a fundamental choice. On the one hand, if the Party of Communists of the Republic of Moldova, which has governed the country since 2001, remains in power, this would mean a consolidation of the authoritarian rule of the party leader Vladimir Voronin, perpetuation of the superficial nature of democratic institutions and a continuation of the manoeuvring between the European Union and Russia (with the increasing risk of falling into the latter’s exclusive zone of influence). On the other hand, the take over of political power by the opposition parties creates an opportunity for Moldova to resume building a democratic, pluralistic political system based on the rule of law and to develop closer links with the European Union within the framework of the European Neighbourhood Policy, including the Eastern Partnership.
Resumo:
Relatório de estágio apresentado para obtenção do grau de mestre na especialidade profissional de educação pré-escolar
Resumo:
Enquadramento: A segurança do doente é um problema internacional e uma prioridade das políticas de saúde de múltiplos organismos/instituições nacionais de saúde. Neste âmbito, surgem os sistemas de notificação de incidentes. Objetivo: Conhecer a perceção dos enfermeiros sobre a notificação de incidentes e sobre a segurança do doente. Métodos: Recorremos a uma triangulação metodológica constituída por um estudo quantitativo (estudo A) e outro qualitativo (estudo B). O estudo A é analítico, transversal, realizado com 182 enfermeiros. Os dados foram recolhidos por questionário, constituído por variáveis sociodemográficas e profissionais e escalas para avaliar doze dimensões da notificação e segurança do doente. O estudo B é exploratório, realizado com 18 enfermeiros, através de entrevista semiestruturada. Resultados: Para os enfermeiros todos os incidentes devem ser notificados, mas a frequência de notificação é baixa e diminui com a gravidade do dano, 65,0% não registou qualquer ocorrência no último ano e 82,3% desconhece o sistema de notificação. Os principais obstáculos à notificação são o receio de punição e os principais fatores facilitadores são os benefícios que advêm da notificação para o doente, a ausência de retaliações no trabalho, uma relação positiva com os superiores hierárquicos, o anonimato e a perceção de resultados da notificação. Aproximadamente 60,0% dos enfermeiros tem uma perceção geral da segurança do doente positiva. Conclusão: A perceção dos enfermeiros sobre a notificação de incidentes reflete desconhecimento da temática, elevado receio de punição, originando baixa frequência de notificação. A perceção sobre a segurança do doente é positiva. É necessário melhorar a cultura de segurança da organização e o conhecimento dos enfermeiros sobre o papel da notificação. Palavras-Chave: segurança do doente, notificação de incidentes, enfermeiros.
Resumo:
Focusing on an overlapping protected area and indigenous territory in the Bolivian Amazon, this article discusses how indigenous people continue to negotiate access to natural resources. Using the theoretical framework of New Institutionalism, ethnographic data from participatory observations, and interviews with Takana indigenous resource users and park management staff, we identified four phases of institutional change. We argue that under the current institutionally pluralistic setting in the overlapping area, indigenous users apply “institutional shopping” to choose, according to their power and knowledge, the most advantageous institutional framework in a situation. Indigenous users strategically employed arguments of conservation, indigeneity, or long-term occupation to legitimize their claims based on the chosen institution. Our results highlight the importance of ideologies and bargaining power in shaping the interaction of individuals and institutions. As a potential application of our research to practice, we suggest that rather than seeing institutional pluralism solely as a threat to successful resource management, the strengths of different frameworks may be combined to build robust institutions from the bottom up that are adapted to the local context. This requires taking into account local informal institutions, such as cultural values and beliefs, and integrating them with conservation priorities through cross-cultural participatory planning.