1000 resultados para GAL Terras Dentro


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fragmentación espacial de una ciudad, que será el principal enfoque de la presente Tesis, ocurre cuando una entidad pequeña se ve obligada a adecuar sus relaciones ante la inminente presencia de un entorno urbano de mayor peso que se aproxima y densifica. Este tipo de fragmentación se analizará tomando en cuenta tres factores (especulación, desorganización y falta de protección) que moldean el desarrollo de procesos urbanísticos modernos en las grandes metrópolis Latinoamericanas, particularmente en la Ciudad de México. La Ciudad de México tuvo un desarrollo altamente competitivo, que ha sido también el catalizador de un largo y sostenido crecimiento urbano. Con el pasar del tiempo, la capital ha sobrepasado las expectativas de los más visionarios. El estudio detallado del asentamiento de Tacubaya (el cual conforma una parte dinámica de la Ciudad de México), permitirá al lector evaluar el extravagante crecimiento que ocurre en la Ciudad de México y los asentamientos que lo rodean, en la primera mitad del siglo XX. Tacubaya, así como muchos de los pequeños poblados preexistentes que se ubicaban en las afueras de la gran urbe, fue alcanzado y engullido por la mancha urbana, sufriendo importantes cambios en su núcleo urbano. Sin embargo, partes de esta antigua centralidad han persistido junto con una parte de los elementos urbanos que la estructuraban; monumentos y riquezas históricas, los cuales han facilitado la reinvención de su centro urbano, sobreviviendo tanto a los abates del tiempo como a las oleadas de nuevos pobladores. El lugar que permanece es un centro urbano sumamente fragmentado, permeado por: una incesante superposición de tejidos y elementos estructuradores olvidados, poblaciones flotantes y de paso que desestabilizan las zonas residenciales, estratos sociales cada vez más apartados. Pensaríamos que las circunstancias que envuelven la demarcación la han dejado en caos, sin embargo, para la sorpresa de muchos, Tacubaya se sigue adaptando a pesar de todos los obstáculos. ABSTRACT In urbanism, the type of spatial fragmentation, that will be the main focus of this Thesis, occurs when a stronger and denser environment takes over a smaller entity, forcing it to adapt its functional relations. This type of fragmentation will be analyzed taking into account three specific factors (speculation, disorganization, and lack of protection) that mold the development of modern urbanistic processes in large Latin American cities, particularly in Mexico City. Mexico City had a highly competitive and bright development, which served as catalyst in a long and sustained urban growth. With the passing of time, the capital has outgrown the measures, previsions and administrative limits created by the government and its visionaries. The detailed study of the Tacubaya settlement (which conforms a vibrant part of Mexico City) will allow the reader to appreciate the exceptional and rare growth that occurs in Mexico City and in the settlements that surround it, in the first half of the 20th century. Tacubaya as well as many other small preexisting settlements located on the outskirts of the city, has been engulfed by the urban expansion suffering important changes in its urban core. Parts of the ancient centrality have persisted along with its structural urban elements, due mainly to monuments and other historical entities that have facilitated the reinvention of the downtown area, helping it survive not only the passing of time, but also the incrementing population. The city that now exists is fragmented beyond recognition. Tacubaya is permeated by an endless fabric overlay created by forgotten structural elements, floating populations that affect the residential zones, and a polarized society that diverges with every passing day. We may think that the circumstances that surround the city have left it in shambles; however, to the surprise of many, Tacubaya is still adapting in spite of all the obstacles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo del presente trabajo fue predecir, en función del tiempo, los campos de velocidad, presión, temperatura y concentración de especies químicas de una mezcla no reactiva de aire, gases de recirculación y combustible (iso-octano), en una pre-cámara de combustión de un motor CFR, mediante la técnica de la simulación numérica de flujo de fluidos. Para ello se revisó el procedimiento de la solución numérica de las ecuaciones de transporte, aplicadas a la pre-cámara de combustión del motor CFR. La simulación se basó en el software CFX 10. Se hizo un estudio de la sensibilidad de malla para adecuar el criterio de·convergencia que el software requiere. La pre-cámara de combustión empleada para este estudio fue una pre-cámara de combustión modificada de un motor CFR para hacer que el mismo funcione como un motor HCCI. El motor CFR está ubicado en la Universidad Politécnica de Madrid.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tesis doctoral se especializa en el estudio desde el interior de casas de maestros españoles proyectadas y construidas para ellos y sus familias. Casas proyectadas y construidas para ellos mismos por arquitectos “maestros” de la arquitectura española del siglo XX, que acabaron sus estudios de arquitectura después de la guerra civil y que se habían formado en la Escuela de Madrid. Las cinco casas escogidas están situadas en la provincia de Madrid, en la hoy definida como Comunidad de Madrid. Las cinco casas son para el arquitecto y su familia. También las cinco casas son de tipología unifamiliar aislada. Todas ellas tuvieron el carácter de vivienda estable, no de fin de semana, no de refugios experimentales. El método de análisis se estructura en dos grandes bloques, lo que hemos denominado “Enfocando” y “Desde dentro”. Enfocando: Se analizan las obras precedentes de similares características y se realiza un estudio de aproximación al lugar cuyo punto final es la entrada de la casa Desde dentro: Se Inicia el estudio de la vivienda en un recorrido que atiende a los parámetros de relaciones con el exterior, materiales de acabado, mobiliario, condiciones de flexibilidad y crecimiento y relaciones vivienda-estudio. Siempre con el espacio interior como protagonista del estudio Abstract The dissertation focuses on the interior space of "master`s houses" which were conceived and built for the architect and his family. The five houses selected were built in the XX Century .The five houses are located in Madrid. The five houses are detached houses, the five houses are "residences", not experimental houses, or weekend houses. The method has two parts. Focusing and Inside Focusing: This part studies previous works, with similar characteristics. Moreover this part looks at the path from the street to the main door, through the private exterior. Inside: This part studies the relationship between interior and exterior, finishing materials, furniture, flexibility and relation with the professional spaces. All these elements are studied, always with the interior space as the main character.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação faz um resumo histórico-teológico das relações de Israel com nações estrangeiras. Estuda a origem deste povo, em seus aspectos antropológico-culturais na época do tribalismo e compara com a situação no período Babilônico e Persa. Compreendendo as diferentes posturas da nação em relação à presença de estrangeiros no meio do povo de Deus, investiga a origem do nacionalismo exclusivista a partir do livro do Dt, confrontando com as narrativas de Ed 9 e 10 e Ne 13 na questão dos casamentos mistos. Por fim traz propostas de inclusão da literatura pós-exílica na qual crianças e mulheres estrangeiras fazem ouvir sua voz de protesto.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação faz um resumo histórico-teológico das relações de Israel com nações estrangeiras. Estuda a origem deste povo, em seus aspectos antropológico-culturais na época do tribalismo e compara com a situação no período Babilônico e Persa. Compreendendo as diferentes posturas da nação em relação à presença de estrangeiros no meio do povo de Deus, investiga a origem do nacionalismo exclusivista a partir do livro do Dt, confrontando com as narrativas de Ed 9 e 10 e Ne 13 na questão dos casamentos mistos. Por fim traz propostas de inclusão da literatura pós-exílica na qual crianças e mulheres estrangeiras fazem ouvir sua voz de protesto.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo propor um estudo do cântico do escravo de Javé em Isaías 42,1- 4. Javé apresenta uma nova liderança, com um novo jeito de pensar e de agir para reconstruir um mundo novo baseado no direito e na solidariedade. É uma tarefa desafiadora para mim e ao mesmo tempo uma alegria em poder compartilhar com os meus amigos o conteúdo de um texto do Antigo Testamento. Afinal, o cântico do escravo de Javé é uma fonte inesgotável de sabedoria. Saciou o povo judaíta exilado a de dois mil e quinhentos anos atrás e continua jorrando água viva até em nossos dias matando a sede de todos aqueles e aquelas que lutam pela justiça. Os versos escolhidos são frutos de uma experiência de vida concreta dos exilados desacreditados por todos no cativeiro da Babilônia. No fundo é uma crítica aos falsos deuses criados pelos poderosos para justificar um sistema de opressão. A criatividade do profeta está em retomar os eventos históricos que marcaram a vida do povo exilado e atualizá-los dentro de um novo contexto histórico. Isto demonstra sua agilidade no conhecimento. Cada palavra é pensada dentro de um contexto maior envolvendo a vida e a história. O profeta é um sábio poeta, que fala de Deus como ninguém falou antes. Utiliza símbolos, imagens e metáforas que apontam para um mundo novo que ainda não existe, onde reinará o direito, a justiça e a paz. Essa mudança acontecerá a partir da missão que a liderança eleita desempenhará junto do povo oprimido e injustiçado. O líder será como o fermento na massa para a nova sociedade, baseada na igualdade e na partilha. O espírito de Javé estará agindo sobre ele para que ele não desanime da missão e que ela possa alcançar o seu objetivo. Essa nova liderança eleita por Javé agirá discretamente em silêncio entre os pobres e enfraquecidos. A missão beneficiará primeiramente às nações. Aqueles e aquelas que vivem em terras estrangeiras como migrantes. Depois contemplará de modo especial os pobres que estão correndo risco de vida, cana rachada e pavio vacilante e por fim a missão atingirá todos os povos da terra. Essa perspectiva traduz a vontade de Deus que é a salvação de toda a humanidade.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo propor um estudo do cântico do escravo de Javé em Isaías 42,1- 4. Javé apresenta uma nova liderança, com um novo jeito de pensar e de agir para reconstruir um mundo novo baseado no direito e na solidariedade. É uma tarefa desafiadora para mim e ao mesmo tempo uma alegria em poder compartilhar com os meus amigos o conteúdo de um texto do Antigo Testamento. Afinal, o cântico do escravo de Javé é uma fonte inesgotável de sabedoria. Saciou o povo judaíta exilado a de dois mil e quinhentos anos atrás e continua jorrando água viva até em nossos dias matando a sede de todos aqueles e aquelas que lutam pela justiça. Os versos escolhidos são frutos de uma experiência de vida concreta dos exilados desacreditados por todos no cativeiro da Babilônia. No fundo é uma crítica aos falsos deuses criados pelos poderosos para justificar um sistema de opressão. A criatividade do profeta está em retomar os eventos históricos que marcaram a vida do povo exilado e atualizá-los dentro de um novo contexto histórico. Isto demonstra sua agilidade no conhecimento. Cada palavra é pensada dentro de um contexto maior envolvendo a vida e a história. O profeta é um sábio poeta, que fala de Deus como ninguém falou antes. Utiliza símbolos, imagens e metáforas que apontam para um mundo novo que ainda não existe, onde reinará o direito, a justiça e a paz. Essa mudança acontecerá a partir da missão que a liderança eleita desempenhará junto do povo oprimido e injustiçado. O líder será como o fermento na massa para a nova sociedade, baseada na igualdade e na partilha. O espírito de Javé estará agindo sobre ele para que ele não desanime da missão e que ela possa alcançar o seu objetivo. Essa nova liderança eleita por Javé agirá discretamente em silêncio entre os pobres e enfraquecidos. A missão beneficiará primeiramente às nações. Aqueles e aquelas que vivem em terras estrangeiras como migrantes. Depois contemplará de modo especial os pobres que estão correndo risco de vida, cana rachada e pavio vacilante e por fim a missão atingirá todos os povos da terra. Essa perspectiva traduz a vontade de Deus que é a salvação de toda a humanidade.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As pessoas com deficiências são excluídas da sociedade devido à marca negativa de descrédito recebida pelo meio social - por sua aparência ou seu modo de ser diferentes - que os coloca fora da norma classificando-os como seres desviantes. No cotidiano escolar essas marcas se afirmam e se reproduzem, não promovendo às pessoas com deficiências uma superação desse estigma. A pesquisa visa analisar como o estigma incorporado pelos alunos com deficiências influencia no processo de interação e inclusão escolar, de forma a estudar indícios de como se desenvolve o processo de estigmatização no cotidiano escolar sob a luz dos pensamentos de Erving Goffman. O presente estudo utiliza-se uma revisão de literatura especifica do tema, fundamentada nos estudos de Erving Goffman, conjuntamente à pesquisa empírica baseada na etnografia vivenciada pelo autor em seus estudos de comunidade, foram utilizadas como estratégias de pesquisa, entrevistas com três professores e observações registradas por meio de de observação de cenas do cotidiano escolar de ´duas escolas públicas do estado de SPSão Paulo . No capítulo 1 buscamos entender os constructos de Goffman principalmente por meio de sua trajetória acadêmica, no capítulo 2 o trabalho centrou-se na compreensão da interação social e principalmente na questão definida pelo autor como ordem da interação, em queentende-se que as pessoas são autores dentro de um palco social, no capítulo 3. a pesquisa aborda o termo estigma e explica sua influência na interação e no avanço das pessoas com deficiência. Por fim, o trabalho se encerra no capítulo .4 apresentando a análise das entrevistas e dos registros das cenas do cotidiano escolar. As cenas selecionadas apresentam os atores envolvidos, o cenário, e o enredo das interações, identificando as estratégias do estigma incorporado pelos alunos com deficiência e buscando ligações com as políticas inclusivas e as escolas brasileira. A pesquisa identificou que a escola, como meio de socialização e criação de saberes, possui um papel importante neste processo de mudança, apesar de muitas vezes reproduzir o estigma social. Observamos então que a escola pode auxiliar na mudança do olhar que exclui, à maneira que mostra algumas máscaras do social e da própria inclusão; no entanto é importante salientar que sua renovação e de seus agentes sociais deve valorizar as diferenças para construção de novos conhecimentos.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As pessoas com deficiências são excluídas da sociedade devido à marca negativa de descrédito recebida pelo meio social - por sua aparência ou seu modo de ser diferentes - que os coloca fora da norma classificando-os como seres desviantes. No cotidiano escolar essas marcas se afirmam e se reproduzem, não promovendo às pessoas com deficiências uma superação desse estigma. A pesquisa visa analisar como o estigma incorporado pelos alunos com deficiências influencia no processo de interação e inclusão escolar, de forma a estudar indícios de como se desenvolve o processo de estigmatização no cotidiano escolar sob a luz dos pensamentos de Erving Goffman. O presente estudo utiliza-se uma revisão de literatura especifica do tema, fundamentada nos estudos de Erving Goffman, conjuntamente à pesquisa empírica baseada na etnografia vivenciada pelo autor em seus estudos de comunidade, foram utilizadas como estratégias de pesquisa, entrevistas com três professores e observações registradas por meio de de observação de cenas do cotidiano escolar de ´duas escolas públicas do estado de SPSão Paulo . No capítulo 1 buscamos entender os constructos de Goffman principalmente por meio de sua trajetória acadêmica, no capítulo 2 o trabalho centrou-se na compreensão da interação social e principalmente na questão definida pelo autor como ordem da interação, em queentende-se que as pessoas são autores dentro de um palco social, no capítulo 3. a pesquisa aborda o termo estigma e explica sua influência na interação e no avanço das pessoas com deficiência. Por fim, o trabalho se encerra no capítulo .4 apresentando a análise das entrevistas e dos registros das cenas do cotidiano escolar. As cenas selecionadas apresentam os atores envolvidos, o cenário, e o enredo das interações, identificando as estratégias do estigma incorporado pelos alunos com deficiência e buscando ligações com as políticas inclusivas e as escolas brasileira. A pesquisa identificou que a escola, como meio de socialização e criação de saberes, possui um papel importante neste processo de mudança, apesar de muitas vezes reproduzir o estigma social. Observamos então que a escola pode auxiliar na mudança do olhar que exclui, à maneira que mostra algumas máscaras do social e da própria inclusão; no entanto é importante salientar que sua renovação e de seus agentes sociais deve valorizar as diferenças para construção de novos conhecimentos.(AU)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente pesquisa busca avaliar exegeticamente o texto que se encontra na Bíblia, especificamente no livro de Números capítulos 22-24 que relata sobre um personagem conhecido como Balaão. A pesquisa tem também como objeto o estudo sobre o panteão de divindades relatado no mesmo texto, assim como também o estudo dos textos descobertos em Deir Alla, na Jordânia, que apresentam um personagem designado como Balaão, possivelmente o mesmo personagem de Nm 22-24. A motivação que levou ao desenvolvimento dessa pesquisa foi o fato de se ter deparado com os conceitos dos diversos nomes divinos exibidos no texto, além da questão do profetismo fora de Israel, assim como as possibilidades hermenêuticas que se abrem para a leitura desse texto bíblico. O conceito geral sempre foi o de que Israel era a única nação onde existiam “verdadeiros” profetas e uma adoração a um único Deus, o “monoteísmo”. O que despertou interesse foi perceber, especialmente por meio da leitura dos livros bíblicos, que o profetismo não se restringiu somente a Israel. Ele antecede à formação do antigo Israel e já existia no âmbito das terras do antigo Oriente Médio, e que Israel ainda demorou muito tempo para ser monoteísta. Quem é esse Balaão, filho de Beor? Estudaremos sobre sua pessoa e sua missão. Examinaremos os textos de Deir Alla sobre Balaão e sua natureza de personagem mediador entre o divino e o humano. Esse personagem é apresentado como um grande profeta e que era famoso como intérprete de presságios divinos. Analisaremos a importante questão sobre o panteão de deuses que são apresentados na narrativa de Balaão nomeados como: El, Elyon Elohim e Shaddai, além de Yahweh. Entendemos, a princípio, que o texto possui uma conexão com a sociedade na qual foi criado e usando da metodologia exegética, faremos uma análise da narrativa em questão, buscando compreender o sentido do texto, dentro de seu cenário histórico e social. Cenário este, que nos apresentou esse profeta, não israelita, que profere bênçãos dos deuses sobre Israel e que, além disso, pronuncia maldições sobre os inimigos desse mesmo Israel. Percebemos que, parte do texto pesquisado é apresentado sob a ótica de Israel sobre as outras nações. A pesquisa defende, portanto, que o texto de Nm 22-24, além de nos apresentar um profeta fora de Israel igual aos profetas da Bíblia, defende que, o panteão de divindades também era adorado por Israel e que tais nomes são epítetos de uma mesma divindade, no caso YHWH. Defende, também, um delineamento de um projeto de domínio político e militar de Israel sobre as nações circunvizinhas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho analisa o papel da religião no conflito entre Israel e Palestina, principalmente no contexto da implantação do Estado de Israel, em 1948. A análise toma como delimitação histórica do conflito o período de 1896 a 1948, quando ocorre a migração das primeiras levas de judeus para os territórios palestinos. A pergunta inicial é sobre como judeus e muçulmanos se relacionavam nos primeiros anos de imigração até a criação do Estado de Israel. O problema principal a ser esclarecido é como a construção cultural ocidental em relação aos palestinos interferiu no conflito, principalmente no que tange à tomada da terra e à construção de um novo país dentro de um já existente, socialmente, religiosamente e culturalmente. Finalmente a pesquisa pergunta pela repercussão do conflito entre israelenses e palestinos no campo religioso protestante, principalmente entre grupos conservadores e fundamentalistas deste ramo do cristianismo. A pesquisa é totalmente bibliográfica e toma como referência as teorias pós-coloniais para debater a história do território, no que se refere aos aspectos religiosos do conflito.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudo sobre o Hip Hop como processo comunicacional e sociabilidade entre jovens indígenas de Dourados, Mato Grosso do Sul, para verificar quais os principais objetivos da prática do movimento Hip Hop, compreender se serve como comunicação, contribui para o fortalecimento da língua guarani ou gera novas tensões sociais na reserva. Para tanto, foi analisado aspectos históricos do movimento, passando pelos Estudos Culturais, e como Movimento Social, dando início à discussão de uma voz alternativa por meio do Hip Hop. Do ponto de vista metodológico, trata-se de um de estudo de caso, com representantes dos grupos de jovens Brô Mc's e Jovens Conscientes, das reservas Jaguapirú e Bororó, das etnias Guarani-Kaiowá de Dourados (MS). Foram realizadas entrevistas semiestruturadas junto a jovens que participaram das oficinas de hip hop, das lideranças indígenas e professores. A investigação é complementada pela pesquisa bibliográfica, documental e análises das letras de rap em confrontação com as visões da imprensa, a partir da análise dos jornais Diário MS e O Progresso. Os resultados apontam que os jovens se apropriam de uma cultura global para transformar o ambiente local com objetivo de preservar a língua guarani, uma alternativa para o conhecimento, logo para não seguirem caminhos como o das drogas. Negociando falas sobre sua realidade, dentro e fora da reserva, já que nos meios de comunicação locais há pouco espaço para a voz dos indígenas e dentro da reserva ainda há contestação do movimento em um contexto político, na tentativa de atingir uma cultura “pura”, devido à preocupação dos mais velhos com a perda de território.

Relevância:

20.00% 20.00%

Publicador: