380 resultados para Aleatory materialism


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de la presente tesis es realizar una lectura de la crítica al concepto de subjetividad en la filosofía de Theodor W. Adorno. Los objetivos de tal lectura son fundamentalmente dos: por un lado, particularizar la crítica adorniana en el marco de otras críticas al concepto de subjetividad que marcaron el campo de la filosofía contemporánea y, al mismo tiempo, establecer un diálogo con las lecturas que de la filosofía adorniana hicieron algunos miembros más jóvenes de la denominada Escuela de Frankfurt: Jürgen Habermas, Albrecht Wellmer -críticas al compromiso con una filosofía de la conciencia- así como Axel Honneth -crítica al modelo funcionalista de análisis de lo social-. Para esto se pondrá de relieve la centralidad del materialismo adorniano en el que el concepto de naturaleza cumple un rol central, así como el carácter crítico-normativo que de este materialismo se podría plantear. Con esto se hará posible tanto diferenciar la crítica adorniana como defenderla según la confianza de que con ella se puede hacer pensable un concepto de subjetividad no represivo capaz de desarticular la rigidez del modelo moderno de identidad personal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este texto es una réplica al artículo de Julián Verardi "Forma y contenido en la concepción materialista de la historia". Contiene una respuesta a las críticas que Verardi formulara a Materialismo histórico: interpretaciones y controversias, y una clarificación de algunos conceptos centrales del materialismo histórico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este artículo se realiza una caracterización de las relaciones sociales que priman en la producción de hortalizas en La Plata. El trabajo parte de los postulados del marxismo para el entendimiento y descripción de la sociedad. En el primer apartado se realiza una breve descripción teórica de la lógica capitalista de producción siguiendo la metodología del materialismo histórico y se propone una denominación de los sujetos de la horticultura bajo la formulación clásica del marxismo para las relaciones sociales capitalistas: terratenientes, burguesía y asalariados. Luego se despliega información empírica sobre el sector que da cuenta de la conformación histórica de las clases sociales en el mismo. Esta información surge del análisis y estudio de la conformación histórica del territorio hortícola platense, los resultados de los censos hortícolas de 1998 y 2005, del registro de los enfrentamientos y conflictos llevados adelante por los diferentes sujetos de la producción a lo largo de los últimos 50 años y se finaliza con diversos aportes surgidos de relatos orales tomados a través de entrevistas. Por último, se sistematizan algunas conclusiones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los primeros trabajos de Jacques Le Goff, sobre mercaderes, banqueros e intelectuales de la Edad Media, presentan cualidades que anuncian su desarrollo posterior: débil teoría económica y mayor desarrollo sobre historia de las ideas. A partir de 1964, con la publicación de La civilización del occidente medieval, se produce un cambio. Ese cambio se inscribe en una nueva orientación general de la escuela de Annales: el estudio de las mentalidades. Le Goff pretende realizar un análisis de la mentalidad del hombre medieval. Su estudio se basa principalmente en textos eruditos eclesiásticos. Se demuestra en este artículo que ese tipo de fuentes permiten acceder a la mentalidad de la parte sacerdotal de la clase de poder. De manera secundaria, Le Goff estudió fuentes literarias que permiten acercarse a la mentalidad de los caballeros. Para el análisis de los campesinos y de distintos sectores subalternos se necesitarían otro tipo de fuentes que nunca fueron utilizadas por Le Goff. Este análisis mantiene algunas semejanzas con el materialismo histórico, pero también tiene profundas diferencias con la doctrina de Marx. En base a esto se determina el alcance del legado de Le Goff

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we present a global overview of the recent study carried out in Spain for the new hazard map, which final goal is the revision of the Building Code in our country (NCSE-02). The study was carried our for a working group joining experts from The Instituto Geografico Nacional (IGN) and the Technical University of Madrid (UPM) , being the different phases of the work supervised by an expert Committee integrated by national experts from public institutions involved in subject of seismic hazard. The PSHA method (Probabilistic Seismic Hazard Assessment) has been followed, quantifying the epistemic uncertainties through a logic tree and the aleatory ones linked to variability of parameters by means of probability density functions and Monte Carlo simulations. In a first phase, the inputs have been prepared, which essentially are: 1) a project catalogue update and homogenization at Mw 2) proposal of zoning models and source characterization 3) calibration of Ground Motion Prediction Equations (GMPE’s) with actual data and development of a local model with data collected in Spain for Mw < 5.5. In a second phase, a sensitivity analysis of the different input options on hazard results has been carried out in order to have criteria for defining the branches of the logic tree and their weights. Finally, the hazard estimation was done with the logic tree shown in figure 1, including nodes for quantifying uncertainties corresponding to: 1) method for estimation of hazard (zoning and zoneless); 2) zoning models, 3) GMPE combinations used and 4) regression method for estimation of source parameters. In addition, the aleatory uncertainties corresponding to the magnitude of the events, recurrence parameters and maximum magnitude for each zone have been also considered including probability density functions and Monte Carlo simulations The main conclusions of the study are presented here, together with the obtained results in terms of PGA and other spectral accelerations SA (T) for return periods of 475, 975 and 2475 years. The map of the coefficient of variation (COV) are also represented to give an idea of the zones where the dispersion among results are the highest and the zones where the results are robust.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La materia se presenta ante nosotros en multiplicidad de formas o “apariencias”. A lo largo de la historia se ha reflexionado sobre la relación entre la materia y la forma en distintos campos desde la filosofía hasta la ciencia, pasando por el arte y la arquitectura, moviéndose entre disciplinas desde las más prácticas a las más artísticas, generando posicionamientos opuestos, como el materialismo-idealismo. El concepto de materia a su vez ha ido cambiando a medida que la conciencia humana y la ciencia han ido evolucionando, pasando de considerarse materia como un ente con “masa” a la materia vacía, donde la “masa” es una ilusión que se nos “aparece” dependiendo de la frecuencia con la que vibra su sistema energético. A partir del concepto de “matière” , Josef Albers desarrolla su metodología docente. La matière es más que el aspecto, la “apariencia” que va más allá de la forma cristalizada. Es la forma cambiante que puede adoptar la materia cuando es transformada por el ser humano, dejando su huella sobre ella. Las tres cualidades de la “matière” que el profesor Albers propone en sus ejercicios del Curso Preliminar para desarrollar la “visión” con la “matière” desde la Bauhaus hasta la Universidad de Yale son: Estructural, Factural y Textural. Al desarrollar la observación, teniendo en cuenta estas tres referencias, se descubriá la desvinculación entre lo material y su apariencia desde la honradez. “La discrepancia entre los hechos físicos y el efecto psíquico”. En un proceso constante de ensayo y error se desarrollará la sensibilización individual hacia el material y la evaluación y critica gracias a la dinámica del taller que permite por comparación, aprender y evolucionar como individuo dentro de una sociedad. Esa metodología inductiva regulada por la economía de recursos, promueve el pensamiento creativo, fundamental para producir a través de la articulación un nuevo lenguaje que por medio de la formulación visual exprese nuestra relación con el mundo, con la vida. La vida que constantemente fluye y oscila entre dos polos opuestos, generando interrelaciones que tejen el mundo. Esas interacciones son las que dan vida a la obra artísitica de Albers. PALABRAS CLAVE: materia y matière, estructural factural y textural, vision, hecho físico y efectos psiquico, pensamiento creativo, vida. The matter stands before us in multiple ways or "appearances". Throughout history the relationship between matter and form has been thought out from different fields, from philosophy to science, including art and architecture, moving between disciplines from the most practical to the most artistic generating positions opposites, as materialism-idealism . The concept of matter in turn has changed as the humna consciousness and science have evolved, from being considered as a matter of "mass" to the empty field where the "mass" is an illusion that we "appears" depending on the frequency with which vibrates its energy system. Using the concept of "matière", Josef Albers develops its teaching methodology. The matière is more than the look, the "appearance" that goes beyond the crystallized form. It is the changing form that may take the matter when it is transformed by humans, leaving their mark on it. The three qualities of "matière" that Professor Albers exercises proposed in the Preliminary Course to develop a "vision" with the "matière" from the Bauhaus to Yale are: Structural, Factural and Textural. To develop observation, taking into account these three references, the separation between the material and its appearance was discovered from honesty. "The discrepancy between physical fact and psychic effect." In an ongoing process by trial and error to develop individual sensitzing towards material and critical evaluation through dynamic workshop. The workshop allows for comparison, learn and evolve as an individual within a society. That inductive methodology regulated by the economy of resources, promotes creative thinking, essential to produce through articulation a new language through visual formulation expresses our relationship with the world, with life. Life constantly flowing, oscillates between two opposite poles, creating relationships that weave the world. These interactions are what give life to the artistic work of Albers. KEYWORDS:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral persigue dos objetivos simultáneos: Determinar el alcance de los criterios clásicos para la evaluación de arquitectura y poner en crisis la prevalencia de esos mismos criterios dentro del marco crítico y productivo actual. En concreto, esta tesis se interroga sobre la posible contribución de determinadas corrientes del pensamiento post-estructuralista y neo-materialista a las tareas de expansión y transformación de los criterios clásicos antes mencionados. Asimismo, se plantea la oportunidad de formalizar estas incorporaciones conceptuales como metodologías para el proyectar arquitectónico. La tesis emplea un análisis pormenorizado de las cualidades implícitas en la triada Firmitas, Utilitas, Venustas elaborada por Vitruvio como vehículo para calibrar la influencia de los paradigmas de pensamiento clásico en nuestras posiciones críticas contemporáneas. Como reacción al carácter dominante de dichos paradigmas, y con la ayuda de una compilación selectiva de ejemplos procedentes de los campos artístico y arquitectónico, la presente tesis procede a examinar y clasificar diversas estrategias arquitectónicas basadas en la no conformidad con los criterios clásicos de evaluación de la disciplina. A la hora de realizar esta tarea, y con el objetivo de superar el dualismo trascendental que caracteriza la gran mayoría de dichos criterios clásicos, se propone un modelo analítico y multidimensional que formula las instancias arquitectónicas como posibles posiciones dentro de un extenso continuo combinatorio de cualidades formales, estructurales y organizativas. Este modelo conceptual permite replantear el aparente antagonismo entre los principios de Vitruvio y sus opuestos, estableciendo en su lugar un dominio operativo continuo de producción arquitectónica. Esta operación abre una ventana de oportunidad para expandir los límites del marco crítico actual más allá de las fronteras establecidas por nuestra herencia clásica. En consecuencia con esta voluntad, la presente tesis pretende habilitar un ámbito para el análisis crítico de las estrategias que caracterizan ciertas corrientes del proyectar contemporáneo, pero también contribuir a informar nuevas aproximaciones metodológicas al proceso de proyecto, desplazando progresivamente su foco desde lo descriptivo hacia lo proyectivo. ABSTRACT This doctoral thesis attempts to simultaneously determine the scope of the classical criteria for the evaluation of architecture and challenge their prevalence within the current framework of architectural production and criticism. It examines how specific strands of post-structuralism and neo-materialism may contribute to both the expansion and the transformation of these criteria and, in doing so, sets itself the goal of mobilising these conceptual incorporations as explicit design methodologies. A detailed analysis of the formal, structural and organisational qualities implicit in Vitruvius’ triad Firmitas, Utilitas, Venustas is used as a starting point to determine the influence of classical paradigms in our current critical positions. As a reaction to this critical pervasiveness, and supported by a curated collection of artistic and architectural works, diverse approaches to non-compliance with the classical criteria of assessment are examined and classified. In order to facilitate this endeavour -and to overcome the transcendental dualism of most classical critical approaches in architecture- this thesis puts forward an analytical, multidimensional model that formulates architectural instances as possible positions within a larger combinatory continuum of formal, structural and organisational qualities. Using this conceptual model, the apparent antagonism between Vitruvius’ principles and its non-compliant opposites is reframed as a continuous operative domain of architectural production, which in turn opens up a window of opportunity to expand the limits of our critical framework beyond the boundaries of classical paradigms. In doing so, this thesis attempts not only to foster a better understanding of some of the strategic approaches that characterise contemporary systems of architectural production, but also to inform future methodological approaches to architectural design, hence situating itself beyond the domain of the descriptive and moving towards the projective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis determinista de seguridad (DSA) es el procedimiento que sirve para diseñar sistemas, estructuras y componentes relacionados con la seguridad en las plantas nucleares. El DSA se basa en simulaciones computacionales de una serie de hipotéticos accidentes representativos de la instalación, llamados escenarios base de diseño (DBS). Los organismos reguladores señalan una serie de magnitudes de seguridad que deben calcularse en las simulaciones, y establecen unos criterios reguladores de aceptación (CRA), que son restricciones que deben cumplir los valores de esas magnitudes. Las metodologías para realizar los DSA pueden ser de 2 tipos: conservadoras o realistas. Las metodologías conservadoras utilizan modelos predictivos e hipótesis marcadamente pesimistas, y, por ello, relativamente simples. No necesitan incluir un análisis de incertidumbre de sus resultados. Las metodologías realistas se basan en hipótesis y modelos predictivos realistas, generalmente mecanicistas, y se suplementan con un análisis de incertidumbre de sus principales resultados. Se les denomina también metodologías BEPU (“Best Estimate Plus Uncertainty”). En ellas, la incertidumbre se representa, básicamente, de manera probabilista. Para metodologías conservadores, los CRA son, simplemente, restricciones sobre valores calculados de las magnitudes de seguridad, que deben quedar confinados en una “región de aceptación” de su recorrido. Para metodologías BEPU, el CRA no puede ser tan sencillo, porque las magnitudes de seguridad son ahora variables inciertas. En la tesis se desarrolla la manera de introducción de la incertidumbre en los CRA. Básicamente, se mantiene el confinamiento a la misma región de aceptación, establecida por el regulador. Pero no se exige el cumplimiento estricto sino un alto nivel de certidumbre. En el formalismo adoptado, se entiende por ello un “alto nivel de probabilidad”, y ésta corresponde a la incertidumbre de cálculo de las magnitudes de seguridad. Tal incertidumbre puede considerarse como originada en los inputs al modelo de cálculo, y propagada a través de dicho modelo. Los inputs inciertos incluyen las condiciones iniciales y de frontera al cálculo, y los parámetros empíricos de modelo, que se utilizan para incorporar la incertidumbre debida a la imperfección del modelo. Se exige, por tanto, el cumplimiento del CRA con una probabilidad no menor a un valor P0 cercano a 1 y definido por el regulador (nivel de probabilidad o cobertura). Sin embargo, la de cálculo de la magnitud no es la única incertidumbre existente. Aunque un modelo (sus ecuaciones básicas) se conozca a la perfección, la aplicación input-output que produce se conoce de manera imperfecta (salvo que el modelo sea muy simple). La incertidumbre debida la ignorancia sobre la acción del modelo se denomina epistémica; también se puede decir que es incertidumbre respecto a la propagación. La consecuencia es que la probabilidad de cumplimiento del CRA no se puede conocer a la perfección; es una magnitud incierta. Y así se justifica otro término usado aquí para esta incertidumbre epistémica: metaincertidumbre. Los CRA deben incorporar los dos tipos de incertidumbre: la de cálculo de la magnitud de seguridad (aquí llamada aleatoria) y la de cálculo de la probabilidad (llamada epistémica o metaincertidumbre). Ambas incertidumbres pueden introducirse de dos maneras: separadas o combinadas. En ambos casos, el CRA se convierte en un criterio probabilista. Si se separan incertidumbres, se utiliza una probabilidad de segundo orden; si se combinan, se utiliza una probabilidad única. Si se emplea la probabilidad de segundo orden, es necesario que el regulador imponga un segundo nivel de cumplimiento, referido a la incertidumbre epistémica. Se denomina nivel regulador de confianza, y debe ser un número cercano a 1. Al par formado por los dos niveles reguladores (de probabilidad y de confianza) se le llama nivel regulador de tolerancia. En la Tesis se razona que la mejor manera de construir el CRA BEPU es separando las incertidumbres, por dos motivos. Primero, los expertos defienden el tratamiento por separado de incertidumbre aleatoria y epistémica. Segundo, el CRA separado es (salvo en casos excepcionales) más conservador que el CRA combinado. El CRA BEPU no es otra cosa que una hipótesis sobre una distribución de probabilidad, y su comprobación se realiza de forma estadística. En la tesis, los métodos estadísticos para comprobar el CRA BEPU en 3 categorías, según estén basados en construcción de regiones de tolerancia, en estimaciones de cuantiles o en estimaciones de probabilidades (ya sea de cumplimiento, ya sea de excedencia de límites reguladores). Según denominación propuesta recientemente, las dos primeras categorías corresponden a los métodos Q, y la tercera, a los métodos P. El propósito de la clasificación no es hacer un inventario de los distintos métodos en cada categoría, que son muy numerosos y variados, sino de relacionar las distintas categorías y citar los métodos más utilizados y los mejor considerados desde el punto de vista regulador. Se hace mención especial del método más utilizado hasta el momento: el método no paramétrico de Wilks, junto con su extensión, hecha por Wald, al caso multidimensional. Se decribe su método P homólogo, el intervalo de Clopper-Pearson, típicamente ignorado en el ámbito BEPU. En este contexto, se menciona el problema del coste computacional del análisis de incertidumbre. Los métodos de Wilks, Wald y Clopper-Pearson requieren que la muestra aleatortia utilizada tenga un tamaño mínimo, tanto mayor cuanto mayor el nivel de tolerancia exigido. El tamaño de muestra es un indicador del coste computacional, porque cada elemento muestral es un valor de la magnitud de seguridad, que requiere un cálculo con modelos predictivos. Se hace especial énfasis en el coste computacional cuando la magnitud de seguridad es multidimensional; es decir, cuando el CRA es un criterio múltiple. Se demuestra que, cuando las distintas componentes de la magnitud se obtienen de un mismo cálculo, el carácter multidimensional no introduce ningún coste computacional adicional. Se prueba así la falsedad de una creencia habitual en el ámbito BEPU: que el problema multidimensional sólo es atacable desde la extensión de Wald, que tiene un coste de computación creciente con la dimensión del problema. En el caso (que se da a veces) en que cada componente de la magnitud se calcula independientemente de los demás, la influencia de la dimensión en el coste no se puede evitar. Las primeras metodologías BEPU hacían la propagación de incertidumbres a través de un modelo sustitutivo (metamodelo o emulador) del modelo predictivo o código. El objetivo del metamodelo no es su capacidad predictiva, muy inferior a la del modelo original, sino reemplazar a éste exclusivamente en la propagación de incertidumbres. Para ello, el metamodelo se debe construir con los parámetros de input que más contribuyan a la incertidumbre del resultado, y eso requiere un análisis de importancia o de sensibilidad previo. Por su simplicidad, el modelo sustitutivo apenas supone coste computacional, y puede estudiarse exhaustivamente, por ejemplo mediante muestras aleatorias. En consecuencia, la incertidumbre epistémica o metaincertidumbre desaparece, y el criterio BEPU para metamodelos se convierte en una probabilidad simple. En un resumen rápido, el regulador aceptará con más facilidad los métodos estadísticos que menos hipótesis necesiten; los exactos más que los aproximados; los no paramétricos más que los paramétricos, y los frecuentistas más que los bayesianos. El criterio BEPU se basa en una probabilidad de segundo orden. La probabilidad de que las magnitudes de seguridad estén en la región de aceptación no sólo puede asimilarse a una probabilidad de éxito o un grado de cumplimiento del CRA. También tiene una interpretación métrica: representa una distancia (dentro del recorrido de las magnitudes) desde la magnitud calculada hasta los límites reguladores de aceptación. Esta interpretación da pie a una definición que propone esta tesis: la de margen de seguridad probabilista. Dada una magnitud de seguridad escalar con un límite superior de aceptación, se define el margen de seguridad (MS) entre dos valores A y B de la misma como la probabilidad de que A sea menor que B, obtenida a partir de las incertidumbres de A y B. La definición probabilista de MS tiene varias ventajas: es adimensional, puede combinarse de acuerdo con las leyes de la probabilidad y es fácilmente generalizable a varias dimensiones. Además, no cumple la propiedad simétrica. El término margen de seguridad puede aplicarse a distintas situaciones: distancia de una magnitud calculada a un límite regulador (margen de licencia); distancia del valor real de la magnitud a su valor calculado (margen analítico); distancia desde un límite regulador hasta el valor umbral de daño a una barrera (margen de barrera). Esta idea de representar distancias (en el recorrido de magnitudes de seguridad) mediante probabilidades puede aplicarse al estudio del conservadurismo. El margen analítico puede interpretarse como el grado de conservadurismo (GC) de la metodología de cálculo. Utilizando la probabilidad, se puede cuantificar el conservadurismo de límites de tolerancia de una magnitud, y se pueden establecer indicadores de conservadurismo que sirvan para comparar diferentes métodos de construcción de límites y regiones de tolerancia. Un tópico que nunca se abordado de manera rigurosa es el de la validación de metodologías BEPU. Como cualquier otro instrumento de cálculo, una metodología, antes de poder aplicarse a análisis de licencia, tiene que validarse, mediante la comparación entre sus predicciones y valores reales de las magnitudes de seguridad. Tal comparación sólo puede hacerse en escenarios de accidente para los que existan valores medidos de las magnitudes de seguridad, y eso ocurre, básicamente en instalaciones experimentales. El objetivo último del establecimiento de los CRA consiste en verificar que se cumplen para los valores reales de las magnitudes de seguridad, y no sólo para sus valores calculados. En la tesis se demuestra que una condición suficiente para este objetivo último es la conjunción del cumplimiento de 2 criterios: el CRA BEPU de licencia y un criterio análogo, pero aplicado a validación. Y el criterio de validación debe demostrarse en escenarios experimentales y extrapolarse a plantas nucleares. El criterio de licencia exige un valor mínimo (P0) del margen probabilista de licencia; el criterio de validación exige un valor mínimo del margen analítico (el GC). Esos niveles mínimos son básicamente complementarios; cuanto mayor uno, menor el otro. La práctica reguladora actual impone un valor alto al margen de licencia, y eso supone que el GC exigido es pequeño. Adoptar valores menores para P0 supone menor exigencia sobre el cumplimiento del CRA, y, en cambio, más exigencia sobre el GC de la metodología. Y es importante destacar que cuanto mayor sea el valor mínimo del margen (de licencia o analítico) mayor es el coste computacional para demostrarlo. Así que los esfuerzos computacionales también son complementarios: si uno de los niveles es alto (lo que aumenta la exigencia en el cumplimiento del criterio) aumenta el coste computacional. Si se adopta un valor medio de P0, el GC exigido también es medio, con lo que la metodología no tiene que ser muy conservadora, y el coste computacional total (licencia más validación) puede optimizarse. ABSTRACT Deterministic Safety Analysis (DSA) is the procedure used in the design of safety-related systems, structures and components of nuclear power plants (NPPs). DSA is based on computational simulations of a set of hypothetical accidents of the plant, named Design Basis Scenarios (DBS). Nuclear regulatory authorities require the calculation of a set of safety magnitudes, and define the regulatory acceptance criteria (RAC) that must be fulfilled by them. Methodologies for performing DSA van be categorized as conservative or realistic. Conservative methodologies make use of pessimistic model and assumptions, and are relatively simple. They do not need an uncertainty analysis of their results. Realistic methodologies are based on realistic (usually mechanistic) predictive models and assumptions, and need to be supplemented with uncertainty analyses of their results. They are also termed BEPU (“Best Estimate Plus Uncertainty”) methodologies, and are typically based on a probabilistic representation of the uncertainty. For conservative methodologies, the RAC are simply the restriction of calculated values of safety magnitudes to “acceptance regions” defined on their range. For BEPU methodologies, the RAC cannot be so simple, because the safety magnitudes are now uncertain. In the present Thesis, the inclusion of uncertainty in RAC is studied. Basically, the restriction to the acceptance region must be fulfilled “with a high certainty level”. Specifically, a high probability of fulfillment is required. The calculation uncertainty of the magnitudes is considered as propagated from inputs through the predictive model. Uncertain inputs include model empirical parameters, which store the uncertainty due to the model imperfection. The fulfillment of the RAC is required with a probability not less than a value P0 close to 1 and defined by the regulator (probability or coverage level). Calculation uncertainty is not the only one involved. Even if a model (i.e. the basic equations) is perfectly known, the input-output mapping produced by the model is imperfectly known (unless the model is very simple). This ignorance is called epistemic uncertainty, and it is associated to the process of propagation). In fact, it is propagated to the probability of fulfilling the RAC. Another term used on the Thesis for this epistemic uncertainty is metauncertainty. The RAC must include the two types of uncertainty: one for the calculation of the magnitude (aleatory uncertainty); the other one, for the calculation of the probability (epistemic uncertainty). The two uncertainties can be taken into account in a separate fashion, or can be combined. In any case the RAC becomes a probabilistic criterion. If uncertainties are separated, a second-order probability is used; of both are combined, a single probability is used. On the first case, the regulator must define a level of fulfillment for the epistemic uncertainty, termed regulatory confidence level, as a value close to 1. The pair of regulatory levels (probability and confidence) is termed the regulatory tolerance level. The Thesis concludes that the adequate way of setting the BEPU RAC is by separating the uncertainties. There are two reasons to do so: experts recommend the separation of aleatory and epistemic uncertainty; and the separated RAC is in general more conservative than the joint RAC. The BEPU RAC is a hypothesis on a probability distribution, and must be statistically tested. The Thesis classifies the statistical methods to verify the RAC fulfillment in 3 categories: methods based on tolerance regions, in quantile estimators and on probability (of success or failure) estimators. The former two have been termed Q-methods, whereas those in the third category are termed P-methods. The purpose of our categorization is not to make an exhaustive survey of the very numerous existing methods. Rather, the goal is to relate the three categories and examine the most used methods from a regulatory standpoint. Special mention deserves the most used method, due to Wilks, and its extension to multidimensional variables (due to Wald). The counterpart P-method of Wilks’ is Clopper-Pearson interval, typically ignored in the BEPU realm. The problem of the computational cost of an uncertainty analysis is tackled. Wilks’, Wald’s and Clopper-Pearson methods require a minimum sample size, which is a growing function of the tolerance level. The sample size is an indicator of the computational cost, because each element of the sample must be calculated with the predictive models (codes). When the RAC is a multiple criteria, the safety magnitude becomes multidimensional. When all its components are output of the same calculation, the multidimensional character does not introduce additional computational cost. In this way, an extended idea in the BEPU realm, stating that the multi-D problem can only be tackled with the Wald extension, is proven to be false. When the components of the magnitude are independently calculated, the influence of the problem dimension on the cost cannot be avoided. The former BEPU methodologies performed the uncertainty propagation through a surrogate model of the code, also termed emulator or metamodel. The goal of a metamodel is not the predictive capability, clearly worse to the original code, but the capacity to propagate uncertainties with a lower computational cost. The emulator must contain the input parameters contributing the most to the output uncertainty, and this requires a previous importance analysis. The surrogate model is practically inexpensive to run, so that it can be exhaustively analyzed through Monte Carlo. Therefore, the epistemic uncertainty due to sampling will be reduced to almost zero, and the BEPU RAC for metamodels includes a simple probability. The regulatory authority will tend to accept the use of statistical methods which need a minimum of assumptions: exact, nonparametric and frequentist methods rather than approximate, parametric and bayesian methods, respectively. The BEPU RAC is based on a second-order probability. The probability of the safety magnitudes being inside the acceptance region is a success probability and can be interpreted as a fulfillment degree if the RAC. Furthermore, it has a metric interpretation, as a distance (in the range of magnitudes) from calculated values of the magnitudes to acceptance regulatory limits. A probabilistic definition of safety margin (SM) is proposed in the thesis. The same from a value A to other value B of a safety magnitude is defined as the probability that A is less severe than B, obtained from the uncertainties if A and B. The probabilistic definition of SM has several advantages: it is nondimensional, ranges in the interval (0,1) and can be easily generalized to multiple dimensions. Furthermore, probabilistic SM are combined according to the probability laws. And a basic property: probabilistic SM are not symmetric. There are several types of SM: distance from a calculated value to a regulatory limit (licensing margin); or from the real value to the calculated value of a magnitude (analytical margin); or from the regulatory limit to the damage threshold (barrier margin). These representations of distances (in the magnitudes’ range) as probabilities can be applied to the quantification of conservativeness. Analytical margins can be interpreted as the degree of conservativeness (DG) of the computational methodology. Conservativeness indicators are established in the Thesis, useful in the comparison of different methods of constructing tolerance limits and regions. There is a topic which has not been rigorously tackled to the date: the validation of BEPU methodologies. Before being applied in licensing, methodologies must be validated, on the basis of comparisons of their predictions ad real values of the safety magnitudes. Real data are obtained, basically, in experimental facilities. The ultimate goal of establishing RAC is to verify that real values (aside from calculated values) fulfill them. In the Thesis it is proved that a sufficient condition for this goal is the conjunction of 2 criteria: the BEPU RAC and an analogous criterion for validation. And this las criterion must be proved in experimental scenarios and extrapolated to NPPs. The licensing RAC requires a minimum value (P0) of the probabilistic licensing margin; the validation criterion requires a minimum value of the analytical margin (i.e., of the DG). These minimum values are basically complementary; the higher one of them, the lower the other one. The regulatory practice sets a high value on the licensing margin, so that the required DG is low. The possible adoption of lower values for P0 would imply weaker exigence on the RCA fulfillment and, on the other hand, higher exigence on the conservativeness of the methodology. It is important to highlight that a higher minimum value of the licensing or analytical margin requires a higher computational cost. Therefore, the computational efforts are also complementary. If medium levels are adopted, the required DG is also medium, and the methodology does not need to be very conservative. The total computational effort (licensing plus validation) could be optimized.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si hubiese un denominador común entre todas las artes en lo que ha venido llamándose postmodernidad, éste tendría mucho que ver con el final del origen de la obra. Desde la literatura y la música hasta las artes plásticas y la arquitectura, la superación de la modernidad ha estado caracterizada por la sustitución del concepto de creación por el de intervención artística, o lo que es lo mismo, la interpretación de lo que ya existe. A principios del siglo XX los conceptos modernos de creación y origen implicaban tener que desaprender y olvidar todo lo anterior con el ánimo de partir desde cero; incluso en un sentido material Mies sugería la construcción literal de la materia y su movimiento de acuerdo a unas leyes. A partir de la segunda mitad de siglo los planteamientos historicistas empezaron a surgir como reacción ante la amnesia y la supuesta originalidad de los modernos. En este contexto surgen los libros Learning from Las Vegas, 1972 y Delirious New York, 1978, ambos deudores en muchos aspectos con el anterior libro de Venturi, Complexity and Contradiction in Architecture, 1966. Estos dos libros sobre ciudades, alejándose decididamente de las tendencias historicistas de la época, proponían utilizar el análisis crítico de la realidad existente como vehículo para la teoría y el proyecto de manera simultánea, convirtiéndose indirectamente en Manifiestos. Si en un primer momento Venturi, Rossi y otros planteaban acabar con los límites formales establecidos por la modernidad, así como por cualquiera de los cánones anteriores, tomando la totalidad de la obra construida como sistema de referencia, - al igual que hiciera Eliot en literatura, - los libros de Las Vegas y Nueva York sugerían directamente borrar los límites de la propia disciplina, llegando a poner en duda ¿Qué puede ser considerado arquitectura? Sin embargo, debido precisamente a la ausencia total de límites y a la inmensidad del sistema referencial planteado, “todo puede ser arquitectura”, como apuntaba Hans Hollein en 1968, los libros proponen al mismo tiempo definir el campo de actuación de cada cual de manera individual. Los escritos sobre Las Vegas y Nueva York suponen por un lado la eliminación de los limites disciplinares y por otro, la delimitación de ámbitos de trabajo concretos para sus autores: los propios de cada una de las ciudades interpretadas. La primera parte de la Tesis, Lecciones, se ocupa del necesario proceso de aprendizaje y experimentación previo a la acción crítica propiamente dicha. Los arquitectos contemporáneos necesitan acumular material, conocimiento, documentación, experiencias... antes de lanzarse a proponer mediante la crítica y la edición; y al contrario que ocurría con los modernos, cuanto más abundante sea ese bagaje previo más rica será la interpretación. Las ciudades de Roma, Londres y Berlín se entienden por tanto como experiencias capaces de proporcionar a Venturi, Scott Brown y Koolhaas respectivamente, sus “personales diccionarios”, unas interminables imaginerías con las que posteriormente se enfrentarían a los análisis de Las Vegas y Nueva York. La segunda parte, Críticas, se centra en la producción teórica en sí: los dos libros de ciudades analizados en estrecha relación con el Complexity and Contradiction. El razonamiento analógico característico de estos libros ha servido de guía metodológica para la investigación, estableciéndose relaciones, no entre los propios escritos directamente, sino a través de trabajos pertenecientes a otras disciplinas. En primer lugar se plantea un importante paralelismo entre los métodos de análisis desarrollados en estos libros y los utilizados por la crítica literaria, observando que si el new criticism y el nuevo periodismo sirvieron de guía en los escritos de Venturi y Scott Brown, la nouvelle critique y su propuesta de identificación poética fueron el claro referente de Koolhaas al abordar Nueva York. Por otro lado, la relevancia ganada por la actividad de comisariado artístico y la aparición de la figura del curator, como autoridad capaz de utilizar la obra de arte por encima de las intenciones de su propio autor, sirve, al igual que la figura del editor, como reflejo de la acción transformadora y de apropiación llevada a cabo tanto en Learning from Las Vegas, como en Delirious New York. Por último y a lo largo de toda la investigación las figuras de Bergson y Baudelaire han servido como apoyo teórico. A través de la utilización que de sus ideas hicieron Venturi y Koolhaas respectivamente, se ha tratado de mostrar la proximidad de ambos planteamientos desde un punto de vista ideológico. La Inclusión propuesta por Venturi y la ironía utilizada por Koolhaas, la contradicción y la paradoja, no son sino el reflejo de lógicas que en ambos casos reaccionan al mismo tiempo contra idealismo y materialismo, contra modernidad y antimodernidad, en un continuo intento de ser lo uno y lo otro simultáneamente. ABSTRACT If there was a common denominator among all the arts in what has been called postmodernism, it would have much to do with the end of the origin of the artwork. From literature and music to fine arts and architecture, overcoming modernity has been characterized by replacing the concept of artistic creation by the one of intervention, in other words, the interpretation of what already exists. In the early twentieth century modern concepts of creation and origin involved unlearning and forgetting everything before with the firm intention of starting from scratch. Even in a material sense Mies suggested the literal construction of matter and its motion according to laws. From the mid-century historicist approaches began to emerge in response to the amnesia and originality alleged by moderns. In this context appeared the books Learning from Las Vegas, 1972 and Delirious New York, 1978, both debtors in many respects to the previous book by Venturi, Complexity and Contradiction in Architecture, 1966. These two books on cities, which broke away decidedly with the historicist trends of the time, proposed using critical analysis of the existing reality as a vehicle for theory and projecting at the same time, indirectly becoming manifests. If at first Venturi, Rossi and others pose to erase the formal limits set by modernity, as well as any of the canons before, taking the entire work built as a reference system, - as did Eliot in literature - the books on Las Vegas and New York proposed directly erasing the boundaries of the discipline itself, coming to question what could be considered architecture? However, and precisely because of the absence of limits and the immensity of the established framework, - “everything could be architecture” as Hans Hollein pointed in 1968, - the books suggested at the same time the definition of a field of action for each one individually. The cities of Las Vegas and New York represented on the one hand the elimination of disciplinary limits and on the other, the delimitation of specific areas of work to its authors: Those on each of the cities interpreted. The first part of the thesis, Lessons, attend to the necessary process of learning and experimentation before the critical action itself. Contemporary architects need to accumulate material, knowledge, information, experiences... before proposing through criticism and editing; and unlike happened with moderns, the most abundant this prior baggage is, the richest will be the interpretation. Rome, London and Berlin are therefore understood as experiences capable of providing Venturi, Scott Brown and Koolhaas respectively, their “personal dictionaries”, interminable imageries with which they would later face the analysis of Las Vegas and New York. The second part, Critiques, focuses on the theoretical production itself: the two books on both cities analyzed closely with the Complexity and Contradiction. The analogical reasoning characteristic of these books has served as a methodological guide for the research, establishing relationships, not directly between the writings themselves, but through works belonging to other disciplines. First, an important parallel is set between the methods of analysis developed in these books and those used by literary criticism, noting that if the new criticism and new journalism guided Venturi and Scott Brown´s writings, the nouvelle critique and its poetic identification were clear references for Koolhaas when addressing New York. On the other hand, the relevance gained by curating and the understanding of the figure of the curator as an authority capable to use artworks above the intentions of their authors, like the one of the Editor, reflects the appropriation and processing actions carried out both in Learning from Las Vegas, and Delirious New York. Finally and over all the research Bergson and Baudelaire figures resonate continuously. Through the use of their ideas done by Venturi and Koolhaas respectively, the research has tried to show the proximity of both approaches from an ideological point of view. Inclusion, as posed by Venturi and irony, as used by Koolhaas, contradiction and paradox are reflections of the logic that in both cases allow them to react simultaneously against idealism and materialism, against modernism and anti-modernism.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The role of matter has remained central to the making and the thinking of architecture, yet many attempts to capture its essence have been trapped in a dialectic tension between form and materiality, between material consistency and immaterial modes of perception, between static states and dynamic processes, between the real and the virtual, thus advancing an increasing awareness of the perplexing complexity of the material world. Within that complexity, the notion of agency – emerging from and within ecological, politico-economic and socio-cultural processes – calls for a reconceptualization of matter, and consequently processes of materialisation, offering a new understanding of context and space, approached as a field of dynamic relationships. In this context, cutting across boundaries between architectural discourse and practice as well as across the vast trans-disciplinary territory, this dissertation aims to illustrate a variety of design methodologies that have derived from the relational approach. More specifically, the intention is to offer new insights into spatial epistemologies embedded within the notion of atmosphere – commonly associated with the so-called New Phenomenology – and to reflect upon its implications for architectural production. In what follows, the intended argumentation has a twofold dimension. First, through a scrutiny of the notion of atmosphere, the aim is to explore ways of thinking and shaping reality through relations, thus acknowledging the aforementioned complexity of the material universe disclosed through human and non-human as well as material and immaterial forces. Secondly, despite the fact that concerns for atmospherics have flourished over the last few decades, the objective is to reveal that the conceptual foundations and procedures for the production of atmosphere might be found beneath the surface of contemporary debates. Hence, in order to unfold and illustrate previously advocated assumptions, an archaeological approach is adopted, tracing a particular projective genealogy, one that builds upon an atmospheric awareness. Accordingly, in tracing such an atmospheric awareness the study explores the notoriously ambiguous nature and the twofold dimension of atmosphere – meteorological and aesthetic – and the heterogeneity of meanings embedded in them. In this context, the notion of atmosphere is presented as parallactic. It transgresses the formal and material boundaries of bodies. It calls for a reevaluation of perceptual experience, opening a new gap that exposes the orthodox space-bodyenvironment relationships to questioning. It offers to architecture an expanded domain in which to manifest itself, defining architectural space as a contingent construction and field of engagement, and presenting matter as a locus of production/performance/action. Consequently, it is such an expanded or relational dimension that constitutes the foundation of what in the context of this study is to be referred to as affective tectonics. Namely, a tectonics that represents processual and experiential multiplicity of convergent time and space, body and environment, the material and the immaterial; a tectonics in which matter neither appears as an inert and passive substance, nor is limited to the traditionally regarded tectonic significance or expressive values, but is presented as an active element charged with inherent potential and vitality. By defining such a relational materialism, the intention is to expand the spectrum of material attributes revealing the intrinsic relationships between the physical properties of materials and their performative, transformative and affective capacities, including effects of interference and haptic dynamics – i.e. protocols of transmission and interaction. The expression that encapsulates its essence is: ACTIVE MATERIALITY RESUMEN El significado de la materia ha estado desde siempre ligado al pensamiento y el quehacer arquitectónico. Sin embargo, muchos intentos de capturar su esencia se han visto sumergidos en una tensión dialéctica entre la forma y la materialidad, entre la consistencia material y los modos inmateriales de la percepción, entre los estados estáticos y los procesos dinámicos, entre lo real y lo virtual, revelando una creciente conciencia de la desconcertante complejidad del mundo material. En esta complejidad, la noción de la operatividad o capacidad agencial– que emerge desde y dentro de los procesos ecológicos, políticos y socio-culturales– requiere de una reconceptualización de la materia y los procesos inherentes a la materialización, ofreciendo una nueva visión del contexto y el espacio, entendidos como un campo relacional dinámico. Oscilando entre el discurso arquitectónico y la práctica arquitectónica, y atravesando un extenso territorio trans-disciplinar, el objetivo de la presente tesis es ilustrar la variedad de metodologías proyectuales que emergieron desde este enfoque relacional. Concretamente, la intención es indagar en las epistemologías espaciales vinculadas a la noción de la atmósfera– generalmente asociada a la llamada Nueva Fenomenología–, reflexionando sobre su impacto en la producción arquitectónica. A continuación, el estudio ofrece una doble línea argumental. Primero, a través del análisis crítico de la noción de atmósfera, el objetivo es explorar maneras de pensar y dar forma a la realidad a través de las relaciones, reconociendo la mencionada complejidad del universo material revelado a través de fuerzas humanas y no-humanas, materiales e inmateriales. Segundo, a pesar de que el interés por las atmósferas ha florecido en las últimas décadas, la intención es demostrar que las bases conceptuales y los protocolos proyectuales de la creación de atmósferas se pueden encontrar bajo la superficie de los debates contemporáneos. Para corroborar e ilustrar estas hipótesis se propone una metodología de carácter arqueológico, trazando una particular genealogía de proyectos– la que se basa en una conciencia atmosférica. Asimismo, al definir esta conciencia atmosférica, el estudio explora tanto la naturaleza notoriamente ambigua y la dimensión dual de la atmósfera– meteorológica y estética–, como la heterogeneidad de significados derivados de ellas. En este contexto, la atmósfera se entiende como un concepto detonante, ya que sobrepasa los limites formales y materiales de los cuerpos, llevando a la re-evaluación de la experiencia perceptiva y abriendo a preguntas la ortodoxa relación espacio- cuerpo-ambiente. En consecuencia, la noción de la atmósfera ofrece a la arquitectura una dimensión expandida donde manifestarse, definiendo el espacio como una construcción contingente, performativa y afectiva, y presentando la materia como locus de producción/ actuación/ acción. Es precisamente esta dimensión expandida relacional la que constituye una base para lo que en el contexto del presente estudio se define como una tectónica afectiva. Es decir, una tectónica que representa una multiplicidad procesual y experiencial derivada de la convergencia entre el tiempo y el espacio, el cuerpo y el entorno, lo material y lo inmaterial; una tectónica en la que la materia no aparece como una substancia pasiva e inerte, ni es limitada al significado considerado tradicionalmente constructivo o a sus valores expresivos, sino que se presenta como elemento activo cargado de un potencial y vitalidad inherentes. A través de la definición de este tipo de materialismo afectivo, la intención es expandir el espectro de los atributos materiales, revelando las relaciones intrínsecas entre las propiedades físicas de los materiales y sus capacidades performativas, transformativas y afectivas, incluyendo efectos de interferencias y dinámicas hápticas– o dicho de otro modo, protocolos de transmisión e interacción. Una expresión que encapsula su esencia vendría a ser: MATERIALIDAD ACTIVA

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa se propõe a analisar o contexto histórico, político, social, econômico e ideológico em que surge a pedagogia crítica de Paulo Freire e posteriormente a Teologia da Libertação, visando encontrar influências deste peculiar contexto na gênese do pensamento freireano e nas concepções dos teólogos Rubem Alves e Gustavo Gutiérrez, que foram os primeiros publicar obras sobre Teologia da Libertação, corrente teológica considerada genuinamente latino-americana. Ainda procura observar em que medida as concepções pedagógicas de Freire podem ter sido acolhidas pelos teólogos Alves e Gutiérrez em suas obras aqui analisadas. Em ambos os pensamentos encontramos a visão de valorização do ser humano e de uma práxis que busca sua libertação de sistemas opressores. Tanto em Paulo Freire como nos fundamentos desta corrente teológica se apresentam princípios humanistas e elementos da tradição cristã. A partir da ferramenta metodológica de análise do materialismo histórico dialético marxista, procura identificar temas comuns que são abordados pelos autores em suas obras surgidas entre as décadas de 1950 a 1970, detendo-se ao estudo de alguns temas subjacentes a esse contexto histórico, a saber: práxis, história, humanismo e libertação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La intención del presente trabajo es presentar una lectura crítica y renovada sobre las contradicciones engendradas por la modernización neoliberal de la agricultura chilena. Esta tarea es realizada por medio de los lentes del "materialismo histórico-geográfico", desarrollado principalmente por el geógrafo británico David Harvey, y también de los estudios agrarios vinculados al pensamiento crítico, especialmente marxistas. Como principal substrato empírico, son utilizados las informaciones y los datos suministrados por los documentos y los estudios que han buscado comprender el caso específico del desarrollo capitalista contemporáneo en Chile, así como sus consecuencias para el campo y para el campesinado nacional. Se sustenta aquí que los mecanismos de acumulación por desposesión fueron (y aún son) de vital importancia en lo que se refiere a hacer del país una potencia silvoagroexportadora mundial

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Buscamos investigar, neste trabalho, quais são os discursos sobre os gêneros discursivos que circulam entre sujeitos-professores que atuam nos anos finais (4º e 5º anos) do Ensino Fundamental I, em escolas públicas municipais. Buscamos compreender também, a maneira como esses sujeitos (se) significam, em suas relações com a língua e a história. O interesse pela temática investigada se dá, principalmente, porque observamos, ao longo de nossos anos de experiência no magistério, que, embora os gêneros discursivos conforme definidos por Bakhtin (1997) sejam considerados pelos Parâmetros Curriculares Nacionais e por outros documentos legais que fundamentam a Educação Básica, como um dos principais objetivos do ensino de língua portuguesa, o conceito ainda desperta muitas dúvidas nos docentes. Filiamo-nos à Análise de Discurso de matriz francesa, postulada por Pêcheux (2009), área do conhecimento basicamente constituída na intersecção entre o materialismo histórico, a psicanálise e a linguística, e que considera a língua como lugar de materialização do discurso que é a língua em movimento, em uso pelos sujeitos. Na construção de nosso referencial teórico, mobilizamos, ainda, a teoria bakhtiniana dos gêneros do discurso, e as contribuições de teóricos das ciências da educação, tais como Pimenta (2012), Tardif (2002), Giroux (1997), Sacristán (1998), entre outros. O corpus da pesquisa é representado por seis entrevistas semiestruturadas, realizadas com sujeitos-professores que atuam em classes de 4º e 5º ano do ensino fundamental, em escolas de rede pública municipal. A partir da transcrição das entrevistas, foram realizados recortes que constituíram o material analisado neste estudo. As análises realizadas aqui indiciam que os sujeitos-professores entrevistados circulam por formações discursivas e ideológicas cristalizadas, no que diz respeito à relação dos estudantes com a língua. Tais docentes buscam desenvolver um trabalho pedagógico mediado pelos critérios de suposta familiaridade, utilidade ou praticidade em relação aos usos sociais que os gêneros discursivos poderiam ter para os estudantes. Além disso, as análises discursivas de alguns recortes apontam para um equívoco na compreensão do conceito bakhtiniano de gêneros discursivos, compreendidos, no cotidiano escolar, como uma classificação tipológica e estanque, excluindo a dinamicidade e a plasticidade que envolvem o conceito, conforme proposto por Bakhtin (1997). A cristalização da definição do conceito de gêneros discursivos, na dimensão tipológica, favorece o cerceamento da prática pedagógica, colaborando para a difusão de práticas que visam o esgotamento dos gêneros discursivos, buscando apresentar o maior número possível de gêneros aos estudantes, sob a forma de modelos que deverão ser seguidos em suas produções textuais futuras, e que lhes serão cobrados em avaliações internas e externas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de doutoramento, Direito (Ciências Jurídico-Políticas), Universidade de Lisboa, Faculdade de Direito, 2016

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La intención del presente trabajo es presentar una lectura crítica y renovada sobre las contradicciones engendradas por la modernización neoliberal de la agricultura chilena. Esta tarea es realizada por medio de los lentes del "materialismo histórico-geográfico", desarrollado principalmente por el geógrafo británico David Harvey, y también de los estudios agrarios vinculados al pensamiento crítico, especialmente marxistas. Como principal substrato empírico, son utilizados las informaciones y los datos suministrados por los documentos y los estudios que han buscado comprender el caso específico del desarrollo capitalista contemporáneo en Chile, así como sus consecuencias para el campo y para el campesinado nacional. Se sustenta aquí que los mecanismos de acumulación por desposesión fueron (y aún son) de vital importancia en lo que se refiere a hacer del país una potencia silvoagroexportadora mundial