780 resultados para EXPLOSION


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La frecuencia con la que se producen explosiones sobre edificios, ya sean accidentales o intencionadas, es reducida, pero sus efectos pueden ser catastróficos. Es deseable poder predecir de forma suficientemente precisa las consecuencias de estas acciones dinámicas sobre edificaciones civiles, entre las cuales las estructuras reticuladas de hormigón armado son una tipología habitual. En esta tesis doctoral se exploran distintas opciones prácticas para el modelado y cálculo numérico por ordenador de estructuras de hormigón armado sometidas a explosiones. Se emplean modelos numéricos de elementos finitos con integración explícita en el tiempo, que demuestran su capacidad efectiva para simular los fenómenos físicos y estructurales de dinámica rápida y altamente no lineales que suceden, pudiendo predecir los daños ocasionados tanto por la propia explosión como por el posible colapso progresivo de la estructura. El trabajo se ha llevado a cabo empleando el código comercial de elementos finitos LS-DYNA (Hallquist, 2006), desarrollando en el mismo distintos tipos de modelos de cálculo que se pueden clasificar en dos tipos principales: 1) modelos basados en elementos finitos de continuo, en los que se discretiza directamente el medio continuo mediante grados de libertad nodales de desplazamientos; 2) modelos basados en elementos finitos estructurales, mediante vigas y láminas, que incluyen hipótesis cinemáticas para elementos lineales o superficiales. Estos modelos se desarrollan y discuten a varios niveles distintos: 1) a nivel del comportamiento de los materiales, 2) a nivel de la respuesta de elementos estructurales tales como columnas, vigas o losas, y 3) a nivel de la respuesta de edificios completos o de partes significativas de los mismos. Se desarrollan modelos de elementos finitos de continuo 3D muy detallados que modelizan el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con un modelo constitutivo del hormigón CSCM (Murray et al., 2007), que tiene un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura. El acero se representa con un modelo constitutivo elastoplástico bilineal con rotura. Se modeliza la geometría precisa del hormigón mediante elementos finitos de continuo 3D y cada una de las barras de armado mediante elementos finitos tipo viga, con su posición exacta dentro de la masa de hormigón. La malla del modelo se construye mediante la superposición de los elementos de continuo de hormigón y los elementos tipo viga de las armaduras segregadas, que son obligadas a seguir la deformación del sólido en cada punto mediante un algoritmo de penalización, simulando así el comportamiento del hormigón armado. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF de continuo. Con estos modelos de EF de continuo se analiza la respuesta estructural de elementos constructivos (columnas, losas y pórticos) frente a acciones explosivas. Asimismo se han comparado con resultados experimentales, de ensayos sobre vigas y losas con distintas cargas de explosivo, verificándose una coincidencia aceptable y permitiendo una calibración de los parámetros de cálculo. Sin embargo estos modelos tan detallados no son recomendables para analizar edificios completos, ya que el elevado número de elementos finitos que serían necesarios eleva su coste computacional hasta hacerlos inviables para los recursos de cálculo actuales. Adicionalmente, se desarrollan modelos de elementos finitos estructurales (vigas y láminas) que, con un coste computacional reducido, son capaces de reproducir el comportamiento global de la estructura con una precisión similar. Se modelizan igualmente el hormigón en masa y el acero de armado de forma segregada. El hormigón se representa con el modelo constitutivo del hormigón EC2 (Hallquist et al., 2013), que también presenta un comportamiento inelástico, con diferente respuesta a tracción y compresión, endurecimiento, daño por fisuración y compresión, y rotura, y se usa en elementos finitos tipo lámina. El acero se representa de nuevo con un modelo constitutivo elastoplástico bilineal con rotura, usando elementos finitos tipo viga. Se modeliza una geometría equivalente del hormigón y del armado, y se tiene en cuenta la posición relativa del acero dentro de la masa de hormigón. Las mallas de ambos se unen mediante nodos comunes, produciendo una respuesta conjunta. En este trabajo se denominarán a estos modelos simplificadamente como modelos de EF estructurales. Con estos modelos de EF estructurales se simulan los mismos elementos constructivos que con los modelos de EF de continuo, y comparando sus respuestas estructurales frente a explosión se realiza la calibración de los primeros, de forma que se obtiene un comportamiento estructural similar con un coste computacional reducido. Se comprueba que estos mismos modelos, tanto los modelos de EF de continuo como los modelos de EF estructurales, son precisos también para el análisis del fenómeno de colapso progresivo en una estructura, y que se pueden utilizar para el estudio simultáneo de los daños de una explosión y el posterior colapso. Para ello se incluyen formulaciones que permiten considerar las fuerzas debidas al peso propio, sobrecargas y los contactos de unas partes de la estructura sobre otras. Se validan ambos modelos con un ensayo a escala real en el que un módulo con seis columnas y dos plantas colapsa al eliminar una de sus columnas. El coste computacional del modelo de EF de continuo para la simulación de este ensayo es mucho mayor que el del modelo de EF estructurales, lo cual hace inviable su aplicación en edificios completos, mientras que el modelo de EF estructurales presenta una respuesta global suficientemente precisa con un coste asumible. Por último se utilizan los modelos de EF estructurales para analizar explosiones sobre edificios de varias plantas, y se simulan dos escenarios con cargas explosivas para un edificio completo, con un coste computacional moderado. The frequency of explosions on buildings whether they are intended or accidental is small, but they can have catastrophic effects. Being able to predict in a accurate enough manner the consequences of these dynamic actions on civil buildings, among which frame-type reinforced concrete buildings are a frequent typology is desirable. In this doctoral thesis different practical options for the modeling and computer assisted numerical calculation of reinforced concrete structures submitted to explosions are explored. Numerical finite elements models with explicit time-based integration are employed, demonstrating their effective capacity in the simulation of the occurring fast dynamic and highly nonlinear physical and structural phenomena, allowing to predict the damage caused by the explosion itself as well as by the possible progressive collapse of the structure. The work has been carried out with the commercial finite elements code LS-DYNA (Hallquist, 2006), developing several types of calculation model classified in two main types: 1) Models based in continuum finite elements in which the continuous medium is discretized directly by means of nodal displacement degrees of freedom; 2) Models based on structural finite elements, with beams and shells, including kinematic hypothesis for linear and superficial elements. These models are developed and discussed at different levels: 1) material behaviour, 2) response of structural elements such as columns, beams and slabs, and 3) response of complete buildings or significative parts of them. Very detailed 3D continuum finite element models are developed, modeling mass concrete and reinforcement steel in a segregated manner. Concrete is represented with a constitutive concrete model CSCM (Murray et al., 2007), that has an inelastic behaviour, with different tension and compression response, hardening, cracking and compression damage and failure. The steel is represented with an elastic-plastic bilinear model with failure. The actual geometry of the concrete is modeled with 3D continuum finite elements and every and each of the reinforcing bars with beam-type finite elements, with their exact position in the concrete mass. The mesh of the model is generated by the superposition of the concrete continuum elements and the beam-type elements of the segregated reinforcement, which are made to follow the deformation of the solid in each point by means of a penalty algorithm, reproducing the behaviour of reinforced concrete. In this work these models will be called continuum FE models as a simplification. With these continuum FE models the response of construction elements (columns, slabs and frames) under explosive actions are analysed. They have also been compared with experimental results of tests on beams and slabs with various explosive charges, verifying an acceptable coincidence and allowing a calibration of the calculation parameters. These detailed models are however not advised for the analysis of complete buildings, as the high number of finite elements necessary raises its computational cost, making them unreliable for the current calculation resources. In addition to that, structural finite elements (beams and shells) models are developed, which, while having a reduced computational cost, are able to reproduce the global behaviour of the structure with a similar accuracy. Mass concrete and reinforcing steel are also modeled segregated. Concrete is represented with the concrete constitutive model EC2 (Hallquist et al., 2013), which also presents an inelastic behaviour, with a different tension and compression response, hardening, compression and cracking damage and failure, and is used in shell-type finite elements. Steel is represented once again with an elastic-plastic bilineal with failure constitutive model, using beam-type finite elements. An equivalent geometry of the concrete and the steel is modeled, considering the relative position of the steel inside the concrete mass. The meshes of both sets of elements are bound with common nodes, therefore producing a joint response. These models will be called structural FE models as a simplification. With these structural FE models the same construction elements as with the continuum FE models are simulated, and by comparing their response under explosive actions a calibration of the former is carried out, resulting in a similar response with a reduced computational cost. It is verified that both the continuum FE models and the structural FE models are also accurate for the analysis of the phenomenon of progressive collapse of a structure, and that they can be employed for the simultaneous study of an explosion damage and the resulting collapse. Both models are validated with an experimental full-scale test in which a six column, two floors module collapses after the removal of one of its columns. The computational cost of the continuum FE model for the simulation of this test is a lot higher than that of the structural FE model, making it non-viable for its application to full buildings, while the structural FE model presents a global response accurate enough with an admissible cost. Finally, structural FE models are used to analyze explosions on several story buildings, and two scenarios are simulated with explosive charges for a full building, with a moderate computational cost.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un incendio en el interior de un almacén de pirotecnia puede provocar la iniciación más o menos simultánea de los artículos existentes en su interior, con su consecuente onda de choque potenciada por la presión de los propios gases generados en su interior. La finalidad de esta tesis doctoral consiste en analizar los fenómenos que se desarrollan como consecuencia de un incendio interior en los almacenes de pirotecnia y establecer posibles medidas eficaces de prevención y protección con objeto de reducir el riesgo de explosión.. Inicialmente se llevó a cabo un análisis del riesgo de explosión, evaluando las consecuencias en caso de producirse un fuego interior. Los resultados fueron catastróficos. Finalmente, y con objeto de minimizar la posibilidad de producirse un incendio en el interior de un almacén, se evaluaron diferentes sistemas de detección y extinción automática de incendios para almacenes pirotécnicos, realizándose pruebas a escala real. En particular, la presente tesis consta de los siguientes trabajos: 1) Evaluación de la sobrepresión generada por la explosión de artificios pirotécnicos en el interior de almacenes, mediante pruebas de explosión de artículos pirotécnicos, con el fin de evaluar las posibles consecuencias en caso de materializarse una explosión, y disponer de información que permita conocer el grado de resistencia de las estructuras de los almacenes, así como el diseño adecuado de las mismas para soportar los efectos de tales explosiones. 2) Evaluación del efecto de un incendio en el interior de un almacén de pirotecnia mediante pruebas a escala real, con el fin de evaluar la posibilidad de la iniciación simultánea de los artículos pirotécnicos almacenados en su interior, y su consecuente explosión, así como las consecuencias en caso de materializarse la explosión. 3) Análisis de sistemas de detección y extinción automática de incendios para almacenes de pirotecnia, mediante la realización de pruebas a escala real para verificar la eficiencia y eficacia de tales sistemas y agentes para sofocar un incendio pirotécnico de forma tal que se evite la posible explosión asociada. 4) Evaluación de nuevos agentes extintores utilizados en los sistemas de extinción automática de incendios, que actualmente se están utilizando en el sector pirotécnico nacional, mediante la realización de pruebas a escala real. Los resultados obtenidos han permitido al Ministerio de Industria, Energía y Turismo actualizar la reglamentación vigente aplicable (Instrucción Técnica Complementaria número 17 del Reglamento de artículos pirotécnicos y cartuchería, aprobado por el Real Decreto 563/2010, de 7 de mayo). ABSTRACT A fire inside a pyrotechnics magazine can cause the more or less simultaneous initiation of the stored articles, with the wave of shock that is produced promoted by the pressure of the gases generated in its interior. The purpose of this PhD thesis is to analyze the phenomena that develop as a result of a fire inside the pyrotechnics stores and establish possible effective prevention and protection measures to reduce the risk of explosionAn analysis of the risk of explosion and fire consequences in a pyrotechnic magazine, testing to real scale, was initially carried out. The results were catastrophic. Finally, and in order to minimize the possibility of a fire inside a pyrotechnic magazine, different systems of detection and automatic extinction of fires in pyrotechnic magazines were evaluated, testing to real scale. Particularly, this thesis has the following parts: 1) Evaluation of the pressure generated by the pyrotechnic explosion in a magazine, with explosión tests of pyrotechnic articles, in order to evaluate the possible consequences in case of materialize an explosion, and provide information to know the resistance grade of the magazine structures, as well as the right design of those to withstand the effects of such explosions. 2) Evaluation of the effect of a fire inside a pyrotechnic magazine by full-scale tests, in order to evaluate the possibility of simultaneous initiation of the pyrotechnic articles stored inside, and the resulting explosion, as well as the consequences in case of materialize an explosion. 3) Analysis and evaluation of detection and automatic fire extinguishing in pyrotechnic magazines, by full-scale tests in order to verify the efficiency and effectiveness of such systems and agents to quell a pyrotechnic fire and avoid the posible mass explosion. 4) Evaluation of new extinguishing agent used in automatic fire extinguishers, which are currently being used in the national fireworks industry, by full-scale tests. The results obtained have allowed the Ministry of Industry, Energy and Tourism, update the current regulation (Complementary Technical Instruction 17 of the Regulation of Pyrotecnic Articles and Ammunition, approved by the Royal Decree 563/2010, of May 7).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Valuable black powder has been produced traditionally by the wheel-mill grinding process. It is a process which evolved since the 12th century until his crowning moment ca. 1850. The current system of manufacturing black powder has barely changed in 150 years. This traditional system has and inherent risk of explosion in several stages which is not avoidable. Laws and restrictions are constantly increasing. So do the transportation costs, whatever are his final use. Nowadays the consumer price could be multiplied by easily more than ten times the original production cost. Traditional factories tend to group, merge and move away from settled areas. Obviously this protects the factories from public opinion in case of an accident thus increases the final cost of the propellant. The wet production could allow plants to scatter and decrease production costs. A wet method of production is proposed and developed in this project. The components are mixed in presence of water and extracted with an organic solvent. This conditions insures there is no risk of explosion. The method uses low and cheap technology. Precise calculations are presented among thermodynamic, legal and economic factors. Although the work is based in traditional (KNO3-C-S) black powder, other oxidizers with present interest like are studied. Furthermore, traditional production systems and quality processes are also discussed. Obtener pólvora negra ha sido posible gracias a la producción por vía seca con el molino de ruedas. Es un procedimiento que ha estado en evolución desde el siglo XII hasta su cénit a mediados del siglo XIX. Las producciones actuales utilizan este sistema que apenas ha variado en 150 años. El proceso clásico implica riesgos inherentes e inevitables de explosión en varias de sus etapas. Cada día la legislación es progresivamente más restrictiva con el transporte de explosivos. Las pólvoras, sean usadas para pirotecnia, cartuchería o materiales energéticos, están sujetas a gravámenes por el transporte. Hoy día el precio al consumidor puede llegar a estar multiplicado hasta más de diez veces el coste de producción. Las producciones tradicionales tienden a agruparse y alejarse de las poblaciones. Esto las protege, en caso de accidente, de la opinión pública aunque a costa de encarecer el producto. La producción húmeda es fácilmente escalable y apenas requiere inversión pudiendo dispersar las producciones y abaratar los costes. En este proyecto se propone un sistema de producción de explosivos salinos por vía húmeda, a través de una incorporación acuosa y una extracción con un disolvente orgánico. Las condiciones de operación aseguran que no hay riesgo ninguno de explosión. El sistema utiliza tecnología muy accesible y económica. Se han incorporado cálculos meticulosos además de discutir aspectos termodinámicos, legislativos y económicos. Aunque el trabajo se centra en la pólvora clásica (KNO3-C-S), se estudian alternativas con mayor interés actual. Así mismo se analizan los métodos de producción tradicionales y los efectos sobre la calidad de la pólvora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cómic, arquitectura narrativa. Describiendo cuatro dimensiones con dos. La mayor parte de los estudios con un enfoque académico en torno a cómic y arquitectura, se han centrado más en las distintas realidades representadas dentro del medio, en sus decorados, que en la estructura del cómic en sí. Existe un aspecto gráfico que se ha venido obviando o al menos no ha adquirido el protagonismo que merece: los espacios representados en el cómic se encuentran en un medio que se concibe y estructura de una manera similar a como el arquitecto dibuja y concibe la arquitectura. En lo básico, históricamente, las herramientas y soportes para idear y representar la arquitectura son muy parecidas a aquellas que usa el autor de cómic. Lápiz, tinta y color sobre un papel, combinadas trabajando en un tablero, ese es lugar de nacimiento de ambos mundos. A lo largo de esta tesis se muestra cómo el dibujo une a creadores de narraciones gráficas y edificios. La relación va más allá de que el cómic pueda utilizar las disposiciones vitruvianas, ichnographia, ortographia o scenographia, (planta, alzado, perspectiva), la propia articulación que hace del espacio de la página, puede sintonizar con la manera en la que se concibe una estructura arquitectónica. La tesis inicia con un capítulo de recorrido en torno a las teorías del cómic existentes, buscando intersecciones posibles con la representación arquitectónica o el proyecto espacial. En este primer paso de estudio del estado de la cuestión han pesado más los trabajos de los últimos veinticinco años. Se trata de un periodo en el que, a la par que se ha producido una explosión creativa en el mundo del cómic, determinados teóricos han incidido en un análisis más formal y visual del medio. Tras recoger teorías en el primer capítulo, se plantea un recorrido histórico a la búsqueda de posibles resonancias de “arquitecturas mentales” en el pasado. Esta búsqueda de referentes más allá del siglo XIX, momento en el que nace el medio en su forma actual, es ya un aspecto comúb en distintos estudios de cómic que han servido de inspiración. Se ha preferido ubicar esta colección de antecedentes como segundo capítulo, evitando dar al trabajo un carácter de historia e incidiendo en su enfoque de tipo visual. El tercer capítulo analiza una serie de obras y autores de cómic en su forma actual, buscando distintas estrategias para la descripción de espacios y las narraciones que ocurren en ellos. El crecimiento de casos en estas últimas décadas ha demostrado hasta qué punto el desarrollo de un campo depende tanto de que exista una masa crítica en un contexto conectado y productivo, como de la aparición de individuos que abren puertas a los demás, con la cristalización personal que hacen de una situación. Se analiza en un cuarto capítulo la relación entre la arquitectura y el cómic modernos. Una relación que se presenta partiendo desde sus respectivos padres, para después tratar un elenco creciente de experiencias en el que la narración gráfica y el hecho arquitectónico estan íntimamente ligados. Inspirado en la estrategia que Gubern y Gasca utilizan en El discurso del cómic (Cátedra, 1988) se cierra la tesis con un discurso visual por las arquitecturas mentales y narrativas del cómic: la representación del espacio a través de juego con las dimensiones, el uso de recursos gráficos propios de la descripción arquitectónica, la sección, la planta, la utilización de elementos constructivos,etc, completando el abanico de estrategias gráficas presentadas. ABSTRACT Comic narrative architecture. Describing four dimensions with two Most of the studies with an academic focus around comics and architecture have centered their view more on the different realities represented in the media, in its sets, than in the structure of comics itself. There is a graphic aspect that has been ignored, or at least has not gained the prominence it deserves: the spaces rendered in the comics are set in a medium that is conceived and structured in a similar way as the architect draws and conceives architecture. In basics, tools for designing and representing architecture are very similar to those used by the cartoonist. Pencil, ink and color on paper, combined working on a board, that is birthplace of both worlds. Throughout this thesis its shown how drawing connects creators of graphic stories and buildings. The relationship goes beyond the use that comics can do of the Vitruvian provisions, ichnographia, ortographia or scenographia (plan, elevation, perspective), to the arrange itself that it makes with space on the page, in tune with the way in which architectural structures are conceived. The thesis starts with a chapter that collects existing comics theories and their possible intersection with architectural rendering. In this first step of study on the state of affairs, the focus has been over studies from the last twenty years. It is a period in which, at the same time that there has been a creative explosion in the world of comics, some theorists have worked with a more formal and visual approach. After collecting theories in the first chapter, a historical tour is made to search for possible resonances of “mental architectures” in the past. This search for references beyond the nineteenth century, when the medium was born in its current form, is already a regular process in various recent studies that have served as inspiration. We preferred to locate this as a second chapter, to avoid giving the work a character of History, and reenforcing its visual approach. The third chapter analyzes a series of comics and authors, looking for different strategies for describing spaces and stories that occur in them. The growth of cases in recent decades has shown how the development of a field depends both on the existence of a critical mass in a connected and productive enviroment, and the appearance of individuals who open doors to others with the personal crystallization that they make on that context. The relationship between architecture and the modern comic is analyzed in a fourth chapter. A relationship that is described starting from their parents, and then going through a growing cast of experiences in which graphic narrative and architecture are closely linked. Inspired by the strategy used Gubern and Gasca in El discurso del cómic (Cátedra, 1988), The Comics’ Speech, the thesis concludes with a visual discourse through this narrative comic architectures: the representation of space by playing with dimensions, the use of resources for architectural rendering, section, plant, etc., to complete the range of graphical strategies presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La obra de Emilio Pérez Piñero que se desarrolla entre los años 1961 y 1972 año en el que muere en un accidente de tráfico volviendo de Figueras, se centra principalmente en artefactos desplegables y desmontables, ejecutando prototipos que en el presente trabajo se han dividido en dos grupos; la cúpula reticular y la infraestructura. No pudo por tanto acudir al Congreso de 1972 de la UIA a recoger el premio Auguste Perret a la innovación tecnológica, que en años anteriores habían recibido Félix Candela, Jean Prouvé, Hans Scharoun o Frei Otto, y que en aquella ocasión tuvo que recoger su viuda. Parámetros como el de la movilidad, indeterminación, intercambiabilidad, obsolescencia y otros que se analizan en el presente trabajo, aparecen a lo largo de toda su obra ya que muchos de sus artefactos están ubicados en no-lugares y tienen un carácter itinerante y por tanto se hace indispensable su rápido montaje y desmontaje, que unas veces se resuelve mediante la desmontabilidad y otras con la plegabilidad de éstos. Aunque pueda parecer Piñero una figura autárquica, lo cierto es que durante la década donde concentra su trabajo se produce una explosión en torno a al arquetipo que será denominado de forma genérica `artefacto´, ligado conceptualmente a los parámetros que aquí se definen. Entendemos artefacto como objeto material realizado por una o varias personas para cumplir una función, es sinónimo de máquina y aparato y deriva de las palabras latinas ars o artis (técnica) y facto (hecho), para designar a los objetos cuya fabricación requiere alguna destreza. El término latino `ars´ engloba a las técnicas y a las artes, lo que no ocurre con el término castellano arte que deriva de él. Los movimientos utópicos que comparte la década con Piñero, utilizan el arquetipo infraestructural, ligero y high tech, para a través de una arquitectura más ligada a la ciencia ficción, realizar una crítica al Movimiento Moderno institucionalizado, todos ellos comparten cierta obsesión por la movilidad, ligada ésta a la idea de espacio flexible, dinámico, nómada. Este concepto de neo-nomadismo, que representa un habitar dinámico, aglutina las nuevas formas de vivir donde la movilidad social y geográfica son habituales. El nomadismo, por otra parte se entiende como sinónimo de democracia y libertad. La arquitectura pasa de ser pesada, estática, permanente a ser un elemento dinámico en continuo movimiento. A veces con connotaciones biológicas se asimilan los artefactos a organismos vivos y les confieren dichas propiedades de crecimiento y autonomía energética, acumulándose en torno a megaestructuras, donde quedan `enchufados´. En este intento de dotar movilidad a lo inmueble, se buscan estructuras vivas y modificables que crecen en una asimilación de las leyes naturales utilizando los parámetros de metamorfosis, simbiosis y cambio. Estos movimientos de vanguardia tienen también ciertas connotaciones políticas y sociales basadas en la libertad y la movilidad y reniegan del consumismo institucionalizado, de la arquitectura como instrumento de consumo, como objeto de usar en la cultura de masas. El carácter político de la autogestión, de la customización como parámetro proyectual, de la autosuficiencia energética, que anticipa la llegada de la crisis energética del año 1973. Objeto de este trabajo será relacionar los conceptos que aparecen fuertemente en el entorno de la década de los años sesenta del siglo XX, en el trabajo de Emilio Pérez Piñero. Parámetros encontrados como conceptos en los grupos de vanguardia y utopía a su vez fuertemente influenciados por las figuras del ingeniero Richard Buckminster Fuller y del arquitecto Konrad Wachsmann. Se analizará que posible influencia tiene la obra de Fuller, principalmente el prototipo denominado cúpula reticular, en la obra de Pérez Piñero y sus coetáneos analizando sus pensamientos teóricos en torno a parámetros como la energía, principalmente en las teorías relativas a Synergetics. El término inventado por Richard B. Fuller es una contracción de otro más largo que en inglés agrupa tres palabras; synergetic-energetic geometry. La definición de sinergia es la cooperación, es decir es el resultado de la acción conjunta de dos o más causas, pero con un efecto superior a la suma de estas causas. El segundo término, energetics geometry, que traducido sería geometría energética hace referencia en primer lugar a la geometría; ya que desarrolla el sistema de referencia que utiliza la naturaleza para construir sus sistemas y en segundo lugar a la energía; ya que además debe ser el sistema que establezca las relaciones más económicas utilizando el mínimo de energía. Por otro lado se analiza la repercusión del prototipo denominado Infraestructura, término acuñado por Yona Friedman y basado estructuralmente y conceptualmente en los desarrollos sobre grandes estructuras de Konrad Wachsmann. El arquitecto alemán divulga su conocimiento en seminarios impartidos por todo el mundo como el que imparte en Tokio y se denomina Wachsmann´s Seminar donde participan algunos de los componentes del grupo Metabolista que sorprenderán al mundo con sus realizaciones en la exposición de Osaka de 1970. El intervalo temporal entre 1961 hasta 1972 hace referencia a la horquilla donde Pérez Piñero realiza su obra arquitectónica, que comienza en 1961 cuando gana el concurso convocado en Londres por la UIA (Unión Internacional de Arquitectos) con el proyecto conocido como Teatro Ambulante, hasta 1972 que es cuando fallece volviendo de Figueras donde está realizando dos encargos de Salvador Dalí; la cubrición del escenario del futuro Teatro-Museo Salvador Dalí y la Vidriera Hipercúbica que debía cerrar la boca de tal escenario. Bajo el título de `Artefactos energéticos. De Fuller a Piñero (1961-1972)´, se presenta esta Tesis doctoral, que tiene la intención de vincular la obra de Emilio Pérez Piñero con la de las neo vanguardias producidas por una serie de arquitectos que operan en el ámbito internacional. Estas vinculaciones se producen de una forma general, donde a través de una serie de estrategias según la metodología que posteriormente se describe se buscan relaciones de la obra del autor español con algunos de los movimientos más significativos que aparecen en dicha década y de manera específica estableciendo relaciones con las obras y pensamientos de los autores que pertenecen a estos movimientos y donde estas relaciones se hacen más evidentes. El objeto del presente trabajo es analizar y explicar la obra del arquitecto Emilio Pérez Piñero, que espacialmente se localiza en el territorio español, desde el punto de vista de estos movimientos para posteriormente poder determinar si existen puntos en común y si el arquitecto español no solo comparte la década temporalmente sino también conceptualmente y por tanto utiliza el ideario que utilizan sus coetáneos que forman parte de las neovanguardias de los años sesenta de siglo XX. ABSTRACT ABSTRACT The Work of Emilio Perez Piñero was developed between the years 1961 and 1972 when he died in a car accident coming back from Figueres, where he was building a geodesic dome to close the building that enclose the Dali’s museum. All his Work is mainly centered in artifact that could be collapsible and removable, taking the two prototypes that are described in this work as a recurrent element in all his creation. These are the reticular dome and the infrastructure that are very influenced by the work from Richard B. Fuller and Konrad Wachsmann. Emilio Pérez Piñero could not receive the Auguste Perret Prize in 1972 awarded by the UIA that years before have received architects as Felix Candela, Jean Prouvé, Hans Scharoun or Frei Otto, and this time Pérez Piñero´s wife will accept it because of his death. Parameters like mobility, changeability, expendability, indetermination and others appear currently in his Work. All the inventions that Piñero had been patented and all of the artifacts that he created are usually located in no-places, because they do have a shifting identity. This kind of building has to be quickly set on site, and this problem has to be solved in term of foldability or demounting. In the decade where his work focuses, an explosion has occurred around this archetype to be generally called artifact that is usually linked to mobility. We understand artifact as a material object made by one or more people to work in a particular way. It is sometimes equated with the terms machinery and apparatus and it is derived from the Latin word `ars´ or `artis´, what means techniques and `facto´ (fact). And we use this term to refer to objects whose manufacture requires the same skill, in fact the Latin word `ars´ covers the techniques and arts, which does not occur with the Castillan term `arte´ that derives from it and means only art. The term neo-nomadic is a relatively new name used for a dynamic life, commonly referred to new forms of life where social and geographical mobility are common. On the other hand nomadic could be understood as a synonymous for democracy and freedom. The architecture is not going to be hard and static anymore but a dynamic element in the move. The Neo-avant-garde movement that shares the decade with Piñero uses this infrastructural archetype, which is light and high-tech, to criticize the institutionalized Modern Movement through architecture linked to science fiction. They all share an obsession with mobility, a concept that is connected to the terms `dynamic´, `nomadic´, `flexibile´, etc. Sometimes, with biological connotations, the utopian assimilate the artifacts to living organisms and give them these properties of growth and energy autonomy, and they apparently grow around megastructures where they are plugged. In this attempt to provide mobility to the inertness, living structures and possibility of change are sought in order to make them grow like a living organism and to assimilate the natural laws of growth. According to a definition from architecture provided by Fernández- Galiano who calls it `exosomatic artifact´, he understand architecture as artifact of the human environment that regulates natural energy flows and channels the energy stored in fuels for the benefit of living beings that inhabit. It is also true that during the sixties a new environmental awareness in public opinion is formed and that is due to the exploitation and disproportionate use of energy resources, acceleration of technological processes and mass consumption. Consequently a new concept is born: energy autonomy, it is very close to rational use of natural energy. Such a concept will be culturally assimilated with the requirement of independence not only in the management but also in the building construction until we arrive at energy autonomy. The individuals become energy consumer, which in turn can enter the energy produced in the system to `life in an eco-mode way´. The objectives of this research are analyzing all of these parameters and concepts that are coming into view in the surrounding of the decade and relate them with the Work of Pérez Piñero. Terms strongly present in the avant-garde movements around the decade, a young architect’s generation strongly influenced by Richard B. Fuller and Konrad Wachsmann. However, it will be analyzed how important the influence of Buckminster Fuller's Work was and his theoretical text about energy on the Work of Pérez Piñero and his fellows of the decade. The term Synergetic was invented by Fuller and came from the words synergy and energetic geometry. Synergy is the cooperation or interaction of two or more agents to produce a greater effect than the sum of their separate effects. Energetic geometry is related to the geometries that the Nature is using to build their construction but always using low energy consumption. On the other hand, the influences from Wachsmann around the prototype called Infrastructure have been analyzed. The German architect has developed knowledge around huge structures that he has spread all around the world through seminars that he has been conducted. One of these was the Wachsmann´s seminar in Tokyo, where same of the members of the Metabolist group were taking part of. Later these young architects will surprise the world with his artifacts at the World Exposition in Osaka in 1970. Between 1961 and 1972 Pérez Piñero produced his architectural work. It began in 1961 when he received the first prize with his project Mobile Theatre in the competition organized by the UIA in London. In 1972 the Auguste Perret Prize was granted by the UIA too. He could not accept it because he died before in a car accident when he was coming from Figueres, when he was designing two projects for Dali. With the title `Energetic Artifacts. From Fuller to Piñero (1961- 1972)´, this thesis relates the Work of Emilio Pérez Piñero with the neo avant-garde made by a young architects’ generation who is sharing the time with him. Several strategies have been used to formed relationships between them. They are described in the present work to set up a method that allows us to relate the work and ideas of the architects of the neo avant-garde with the ones from Piñero. This work is intended to analyze and explained the work of Pérez Piñero from the point of view of the international architects’ generation who is operating at the same time and finally to determinate if Piñero is not sharing the time with them but the concepts, ideas and architectural parameters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese analisa o papel dos líderes da Igreja católica institucionalizada antes e durante o movimento e guerra do Contestado de 1912 a 1916. Movimento classificado como messiânico-milenarista ocorrido no sul do Brasil numa área litigiosa pleiteada pelos Estados do Paraná e Santa Catarina. Aponta o contexto sócio-econômico-político e religioso que criou condições para que o movimento pudesse emergir. Analisa a formação do catolicismo rústico popular brasileiro e suas expressões na região do Contestado, destacando-se o papel dos monges. Aprofunda a compreensão do catolicismo oficial em processo de romanização e do papel dos frades franciscanos, de suas concepções e práticas na tentativa de enquadrar a religião cabocla dentro dos princípios da reforma. Analisa a reação cabocla diante das mudanças implantadas na região e a explosão da irmandade, denominada Terra Santa , que buscava efetivar uma nova ordem . Aprofunda especialmente o papel dos frades representantes da Igreja católica, tendo em vista dispersar e pacificar o caboclo rebelde e a aliança, que estabeleceram com as forças repressoras, para implantar a ordem e a paz na região contestada, com a conseqüente eliminação radical da irmandade cabocla e de seus redutos .(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese analisa o papel dos líderes da Igreja católica institucionalizada antes e durante o movimento e guerra do Contestado de 1912 a 1916. Movimento classificado como messiânico-milenarista ocorrido no sul do Brasil numa área litigiosa pleiteada pelos Estados do Paraná e Santa Catarina. Aponta o contexto sócio-econômico-político e religioso que criou condições para que o movimento pudesse emergir. Analisa a formação do catolicismo rústico popular brasileiro e suas expressões na região do Contestado, destacando-se o papel dos monges. Aprofunda a compreensão do catolicismo oficial em processo de romanização e do papel dos frades franciscanos, de suas concepções e práticas na tentativa de enquadrar a religião cabocla dentro dos princípios da reforma. Analisa a reação cabocla diante das mudanças implantadas na região e a explosão da irmandade, denominada Terra Santa , que buscava efetivar uma nova ordem . Aprofunda especialmente o papel dos frades representantes da Igreja católica, tendo em vista dispersar e pacificar o caboclo rebelde e a aliança, que estabeleceram com as forças repressoras, para implantar a ordem e a paz na região contestada, com a conseqüente eliminação radical da irmandade cabocla e de seus redutos .(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesquisa considera a difusão de celulares e smartphones e as consequências deste fato em possibilidades para o ensino-aprendizagem. Aparatos de comunicação sempre estiveram ligados ao processo de ensino-aprendizagem. Entretanto, com o desenvolvimento mais intenso, nas últimas décadas, das Tecnologias de Informação e Comunicação (TIC), essa relação vem ganhando novos contornos. Surge a Internet, a evolução das máquinas computacionais e, recentemente, a explosão dos dispositivos móveis, fornecendo novos produtos e serviços convergentes. Nesse contexto, celulares e smartphones tem sido utilizados e recomendados para apoio e complemento do processo de ensino-aprendizagem: a chamada Aprendizagem Móvel. Esse ramo cresce devido à rápida expansão e barateamento dessas tecnologias na sociedade. Para verificar cientificamente essa relação foi realizada uma pesquisa de natureza qualitativa, do tipo exploratória, com dois projetos de Aprendizagem Móvel em andamento no Brasil, o Palma – Programa de Alfabetização na Língua Materna e o Escola Com Celular – ECC. Assim, a partir dos dados provenientes da pesquisa, identificamos alguns aspectos relacionados ao uso de celulares e smartphones para o processo de ensino-aprendizagem que contribuem na compreensão desse campo ainda em construção no Brasil. O uso desses dispositivos como suporte para processos de ensino-aprendizagem nos projetos estudados é delineado pelos aspectos tecnologia, dispositivo, público e contexto e novas tecnologias e Aprendizagem Móvel. O aspecto dispositivo desdobra-se em dimensões como disseminação, multifuncionalidade e acessibilidade que embasam os projetos, ainda favorece características apontadas como importantes para o processo de ensino-aprendizagem na atualidade, como mobilidade e portabilidade. Os projetos pesquisados demonstram potencial e metodologia adequada aos contextos para os quais foram criados e aplicados. Entretanto, a pesquisa indicou que ao mesmo tempo em que celulares e smartphones representam o ápice da convergência tecnológica e são considerados extremamente populares e acessíveis na sociedade contemporânea, com possibilidades concretas como nos projetos estudados, não conseguiram conquistar uma posição sólida como suporte para o ensino-aprendizagem. Tal indicação se deve, de acordo com o corpus, à carência de alguns fatores, como: fomento, as práticas se mostram extremamente dependentes da iniciativa pública ou privada para sua extensão e continuidade; sensibilização para o uso de tecnologias disponíveis, não consideram o aparelho dos próprios alunos e um planejamento que inclua, capacite e incentive o uso desses dispositivos. Além disso, a pesquisa também destaca a necessidade de uma visão crítica do uso e papel da tecnologia nesses processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dynamic behaviors of liposomes caused by interactions between liposomal membranes and surfactant were studied by direct real-time observation by using high-intensity dark-field microscopy. Solubilization of liposomes by surfactants is thought to be a catastrophic event akin to the explosion of soap bubbles in the air; however, the actual process has not been clarified. We studied this process experimentally and found that liposomes exposed to various surfactants exhibited unusual behavior, namely continuous shrinkage accompanied by intermittent quakes, release of encapsulated liposomes, opening up, and inside–out topological inversion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The past decade has seen a remarkable explosion in our knowledge of the size and diversity of the myosin superfamily. Since these actin-based motors are candidates to provide the molecular basis for many cellular movements, it is essential that motility researchers be aware of the complete set of myosins in a given organism. The availability of cDNA and/or draft genomic sequences from humans, Drosophila melanogaster, Caenorhabditis elegans, Arabidopsis thaliana, Saccharomyces cerevisiae, Schizosaccharomyces pombe, and Dictyostelium discoideum has allowed us to tentatively define and compare the sets of myosin genes in these organisms. This analysis has also led to the identification of several putative myosin genes that may be of general interest. In humans, for example, we find a total of 40 known or predicted myosin genes including two new myosins-I, three new class II (conventional) myosins, a second member of the class III/ninaC myosins, a gene similar to the class XV deafness myosin, and a novel myosin sharing at most 33% identity with other members of the superfamily. These myosins are in addition to the recently discovered class XVI myosin with N-terminal ankyrin repeats and two human genes with similarity to the class XVIII PDZ-myosin from mouse. We briefly describe these newly recognized myosins and extend our previous phylogenetic analysis of the myosin superfamily to include a comparison of the complete or nearly complete inventories of myosin genes from several experimentally important organisms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the beginning of modern plant biology, plant biologists followed a simple model for their science. This model included important branches of plant biology known then. Of course, plants had to be identified and classified first. Thus, there was much work on taxonomy, genetics, and physiology. Ecology and evolution were approached implicitly, rather than explicitly, through paleobotany, taxonomy, morphology, and historical geography. However, the burgeoning explosion of knowledge and great advances in molecular biology, e.g., to the extent that genes for specific traits can be added (or deleted) at will, have created a revolution in the study of plants. Genomics in agriculture has made it possible to address many important issues in crop production by the identification and manipulation of genes in crop plants. The current model of plant study differs from the previous one in that it places greater emphasis on developmental controls and on evolution by differential fitness. In a rapidly changing environment, the current model also explicitly considers the phenotypic variation among individuals on which selection operates. These are calls for the unity of science. In fact, the proponents of “Complexity Theory” think there are common algorithms describing all levels of organization, from atoms all the way to the structure of the universe, and that when these are discovered, the issue of scaling will be greatly simplified! Plant biology must seriously contribute to, among other things, meeting the nutritional needs of the human population. This challenge constitutes a key part of the backdrop against which future evolution will occur. Genetic engineering technologies are and will continue to be an important component of agriculture; however, we must consider the evolutionary implications of these new technologies. Meeting these demands requires drastic changes in the undergraduate curriculum. Students of biology should be trained in molecular, cellular, organismal, and ecosystem biology, including all living organisms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The toil by photosynthesizing cyanobacteria and blue-green algae of nearly three billion years appeared to have finally resulted in the sufficient accumulation of molecular oxygen. So, the stage was set for the emergence, at the ocean bottom, of diverse animals that were consumers of molecular oxygen. It now appears that this Cambrian explosion, during which nearly all the extant animal phyla have emerged, was of an astonishingly short duration, lasting only 6-10 million years. Inasmuch as only a 1% DNA base sequence change is expected in 10 million years under the standard spontaneous mutation rate, I propose that all those diverse animals of the early Cambrian period, some 550 million years ago, were endowed with nearly identical genomes, with differential usage of the same set of genes accounting for the extreme diversities of body forms. Some of the more pertinent genes that are thought to be included in the Cambrian pananimalia genome are as follows. (i) A gene for lysyloxidase that, in the presence of molecular oxygen, crosslinked collagen triple helices to produce ligaments and tendons, thus contributing to the stout bodies of the Cambrian animals. (ii) Genes for hemoglobin; these internal transporters of molecular oxygen are today seen sporadically in members of diverse animal phyla. (iii) The Pax-6 gene for eye formation; the eyes of a ribbon worm to a human are organized by this gene. In animals without eyes, the same gene organizes other sensory systems and organs. (iv) A series of Hox genes for the anterior-posterior (cranio-caudal) body plans: these genes are also present in all phyla of the kingdom Animalia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Type Ia supernovae are thought to occur when a white dwarf made of carbon and oxygen accretes sufficient mass to trigger a thermonuclear explosion(1). The accretion could be slow, from an unevolved (main-sequence) or evolved (subgiant or giant) star(2,3) (the single-degenerate channel), or rapid, as the primary star breaks up a smaller orbiting white dwarf(3,4) (the double-degenerate channel). A companion star will survive the explosion only in the single-degenerate channel(5). Both channels might contribute to the production of type Ia supernovae(6,7), but the relative proportions of their contributions remain a fundamental puzzle in astronomy. Previous searches for remnant companions have revealed one possible case for SN 1572 (refs 8, 9), although that has been questioned(10). More recently, observations have restricted surviving companions to be small, main-sequence stars(11-13), ruling out giant companions but still allowing the single-degenerate channel. Here we report the results of a search for surviving companions of the progenitor of SN 1006 (ref. 14). None of the stars within 4 arc minutes of the apparent site of the explosion is associated with the supernova remnant, and we can firmly exclude all giant and subgiant stars from being companions of the progenitor. In combination with previous results, our findings indicate that fewer than 20 per cent of type Ia supernovae occur through the single-degenerate channel.