956 resultados para Tank destroyers


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pumped storage hydro plants (PSHP) can provide adequate energy storage and frequency regulation capacities in isolated power systems having significant renewable energy resources. Due to its high wind and solar potential, several plans have been developed for La Palma Island in the Canary archipelago, aimed at increasing the penetration of these energy sources. In this paper, the performance of the frequency control of La Palma power system is assessed, when the demand is supplied by the available wind and solar generation with the support of a PSHP which has been predesigned for this purpose. The frequency regulation is provided exclusively by the PSHP. Due to topographic and environmental constraints, this plant has a long tail-race tunnel without a surge tank. In this configuration, the effects of pressure waves cannot be neglected and, therefore, usual recommendations for PID governor tuning provide poor performance. A PI governor tuning criterion is proposed for the hydro plant and compared with other criteria according to several performance indices. Several scenarios considering solar and wind energy penetration have been simulated to check the plant response using the proposed criterion. This tuning of the PI governor maintains La Palma system frequency within grid code requirements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main effects on the dynamics of a liquid bridge due to the presence of an outer liquid, as occur in experiments using the Plateau-tank technique, are considered. The one-dimensional nonlinear model developed here allows us to perform the computation of both breaking processes and oscillatory motions of slender liquid bridges, although in this paper only the results concerning breaking processes are reported. Additionally,the oscillatory motions are studied both experimentally and by using a new linear model. Results from both sources show good agreement

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perdiz roja es la especie cinegética por excelencia en la península ibérica, cuya cría en cautividad y suelta controlada comenzó a regularse en los años 70 con la aparición del ICONA. La incubación controlada de huevos de perdiz es imprescindible, con fines cinegéticos y de preservación de la especie, y se desarrolla con incubadoras comerciales de pequeña y mediana escala, distribuidas en zonas rurales con acceso limitado y/o deficiente al suministro eléctrico. En nuestras latitudes el aporte de energía solar térmica se perfila como una posibilidad de mejorar la eficiencia energética de éstas y otras instalaciones y de reducir la dependencia energética exterior. Hay diversos factores físico-químicos que influyen en la calidad de la incubación: temperatura, humedad relativa, y concentración de gases, de los cuales sólo los dos primeros son habitualmente supervisados y controlados en este tipo de incubadoras. Esta Tesis surge en el marco de dos proyectos de cooperación con la AECID, y tiene como objetivos: la caracterización espacial de variables relevantes (temperatura (T), humedad relativa (HR)) en la incubadora comercial durante el proceso de incubación, la determinación de la relación existente entre la evolución de variables ambientales durante el proceso de incubación y la tasa de nacimientos (35-77%), así como el diseño y evaluación del sistema de apoyo solar térmico para determinar su potencial de utilización durante las incubaciones comerciales. La instalación de un número limitado de sensores permite la monitorización precisa del proceso de incubación de los huevos. Los resultados más relevantes indican que en incubaciones comerciales los gradientes de T y HR han sido despreciables (1ºC de diferencia entre las posiciones con mayor y menor T media y un 4,5% de diferencia entre las posiciones con mayor y menor HR), mientras que el seguimiento y ajuste (mediante modelos de crecimiento) de la concentración de CO2 (r2 entre 0,948 y 0,987 en las 5 incubaciones, para un total de 43315 huevos) permite valorar la actividad fisiológica de los huevos e incluso predecir la tasa de éxito (nacimientos), basándose en la concentración de CO2 estimada mediante modelos de crecimiento en el día 20 de incubación (r2 entre 0,997 y 0,994 según el modelo de estimación empleado). El sistema ha sido valorado muy positivamente por los productores (Finca Cinegética Dehesa Vieja de Galapagar). El aporte térmico se ha diseñado (con mínima intrusión en el sistema comercial) sobre la base de un sistema de enfriamiento de emergencia original de la incubadora, al que se han incorporado un colector solar, un depósito, un sistema de electroválvulas, una bomba de circulación y sensores de T en distintos puntos del sistema, y cuyo control ha sido automatizado. En esta Tesis se muestra que la contribución solar puede aportar hasta un 42% de las demandas de energía en nuestras condiciones geográficas para una temperatura de consigna dentro de la incubadora de 36.8ºC, sin afectar a la estabilidad de la temperatura. Además, el rendimiento del colector solar se ha acotado entre un 44% y un 85%, de acuerdo con los cálculos termodinámicos; valores que se mantienen dentro del rango aportado por el fabricante (61%). En el futuro se plantea evaluar el efecto de distintas estrategias de control, tales como controladores difusos, que incorporan el conocimiento experto al control automático. ABSTRACT The partridge is the quintessential game species in the Iberian Peninsula, which controlled breeding and release, began to be regulated in the 70s with the emergence of ICONA. The controlled incubation of eggs is essential, and takes place in commercial incubators of small and medium scale, distributed in rural areas with limited and/or inadequate access to power. In our latitudes the contribution of solar thermal energy is emerging as a possibility to improve the energy efficiency of the facilities and to reduce external energy dependence. There are various physicochemical factors influencing the quality of incubation: temperature, relative humidity and concentration of gases, of which only the first two are typically monitored and controlled in such incubators. This PhD comes within the framework of two cooperation projects with AECID and aims: the spatial characterization of relevant variables in a commercial incubator (temperature (T), and relative humidity (HR)), determining the relationships in the changes in environmental variables during incubation and birth rates (35-77%) as well as the design and evaluation of solar thermal support system to determine its potential use during commercial incubations; the installation of a limited number of sensors has allowed accurate monitoring of incubation of eggs. The most relevant results indicate that in commercial incubations, the gradients in T and HR have been negligible (1°C difference between the highest and lowest positions T and average 4.5% difference between the highest and lowest positions HR), while monitoring and fit using growth models of the concentration of CO2 (r2 between 0.948 and 0.987 in 5 incubations, for a total amount of 43,315 eggs) allows assessing the physiological activity of the eggs and even predict the success rate (hatchability), based on the estimated concentration of CO2 by using growth models on day 20 of incubation (r2 between 0.997 and 0.994 depending on the fit model).The system has been highly valued by producers (Finca Cinegética Dehesa Vieja de Galapagar). The hybrid heat system is designed (with minimal intrusion into the commercial system) based on an emergency cooling device, original in the incubator. New elements have been incorporated: a solar collector, a tank, a system of solenoid valves, a circulating pump and T sensors at various points of the system, whose control has been automated. This PhD shows that the solar contribution is responsible for up to 42% of energy demands in our geographical conditions for a setpoint temperature inside the incubator of 36.8ºC, without questioning the stability of the temperature. Furthermore, the efficiency of the solar collector has been bounded between 44% and 85%, according to thermodynamic calculations; values remain within the range provided by the manufacturer (61%). In the future it is proposed to evaluate the effect of different control strategies, such as fuzzy controllers, which incorporate the expertise to automated control.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis desarrolla una metodología para comparar la viabilidad económica de distintas tecnologías de suministro energético para el bombeo de agua de riego en invernaderos tanto en España, Cuba o Pakistán (países con diferentes estados de desarrollo). En concreto, se analiza el bombeo directo eólico, el bombeo solar fotovoltaico, el bombeo con generadores diesel, y mediante conexión a la red eléctrica. El análisis tuvo en cuenta los recursos eólicos y solar, la altura de elevación, el tamaño de invernadero, la distancia al punto de conexión a la red, las necesidades de almacenamiento de agua y las fechas de siembra. Las comparaciones se realizaron usando un criterio técnico-económico basado en el coste normalizado de la energía de cada tecnología. En los tres países, el bombeo directo eólico no sería económicamente recomendable, en el caso de existir una conexión a la red. Allí donde no existe conexión a la red, la distancia a la red y los recursos eólico y solar disponibles son los factores clave a tener en cuenta a la hora de decidir entre las diferentes tecnologías. Por otro lado, la altura del bombeo del agua tiene una gran influencia sobre la viabilidad económica del bombeo directo eólico, mucho más que, por ejemplo, en el caso del bombeo solar fotovoltaico. En general, los resultados revelan que los factores críticos a tener en cuenta a la hora de elegir la solución energética óptima son diferentes en cada uno de los países. En el caso de España, la proximidad a los puntos de conexión de la red eléctrica determina que ésta sea la mejor opción. El limitado potencial eólico es el factor limitante en Pakistán. En Cuba, la altura del bombeo, la distancia al punto de conexión de la red eléctrica y el almacenamiento de agua necesario son los factores críticos para determinar la tecnología más apropiada para el bombeo al disponer de buenos recursos solar y eólico. ABSTRACT This thesis develops a methodology for comparing the economic feasibility of wind pump technology, solar photovoltaic pumping, diesel generators, and connection to the electrical grid to provide energy for pumping irrigation water in commercial greenhouses in Spain, Cuba and Pakistan (countries with different developmental backgrounds). The analysis studied the importance of the wind and solar resource, the water elevation, the greenhouse size, the distance to the grid, the pumping elevation, the water storage tank volume requirements, and the planting dates. Comparisons were made in terms of the levelised cost of energy associated with each technology. For all three countries, if a grid connection was already in place, installing wind pumps would be economically unwise. Where no grid connection exists, the distance to the grid and the wind and solar resources available are key factors to be taken into consideration when deciding between options. Finally, the water elevation has a major influence on the economic feasibility of wind pump technology, much more than, for example, on solar photovoltaic pumping technology. The results reveal that, generally, the critical factors to consider when making energy management decisions differ depending between countries. In Spain, the proximity of the electrical grid makes the connection to it the best option. In Pakistan, scarce wind resources are a serious limiting factor. Cuba, however, has good wind and solar resources; water elevation, distance to the grid, and water storage needed are the critical factors when determining the economic feasibility of wind pumping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Debido al gran interés existente en el ahorro y recuperación de energía, y en el deseo de obtener productos que permitan usos beneficiosos del fango procedente de la depuración del agua residual, la digestión anaerobia es el proceso de estabilización de uso más extendido. El tiempo de retención de sólidos es un factor clave en el proceso de digestión anaerobia. En base al tiempo de retención de sólidos, se dimensiona el volumen de los digestores anaerobios para así obtener la reducción de materia orgánica deseada, con la correspondiente producción de biogás. La geometría del digestor y su sistema de agitación deben ser adecuados para alcanzar el tiempo de retención de sólidos de diseño. Los primeros trabajos sobre la agitación de los digestores realizaban únicamente experimentos con trazadores y otros métodos de medición. En otros casos, la mezcla era evaluada mediante la producción de biogás. Estas técnicas tenían el gran hándicap de no conocer lo que sucedía realmente dentro del digestor y sólo daban una idea aproximada de su funcionamiento. Mediante aplicación de la mecánica de fluidos computacional (CFD) es posible conocer con detalle las características del fluido objeto de estudio y, por lo tanto, simular perfectamente el movimiento del fango de un digestor anaerobio. En esta tesis se han simulado mediante CFD diferentes digestores a escala real (unos 2000 m3 de volumen) agitados con bomba/s de recirculación para alcanzar los siguientes objetivos: establecer la influencia de la relación entre el diámetro y la altura, de la pendiente de la solera, del número de bombas y del caudal de recirculación en dichos digestores, definir el campo de velocidades en la masa de fango y realizar un análisis energético y económico. Así, es posible conocer mejor cómo funciona el sistema de agitación de un digestor anaerobio a escala real equipado con bomba/s de recirculación. Los resultados obtenidos muestran que una relación diámetro/altura del digestor por encima de 1 empeora la agitación del mismo y que la pendiente en la solera del digestor favorece que la masa de fango esté mejor mezclada, siendo más determinante la esbeltez del tanque que la pendiente de su solera. No obstante, también es necesario elegir adecuadamente los parámetros de diseño del sistema de agitación, en este caso el caudal de recirculación de fango, para obtener una agitación completa sin apenas zonas muertas. En el caso de un digestor con una geometría inadecuada es posible mejorar su agitación aumentando el número de bombas de recirculación y el caudal de las mismas, pero no se llegará a alcanzar una agitación total de la masa de fango debido a su mal diseño original. Anaerobic digestion is the process for waste water treatment sludge stabilization of more widespread use due to the huge interest in saving and recovering energy and the wish to obtain products that allow beneficial uses for the sludge. The solids retention time is a key factor in the anaerobic digestion. Based on the solids retention time, volume anaerobic digester is sized to obtain the desired reduction in organic matter, with the corresponding production of biogas. The geometry of the digester and the stirring system should be adequate to achieve the design solid retention time. Early works on digesters stirring just performed tracer experiments and other measurement methods. In other cases, mixing was evaluated by biogas production. These techniques had the great handicap of not knowing what really happened inside the digester and they only gave a rough idea of its operation. By application of computational fluid dynamics (CFD), it is possible to know in detail the characteristics of the fluid under study and, therefore, simulate perfectly the sludge movement of an anaerobic digester. Different full-scale digesters (about 2000 m3 of volume) agitated with pump/s recirculation have been simulated by CFD in this thesis to achieve the following objectives: to establish the influence of the relationship between the diameter and height, the slope of the bottom, the number of pumps and the recirculation flow in such digesters, to define the velocity field in the mass of sludge and carry out an energy and economic analysis. Thus, it is possible to understand better how the agitation system of a full-scale anaerobic digester equipped with pump/s recirculation works. The results achieved show that a diameter/height ratio of the digester above 1 worsens its stirring and that the slope of the digester bottom favors that the mass of sludge is better mixed, being more decisive the tank slenderness than the slope of its bottom. However, it is also necessary to select properly the design parameters of the agitation system, in this case the sludge recirculation flow rate, for a complete agitation with little dead zones. In the case of a digester with inadequate geometry, its agitation can be improved by increasing the number of recirculation pumps and flow of them, but it will not reach a full agitation of the mass of sludge because of the poor original design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Besides space laboratories for in-orbit experimentation, Earth based facilities for laboratory experimentation are of paramount importance for the enhancement on liquid bridge knowledge. In spite of the constraints imposed by simulated microgravity (which force to work either with very small size liquid bridges or by using the Plateau tank technique, amongst other techniques), the availability and accessibility of Earth facilities can circumvent in many cases the drawbacks associated with simulated microgravity conditions. To support theoretical and in orbit experimental studies on liquid bridges under reduced gravity conditions, several ground facilities were developed at IDR. In the following these ground facilities are briefly described, and main results obtained by using them are cited.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El cálculo de cargas de aerogeneradores flotantes requiere herramientas de simulación en el dominio del tiempo que consideren todos los fenómenos que afectan al sistema, como la aerodinámica, la dinámica estructural, la hidrodinámica, las estrategias de control y la dinámica de las líneas de fondeo. Todos estos efectos están acoplados entre sí y se influyen mutuamente. Las herramientas integradas se utilizan para calcular las cargas extremas y de fatiga que son empleadas para dimensionar estructuralmente los diferentes componentes del aerogenerador. Por esta razón, un cálculo preciso de las cargas influye de manera importante en la optimización de los componentes y en el coste final del aerogenerador flotante. En particular, el sistema de fondeo tiene gran impacto en la dinámica global del sistema. Muchos códigos integrados para la simulación de aerogeneradores flotantes utilizan modelos simplificados que no consideran los efectos dinámicos de las líneas de fondeo. Una simulación precisa de las líneas de fondeo dentro de los modelos integrados puede resultar fundamental para obtener resultados fiables de la dinámica del sistema y de los niveles de cargas en los diferentes componentes. Sin embargo, el impacto que incluir la dinámica de los fondeos tiene en la simulación integrada y en las cargas todavía no ha sido cuantificada rigurosamente. El objetivo principal de esta investigación es el desarrollo de un modelo dinámico para la simulación de líneas de fondeo con precisión, validarlo con medidas en un tanque de ensayos e integrarlo en un código de simulación para aerogeneradores flotantes. Finalmente, esta herramienta, experimentalmente validada, es utilizada para cuantificar el impacto que un modelos dinámicos de líneas de fondeo tienen en la computación de las cargas de fatiga y extremas de aerogeneradores flotantes en comparación con un modelo cuasi-estático. Esta es una información muy útil para los futuros diseñadores a la hora de decidir qué modelo de líneas de fondeo es el adecuado, dependiendo del tipo de plataforma y de los resultados esperados. El código dinámico de líneas de fondeo desarrollado en esta investigación se basa en el método de los Elementos Finitos, utilizando en concreto un modelo ”Lumped Mass” para aumentar su eficiencia de computación. Los experimentos realizados para la validación del código se realizaron en el tanque del École Céntrale de Nantes (ECN), en Francia, y consistieron en sumergir una cadena con uno de sus extremos anclados en el fondo del tanque y excitar el extremo suspendido con movimientos armónicos de diferentes periodos. El código demostró su capacidad para predecir la tensión y los movimientos en diferentes posiciones a lo largo de la longitud de la línea con gran precisión. Los resultados indicaron la importancia de capturar la dinámica de las líneas de fondeo para la predicción de la tensión especialmente en movimientos de alta frecuencia. Finalmente, el código se utilizó en una exhaustiva evaluación del efecto que la dinámica de las líneas de fondeo tiene sobre las cargas extremas y de fatiga de diferentes conceptos de aerogeneradores flotantes. Las cargas se calcularon para tres tipologías de aerogenerador flotante (semisumergible, ”spar-buoy” y ”tension leg platform”) y se compararon con las cargas obtenidas utilizando un modelo cuasi-estático de líneas de fondeo. Se lanzaron y postprocesaron más de 20.000 casos de carga definidos por la norma IEC 61400-3 siguiendo todos los requerimientos que una entidad certificadora requeriría a un diseñador industrial de aerogeneradores flotantes. Los resultados mostraron que el impacto de la dinámica de las líneas de fondeo, tanto en las cargas de fatiga como en las extremas, se incrementa conforme se consideran elementos situados más cerca de la plataforma: las cargas en la pala y en el eje sólo son ligeramente modificadas por la dinámica de las líneas, las cargas en la base de la torre pueden cambiar significativamente dependiendo del tipo de plataforma y, finalmente, la tensión en las líneas de fondeo depende fuertemente de la dinámica de las líneas, tanto en fatiga como en extremas, en todos los conceptos de plataforma que se han evaluado. ABSTRACT The load calculation of floating offshore wind turbine requires time-domain simulation tools taking into account all the phenomena that affect the system such as aerodynamics, structural dynamics, hydrodynamics, control actions and the mooring lines dynamics. These effects present couplings and are mutually influenced. The results provided by integrated simulation tools are used to compute the fatigue and ultimate loads needed for the structural design of the different components of the wind turbine. For this reason, their accuracy has an important influence on the optimization of the components and the final cost of the floating wind turbine. In particular, the mooring system greatly affects the global dynamics of the floater. Many integrated codes for the simulation of floating wind turbines use simplified approaches that do not consider the mooring line dynamics. An accurate simulation of the mooring system within the integrated codes can be fundamental to obtain reliable results of the system dynamics and the loads. The impact of taking into account the mooring line dynamics in the integrated simulation still has not been thoroughly quantified. The main objective of this research consists on the development of an accurate dynamic model for the simulation of mooring lines, validate it against wave tank tests and then integrate it in a simulation code for floating wind turbines. This experimentally validated tool is finally used to quantify the impact that dynamic mooring models have on the computation of fatigue and ultimate loads of floating wind turbines in comparison with quasi-static tools. This information will be very useful for future designers to decide which mooring model is adequate depending on the platform type and the expected results. The dynamic mooring lines code developed in this research is based in the Finite Element Method and is oriented to the achievement of a computationally efficient code, selecting a Lumped Mass approach. The experimental tests performed for the validation of the code were carried out at the `Ecole Centrale de Nantes (ECN) wave tank in France, consisting of a chain submerged into a water basin, anchored at the bottom of the basin, where the suspension point of the chain was excited with harmonic motions of different periods. The code showed its ability to predict the tension and the motions at several positions along the length of the line with high accuracy. The results demonstrated the importance of capturing the evolution of the mooring dynamics for the prediction of the line tension, especially for the high frequency motions. Finally, the code was used for an extensive assessment of the effect of mooring dynamics on the computation of fatigue and ultimate loads for different floating wind turbines. The loads were computed for three platforms topologies (semisubmersible, spar-buoy and tension leg platform) and compared with the loads provided using a quasi-static mooring model. More than 20,000 load cases were launched and postprocessed following the IEC 61400-3 guideline and fulfilling the conditions that a certification entity would require to an offshore wind turbine designer. The results showed that the impact of mooring dynamics in both fatigue and ultimate loads increases as elements located closer to the platform are evaluated; the blade and the shaft loads are only slightly modified by the mooring dynamics in all the platform designs, the tower base loads can be significantly affected depending on the platform concept and the mooring lines tension strongly depends on the lines dynamics both in fatigue and extreme loads in all the platform concepts evaluated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las prestaciones de un velero de regatas se estiman por medio de los Programas de Predicción de Velocidad (VPP) que incluyen las características de estabilidad y modelos aero e hidrodinámico del barco. Por esta razón, es importante tener una evaluación adecuada de las fuerzas en apéndices y de su variación en diferentes condiciones de navegación, escora y deriva. Además, para el cálculo de las fuerzas en los apéndices es importante conocer sus características hidrodinámicas cuando trabajan conjuntamente en un campo fluido fuertemente modificado por la carena. Por esta razón, se han utilizado una serie de ensayos realizados en el Canal de Ensayos de la ETSIN con el objetivo de validar códigos numéricos que permiten una evaluación más rápida y focalizada en los distintos fenómenos que se producen. Dichos ensayos se han realizado de forma que pudiera medirse independientemente las fuerzas hidrodinámicas en cada apéndice, lo que permitirá evaluar el reparto de fuerzas en diferentes condiciones de navegación para poder profundizar en las interacciones entre carena, quilla y timón. Las técnicas numéricas permiten capturar detalles que difícilmente se pueden visualizar en ensayos experimentales. En este sentido, se han probado las últimas técnicas utilizadas en los últimos workshops y se ha enfocado el estudio a un nuevo método con el objetivo de mostrar una metodologia más rápida que pueda servir a la industria para este tipo de aproximación al problema. ABSTRACT The performances of a racing sailboat are estimated by means of the speed prediction programs (VPP), which include the ship stability characteristics and the aero and hydrodynamic models. For this reason, it is important to have an adequate evaluation of the forces in appendices and its variation in different sailing conditions, heel and leeway Moreover, for the analysis of the forces in the appendices, it is important to know their hydrodynamic characteristics when they work together in a fluid field strongly modified by the canoe body. For this reason, several tests have been done in the ETSIN towing tank with the aim to validate numeric codes that allowing faster analysis and they permit to focus on the different phenomena that occur there. Such tests have been done in a way that the hydrodynamic forces in each appendage could be measured independently allowing assessing the distribution of forces in different sailing conditions to be able to deepen the interactions between the canoe body, the keel and the rudder. Numerical techniques allow capturing details that can hardly be displayed in experimental tests. In this sense, the latest techniques used in the recent workshops have been reviewed and the study has been focused to propose a new model with the aim to show a new faster methodology which serves the industry for this type of approach to the problem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El fenómeno de balance paramétrico se ha convertido en un tema de actualidad en los últimos años debido al aumento de accidentes relacionados y las discusiones en OMI debido a su indiscutible importancia en la seguridad del buque, su carga y tripulación. Por esta razón, su estudio ha atraído el interés de universidades, administraciones y sociedades de clasificación. Esta tesis trata el fenómeno de balance paramétrico desde diferentes puntos de vista. Primero, se estudiaran los diferentes escenarios donde el fenómeno de balance paramétrico ha ocurrido para entender cómo se desarrolla el fenómeno en la vida real, así como sus implicaciones en la seguridad de las personas y carga abordo. Un modelo matemático no lineal de movimiento de balance desacoplado es propuesto. Este modelo se basa en la aproximación cuadrática del momento de amortiguamiento junto con un brazo adrizante dependiente del tiempo. Este modelo es validado con datos experimentales del Canal de Ensayos de la ETSI Navales (UPM) relativos a un buque de pesca de 34.5m de eslora y dos cubiertas para diferentes casos de olas longitudinales. Se encuentra una correspondencia muy satisfactoria en términos de fase y amplitud entre el modelo teórico y los datos de canal para el caso en particular. El modelo es comparado con el estado del arte de la tecnología disponible actualmente, así como con los requisitos mínimos que están siendo discutidos en OMI relativos a los Criterios de Estabilidad de Segunda Generación. Finalmente, el fenómeno es revisado desde los puntos de vista de diseño y operacional para entender los parámetros relevantes detrás del fenómeno y conocer/aplicar las herramientas disponibles y medios para afrontar/mitigar este fenómeno. ABSTRACT A parametric roll resonance phenomenon has become a very relevant technical issue in recent years due the increasing number of accidents related and the ongoing discussions at the IMO due to its undisputed importance in the safety of the ship, its cargo and crew. For this reason, its study has attracted the interest of universities, regulatory bodies and classification societies. This thesis deals with this phenomenon of parametric roll resonance from different points of view. First, we will look at different real scenarios where parametric roll resonance phenomena has occurred in order to further understand how it is developed in real life and its implications for the safety of the people and cargo onboard. A non-linear mathematical model of the uncoupled roll motion is also presented. This model is based on a classic quadratic approximation of the damping momentum together with a time-varying restoring arm. This model is validated with real data taken from experimental results of the E.T.S.I. Navales Towing Tank on a trawler of two decks of 34.5 m. length for different cases of longitudinal waves. A very satisfactory correspondence, in terms of phase and amplitude, is found between the theoretical model presented and the real data on this particular case. The model is compare with the state-of-the-art technology currently available as well as with the minimum requirements currently being discussed as part of the IMO SGISC. Finally, the phenomenon is reviewed from design and operational aspects to understand the underlying parameters and know the available tools and ways to tackle/mitigate this phenomenon.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España se incorporó a la técnica del hormigón armado con más de dos décadas de retraso respecto a Francia o Alemania. En 1890, en Europa se construían ya estructuras de hormigón armado de cierta envergadura y complejidad. En España hubo que esperar hasta 1893 para la primera obra en hormigón armado, que fue un sencillo depósito descubierto en Puigverd (Lérida), ejecutado por el ingeniero militar Francesc Macià con patente Monier. En 1898, de la mano de Hennebique, se empezó la construcción de los dos primeros edificios con estructura de hormigón armado en España. Fueron dos obras puntuales, con proyectos importados de Francia, pero necesarias para introducir de manera definitiva el material. En paralelo, en París, se estaban edificando en hormigón armado la mayoría de los pabellones de la Exposición Universal de 1900. En el cambio de siglo, las construcciones de hormigón armado habían alcanzado ya la madurez proyectual y técnica en Europa. A pesar de la incorporación tardía, se puede constatar por las obras ejecutadas que en un periodo corto de tiempo, entre 1901 y 1906, se alcanzó en España prácticamente el mismo nivel técnico y constructivo que tenían el resto de los países que fueron pioneros en el empleo del hormigón armado. El desarrollo e implantación de una técnica constructiva no es un proceso lineal, y son muchos los factores que intervienen. Las patentes tuvieron una gran importancia en el desarrollo inicial del hormigón armado. Estas ofrecían un producto que funcionaba. Las primeras estructuras de hormigón armado no se calculaban y se construían siguiendo una reglamentación, se compraban. Y el resultado de esa “compra” solía ser, en la mayoría de los casos, satisfactorio. Las patentes vendían sistemas estructurales cuyo funcionamiento estaba corroborado por la experiencia y la pericia de su inventor. Esta investigación parte de la hipótesis de que las patentes sobre cemento y hormigón armado depositadas en España entre 1884 y 1906 fueron uno de los factores que proporcionaron a los técnicos y a las empresas españolas una pericia constructiva sólida en el empleo del hormigón armado. En este trabajo se aborda el estudio del proceso de introducción del hormigón armado en España desde una perspectiva fundamentalmente técnica, incorporando las patentes como una de las razones constructivas que explican su rápida evolución y generalización en un periodo de tiempo breve: 1901-1906. En este proceso se contextualiza y analiza una de las figuras que se considera fundamental en los primeros años del hormigón armado en España, la del ingeniero Juan Manuel de Zafra y Estevan. Esta tesis analiza las patentes de hormigón armado desde el punto de vista estadístico y constructivo. Desde ambas perspectivas se verifica la hipótesis de partida de esta investigación, concluyendo que las patentes fueron una de las razones constructivas de la evolución del hormigón armado en España y de su rápida implantación. ABSTRACT Spain incorporated the reinforced concrete technique more than two decades after France and Germany. In central Europe reinforced concrete structures of considerable size and complexity were being built in 1890, while in Spain it was not until 1893 that the first work, a simple open air water tank, was implemented in Puigverd (Lleida) by the military engineer Francesc Macià with a Monier patent. In 1898 the construction of the first two buildings with reinforced concrete structure in Spain started, with the guidance by Hennebique. They were two isolated cases with projects imported from France, but playing a key role to definitively introduce the material in Spain. In parallel, in Paris, most of the pavilions of the 1900 World Expo were being built in reinforced concrete. At the turn of the century reinforced concrete buildings had reached maturity both as a technology and as a design practice. Despite the late assumption of the material, the works carried out in the very short period between 1901 and 1906 clearly show that Spain reached practically the same technical and constructive level as the other pioneering countries in the use of reinforced concrete. The development and implementation of a constructive technique is never a linear process, there are many factors involved. The patents offered a successful product. Initial reinforced concrete structures were not calculated and built according to regulations, they were bought. And this purchase in most cases was satisfactory for the required use. Patents sold structural systems whose performance was supported by the experience and expertise of its inventor. The hypothesis of this research is based upon the assumption that the cement and concrete patents registered in Spain between 1884 and 1906 were one of the factors that provided Spanish technicians and companies with a solid constructive expertise in the use of reinforced concrete. This investigation studies the introduction of reinforced concrete to Spain from a predominantly technical perspective, incorporating patents as the constructive reason for the rapid evolution and spread in such a short period of time: 1901-1906. Along the way, the role of engineer J. M. de Zafra, generally considered a key agent in the initial years of reinforced concrete in Spain, is contextualized and analyzed. This dissertation analyzes the patents of reinforced concrete from a statistical and constructive point of view. From both perspectives the hypothesis of this research is verified, concluding that patents were one of the constructive reasons for the development of reinforced concrete in Spain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação analisa como o Partido Social Cristão (PSC), ao longo do tempo, se apropriou da identidade religiosa de seus atores políticos que na sua maioria são membros da Frente Parlamentar Evangélica, os quais defendem no espaço público a “família tradicional”, em detrimento da pluralidade de arranjos familiares na contemporaneidade. Para explicitar o objeto - “família tradicional” e PSC -, foi necessário retroceder no tempo e investigar na historiografia os primórdios da inserção dos evangélicos na política brasileira. Em vista disso, analisamos a participação dos evangélicos nos respectivos períodos do Brasil: Colônia, Império e República. A dificuldade da entrada de evangélicos na política partidária, dentre outros fatores, se deve àinfluência do catolicismo no Estado. Assim sendo, averiguamos em todas as Constituições (1824, 1891, 1934, 1937, 1946, 1967, 1969 e 1988) o que a mesma diz no que tange a proibição e a liberdade religiosa no país. Logo, verificamos entre as Eras Vargas e República Populista, que ocorreu com intensidade a transição do apoliticismo para o politicismo entre os evangélicos brasileiros, porém, eles não recebiam o apoio formal de suas igrejas. Em seguida, a participação dos evangélicos na arena política durante a ditadura militar foi investigada com destaque para o posicionamento de vanguarda da IECLB, através do Manifesto de Curitiba e, também com a presença de parlamentares evangélicos no Congresso Nacional. A politização pentecostal é ressaltada em nosso trabalho, através do pioneirismo de Manoel de Mello e, depois na Redemocratização quando as instituições evangélicas se organizaram para eleger seus candidatos à Assembleia Nacional Constituinte. E, com o fim do regime militar, o PSC surge como partido “nanico”, contudo, deixa o anonimato e ganha visibilidade midiática quando o pastor e deputado, Marco Feliciano, assume a presidência da Comissão de Direitos Humanos e Minorias, em 2013. Esse é o pano de fundo histórico que projetou o PSC e seus atores no pleito de 2014 com o mote “família tradicional”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wounding corneal epithelium establishes a laterally oriented, DC electric field (EF). Corneal epithelial cells (CECs) cultured in similar physiological EFs migrate cathodally, but this requires serum growth factors. Migration depends also on the substrate. On fibronectin (FN) or laminin (LAM) substrates in EF, cells migrated faster and more directly cathodally. This also was serum dependent. Epidermal growth factor (EGF) restored cathodal-directed migration in serum-free medium. Therefore, the hypothesis that EGF is a serum constituent underlying both field-directed migration and enhanced migration on ECM molecules was tested. We used immunofluorescence, flow cytometry, and confocal microscopy and report that 1) EF exposure up-regulated the EGF receptor (EGFR); so also did growing cells on substrates of FN or LAM; and 2) EGFRs and actin accumulated in the cathodal-directed half of CECs, within 10 min in EF. The cathodal asymmetry of EGFR and actin staining was correlated, being most marked at the cell–substrate interface and showing similar patterns of asymmetry at various levels through a cell. At the cell–substrate interface, EGFRs and actin frequently colocalized as interdigitated, punctate spots resembling tank tracks. Cathodal accumulation of EGFR and actin did not occur in the absence of serum but were restored by adding ligand to serum-free medium. Inhibition of MAPK, one second messenger engaged by EGF, significantly reduced EF-directed cell migration. Transforming growth factor β and fibroblast growth factor also restored cathodal-directed cell migration in serum-free medium. However, longer EF exposure was needed to show clear asymmetric distribution of the receptors for transforming growth factor β and fibroblast growth factor. We propose that up-regulated expression and redistribution of EGFRs underlie cathodal-directed migration of CECs and directed migration induced by EF on FN and LAM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Latent infection membrane protein 1 (LMP1), the Epstein-Barr virus transforming protein, associates with tumor necrosis factor receptor (TNFR) associated factor 1 (TRAF1) and TRAF3. Since TRAF2 has been implicated in TNFR-mediated NF-kappa B activation, we have evaluated the role of TRAF2 in LMP1-mediated NF-kappa B activation. TRAF2 binds in vitro to the LMP1 carboxyl-terminal cytoplasmic domain (CT), coprecipitates with LMP1 in B lymphoblasts, and relocalizes to LMP1 plasma membrane patches. A dominant negative TRAF2 deletion mutant that lacks amino acids 6-86 (TRAF/ delta 6-86) inhibits NF-kappa B activation from the LMP1 CT and competes with TRAF2 for LMP1 binding. TRAF2 delta 6-86 inhibits NF-kappa B activation mediated by the first 45 amino acids of the LMP1 CT by more than 75% but inhibits NF-kappa B activation through the last 55 amino acids of the CT by less than 40%. A TRAF interacting protein, TANK, inhibits NF-kappa B activation by more than 70% from both LMP1 CT domains. These data implicate TRAF2 aggregation in NF-kappa B activation by the first 45 amino acids of the LMP1 CT and suggest that a different TRAF-related pathway may be involved in NF-kappa B activation by the last 55 amino acids of the LMP1 CT.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na propriedade rural, onde o leite cru refrigerado fica armazenado até a captação pelo caminhão tanque em coleta a granel, o mesmo é mantido a temperatura de refrigeração entre 1 a 4ºC por longos períodos (até 96 horas), os microrganismos psicrotróficos encontram condições favoráveis para sua multiplicação, produzindo enzimas proteolíticas e lipolíticas termotolerantes, podendo provocar alterações indesejáveis no leite e nos seus derivados. Quando estes microrganismos estão presentes em elevadas populações, pode ser indicativo de baixa qualidade do leite e insatisfatória condições sanitárias para o processamento. Devido a necessidade da melhora da qualidade dos produtos lácteos, objetivou-se a execução desta pesquisa realizando levantamentos sobre o cumprimento dos padrões microbiológicos exigidos pela atual legislação brasileira IN 62 (BRASIL, 2011), pesquisas sobre os microrganismos psicrotróficos, Pseudomonas spp. e produção de enzimas proteolítica e lipolítica por Pseudomonas spp. As coletas foram realizadas em 10 propriedades do Estado de São Paulo na Regional Agrícola do Escritório de Desenvolvimento Rural - EDR Limeira - SP, sendo, 5 propriedades com ordenha manual e 5 propriedades com ordenha mecânica, nos períodos de chuva e seca e em vários pontos durante a obtenção do leite cru refrigerado e também do leite com intervalo de 24 horas até a captação deste leite pelo caminhão. As médias das populações dos microrganismos mesófilos na ordenha manual, foi diferente estatisticamente significativo no leite recém ordenhado (1,52×106 UFC.mL-1) para o leite com 24 horas de armazenamento (2,67×107 UFC.mL-1) no período chuvoso, e na ordenha mecânica, o encontrado foi uma diferença estatisticamente significativa no leite recém ordenhado (3,87×106 UFC.mL-1) para o leite com 24 horas de armazenamento (9,82×108 UFC.mL-1) também no período chuvoso. Nas populações dos microrganismos psicrotróficos, suas médias diferiram estatisticamente na ordenha manual no período da chuva no leite recém ordenhado (1,48×104 UFC.mL-1) para o leite com 48 horas de armazenamento (1,49×105 UFC.mL-1) e na ordenha mecânica, o leite recém ordenhado (8,74×103 UFC.mL-1), com 24 horas de armazenamento (4,33×104 UFC.mL-1) não diferiram entre si e foram diferentes estatisticamente do leite com 48 horas de armazenamento (3,46×105 UFC.mL-1) apresentaram valor elevado, principalmente quando o leite cru refrigerado permanece por longos períodos de armazenamento na propriedade rural, que pode ser um sério fator de comprometimento pela produção de lipases ou proteases principalmente pelas Pseudomonas spp. onde em todos os pontos amostrados foram isolados este microrganismo produzindo enzimas (lipase e/ou protease). A maior porcentagem de atividade lipolítica foi verificada no período seco, já a maior porcentagem de atividade proteolítica foi verificada no período chuvoso. Contudo, deve-se intensificar as medidas de autocontrole para minimizar os efeitos dos microrganismos mesófilos e psicrotróficos sobre a qualidade do leite cru refrigerado e, consequentemente, de seus derivados.