923 resultados para Large Size


Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Pseudo-Dynamic Test Method (PDTM) is being developped currently as an alternative to the shaking table testing of large size models. However, the stepped slow execution of the former type of test has been found to be the source of important errors arising from the stress relaxation. A new continuous test method, wich allows the selection of a suitable time-scale factor in the response in order to control these errors, es proposed here. Such scaled-time response is theoretically obtained by simply augmenting the mass of the structure for wich some practical solutions are proposed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The real increase in energy prices and the intention of reducing pollutant emissions in developed countries makes interesting to use solar energy in all the processes where its application is possible. As it is demonstrated in countries sited at latitudes with optimal conditions of solar radiation and temperature, it is possible to use solar energy as heat source for small-scale hatchery [1,2], but beyond, making a design for proper installation; it is possible to use solar energy as main or support energy source in medium and large size incubators . Monitoring of a normal actual process using temperature and relative humidity sensors is necessary to know the actual operating conditions that the solar heating system must be designed and sized for. Moreover, the identification and analysis of temperature and enthalpy gradients inside the incubator is of major importance.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Las células en los tejidos biológicos están continuamente sometidas a estímulos físicos tales como la presión hidrostática y esfuerzos de tracción, compresión o cortante, entre otros. La importancia de los estímulos mecánicos en el comportamiento de las células se ha reconocido recientemente al comprobarse cómo la naturaleza de estas fuerzas puede cambiar en patologías tales como las enfermedades vasculares o el cáncer. En respuesta a estos cambios, las células reaccionan modificando desde su forma o aspecto hasta su ciclo celular. Consecuentemente, el interés por el comportamiento mecánico de las células ha experimentado un auge creciente que ha requerido el desarrollo de varias técnicas de caracterización. En este contexto, se puede afirmar que una de las técnicas que ha irrumpido con más fuerza en esta nueva área, situada entre el mundo biológico y el físico, es la microscopía de fuerza atómica. En esta Tesis se ha abordado el estudio mediante microscopía de fuerza atómica de linfocitos de ratón que constituyen un linaje celular especialmente difícil de caracterizar mediante esta técnica por su tamaño y naturaleza no adherente. Los linfocitos, como actores fundamentales del sistema inmune, tienen gran importancia en la determinación de la respuesta que un organismo desencadena ante la presencia de un biomaterial. Bajo esta premisa, y como condición previa a la caracterización de los linfocitos, ha sido necesario el desarrollo de una metodología robusta y de amplia aplicabilidad que permita el estudio de células sobre biomateriales. Finalmente y con el objetivo de correlacionar el comportamiento mecánico de los linfocitos con alguna característica fisiológica relevante, se ha analizado la hipótesis de que el comportamiento mecánico pueda ser utilizado como marcador de la edad biológica. Consecuentemente se ha abordado el estudio del comportamiento mecánico de los linfocitos clasificados por grupos de edad, de manera que se han obtenido los primeros resultados que indican cómo puede manifestarse el proceso de inmunosenescencia -depresión del sistema inmune relacionada con el envejecimiento- en el comportamiento mecánico de las células del sistema inmune. Cells within tissues are continuously exposed to physical forces including hydrostatic pressure, shear stress, and compression and tension forces. The relevance of these mechanical stimuli has recently been recognised by different works in which significant changes were observed in these forces when they were measued in individuals affected by cardiovasvular diseases or cancer. Cells may alter their orientation, shape, internal constitution, contract, migrate, adhere, modify the synthesis and degradation of extracellular constituents, or even their life cycle in response to perturbations in their mechanical environment. As a consequence of this, the attention in cell mechanical behavior has undergone a significant thrust and novel techniques have been developed. In this context, atomic force microscopy has become a basic tool for the progress of this field. In this Thesis, the mechanical behavior of living murine T-lymphocytes was assessed by atomic force microscopy. Lymphocytes play a main role in the immune system of the individual and, consequently, in the immune response triggered by the presence of a biomaterial. The observation and characterization of the lymphocytes required the development of a robust experimental procedure that allowed overcoming the difficulties related to the analysis of this cell lineage, in particular their relatively large size and non-adherent character. These procedures could be easily transferred to other non-adherent cell lineages. Finally, to check the viability of developed method, we study the lymphocyte mechanical behavior as a function of the murine ageing. The obtained data represent a first step in the knowledge about how mechanical stimuli can affect the age-dependent decrease in immunological competence, i.e., the immunosenescence.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Among the many advantages of the recently proposed ion beam shepherd (IBS) debris removal technique is the capability to deal with multiple targets in a single mission. A preliminary analysis is here conducted in order to estimate the cost in terms of spacecraft mass and total mission time to remove multiple large-size upper stages of the Zenit family. Zenit-2 upper stages are clustered at 71 degrees inclination around 850 km altitude in low Earth orbit. It is found that a removal of two targets per year is feasible with a modest size spacecraft. The most favorable combinations of targets are outlined.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El software es, cada vez más, una parte muy importante de cualquier circuito electrónico moderno, por ejemplo, un circuito realizado con algún tipo de microprocesador debe incorporar un programa de control por pequeño que sea. Al utilizarse programas informáticos en los circuitos electrónicos modernos, es muy aconsejable, por no decir imprescindible, realizar una serie de pruebas de calidad del diseño realizado. Estas pruebas son cada vez más complicadas de realizar debido al gran tamaño del software empleado en los sistemas actuales, por este motivo, es necesario estructurar una serie de pruebas con el fin de realizar un sistema de calidad, y en algunos casos, un sistema que no presente ningún peligro para el ser humano o el medio ambiente. Esta propuesta consta de la explicación de las técnicas de diseño de pruebas que existen actualmente (por lo menos las más básicas ya que es un tema muy extenso) para realizar el control de calidad del software que puede contener un sistema embebido. Además, muchos circuitos electrónicos, debido a su control o exigencia hardware, es imprescindible que sean manipulados por algún programa que requiera más que un simple microprocesador, me refiero a que se deban controlar por medio de un pequeño programa manipulado por un sistema operativo, ya sea Linux, AIX, Unix, Windows, etc., en este caso el control de calidad se debería llevar a cabo con otras técnicas de diseño. También se puede dar el caso que el circuito electrónico a controlar se deba hacer por medio de una página web. El objetivo es realizar un estudio de las actuales técnicas de diseño de pruebas que están orientadas al desarrollo de sistemas embebidos. ABSTRACT. Software is increasingly a very important part of any modern electronic circuit, for example, a circuit made with some type of microprocessor must incorporate a control program no matter the small it is. When computer programs are used in modern electronic circuits, it is quite advisable if not indispensable to perform a series of quality tests of the design. These tests are becoming more and more difficult to be performed due to the large size of the software used in current systems, which is why it is necessary to structure a series of tests in order to perform a quality system, and in some cases, a system with no danger to humans or to the environment. This proposal consists of an explanation of the techniques used in the tests (at least the most basic ones since it is a very large topic) for quality control of software which may contain an embedded system. In addition, a lot of electronic circuits, due to its control or required hardware, it is essential to be manipulated by a program that requires more than a simple microprocessor, I mean that they must be controlled by means of a small program handled by an operating system, being Linux, AIX, Unix, Windows, etc., in this case the quality control should be carried out with other design techniques. The objective is to study the current test design techniques that are geared to the development of embedded systems. It can also occur that the electronic circuit should be controlled by means of a web page.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The paper presents the application of a new risk-informed methodology for the identification of the Emergency Management Requirements (EMR) to a Generation II, Large size Reactor and a Generation III+ Small Modular Reactor. The results obtained in this test case demonstrate that the actual EMR is conservative, as expected, for the GenII reactor, while the new methodology could be applied for the definition of EMRs for the new generation Nuclear Power Plants, with a possible reduction of the emergency area without loss of safety level. By adopting both probabilistic and deterministic approaches, the study addresses possible accidents and corresponding release scenarios for the two types of reactor, calculates the areas where the accidents have an impact on the population and defines the new EMR considering the health effects on the population.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The fracture behavior of rock block contacts has been studied for many years. Unfortunately, up to now, there is not a rigorous formulation or a solid theoretical foundation to support it. A mathematical development to represent the failure mechanism which occurs in the contacts between rock blocks is presented to evaluate the performance of breaking mechanism of such blocks relating it to the morphology of the contact and mechanical parameters of the material. The examined framework includes the evaluation of the surface roughness of first order in the failure mechanism of the granular particles of large size and the development of a theoretical model describing the morphology of the contact between rock blocks.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The computational advantages of the use of different approaches -numerical and analytical ones- to the analysis of different parts of the same shell structure are discussed. Examples of large size problems that can be reduced to those more suitable to be handled by a personal related axisyrometric finite elements, local unaxisymmetric shells, geometric quasi-regular shells, infinite elements and homogenization techniques are described

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La tesis estudia en detalle la Hunstanton Secondary School y su trascendencia. Así, se trata de analizar el conjunto de procesos que hace que esta obra sea entendida como el manifiesto construido del Nuevo Brutalismo en Inglaterra. La Escuela en Hunstanton fue la primera obra proyectada y construida por los Smithson y, si se considera que el legado que dejaron Alison y Peter fue más de carácter teórico que constructivo, ésta se ha convertido en un edificio relevante dentro de su trayectoria profesional. Además, el rigor con el que fue realizado el proyecto y la ratificación de las ideas que subyacían tras él, a pesar del extenso intervalo temporal que caracterizó su proceso constructivo, hacen que esta obra se convierta en una síntesis de la filosofía arquitectónica gestada en Inglaterra tras la guerra. Por otro lado, hay que contemplar que la sencillez del lenguaje constructivo empleado, viene dada por la compleja reiteración de los sistemas proyectuales tipo que formulan para este proyecto y el establecimiento de una gramática casi matemática. La sistematización de su vocabulario hace que, tras el análisis de su arquitectura, se encuentren nuevos parámetros capaces de documentar este momento de la historia de la arquitectura en Inglaterra. La envolvente del edificio constituye al tiempo fachada y estructura. Esta característica ha pasado inadvertida cuando, en numerosas ocasiones y durante seis décadas, se han venido publicando las fotografías de la obra terminada y los dibujos que los Smithson habían realizado en la fase de proyecto. Como consecuencia, ha proliferado el conocimiento de la arquitectura de la escuela a un nivel más superficial, mostrando el resultado formal de la misma y con ello, simplemente se ha dejado intuir la gran influencia que Mies Van der Rohe provocó en los Smithson en los primeros años de desarrollo de su labor como arquitectos. El objetivo principal de esta tesis es, por tanto, facilitar el entendimiento del espacio que propusieron los Smithson a partir del análisis pormenorizado de los distintos sistemas constructivos empleados y del equipo personal que se vio implicado en su construcción. Para ello, es necesario abordar el estudio de los materiales y mecanismos proyectuales que hicieron posible que este conjunto de espacios –interiores y exteriores- resultase definido a través de la relación entre dos variables: una evidente austeridad en la utilización de los materiales y la combinación de los distintos sistemas intervinientes a partir del recurso de la repetición. La Escuela de Hunstanton, a pesar de las inoportunas intervenciones realizadas para adaptar el centro a unas necesidades derivadas de su número de alumnos actual (el doble que en su inicio), continúa proclamando su integridad espacial. Partiendo de la hipótesis de que la arquitectura de la Secondary School en Hunstanton, representa el manifiesto construido del Nuevo Brutalismo en Inglaterra, se concluye que el resultado de su construcción fue consecuencia de numerosas influencias que, en relación con los Smithson, estuvieron presentes durante los años en que se gestó. Algo que va más allá de la conclusión de aquellos debates arquitectónicos que se habían emprendido, por escrito, en las distintas revistas locales de arquitectura. Los mecanismos compositivos empleados, también habían tenido mucho que ver con lo que los historiadores del arte habían venido aportando a la historia de la arquitectura hasta ese momento. Desde los años 40, éstos últimos habían emprendido una nueva manera de contar la historia en la que quedaba fuertemente involucrada su capacidad crítica, provocando interferencias en la mentalidad de los arquitectos de nueva generación y otorgándoles un bagaje cultural subliminalmente determinado y subjetivo. Por supuesto, en el resultado arquitectónico final, también tuvieron mucho que ver los recursos materiales de que se disponía en aquel momento. Así como la optimización de los mismos a través de la adopción de nuevas metodologías de trabajo como puede ser la organización multidisciplinar. La inclusión del ingeniero Ronald Jenkins en el equipo de trabajo de los Smithson supuso una gran oportunidad. Este ingeniero, propuso poner en práctica la entonces innovadora Teoría Plástica en la metodología de cálculo estructural y, con ello consiguió enriquecer el resultado espacial, posibilitando la percepción de una arquitectura ligera –a pesar de sus grandes dimensiones- y vinculada al paisaje donde se inserta. Pero todos estos condicionantes fueron pasados a su vez por el filtro del deseo de una regeneración social, que buscaba el modelo de la sociedad americana. El Buen Vivir que propugnaban los americanos, viajaba a Europa de la mano de la publicidad. Y, al igual que la componente publicitaria tuvo algo que ver en el proceso creativo de la arquitectura de la escuela, también lo tuvo el conocimiento del arte pop y sus recursos compositivos. ABSTRACT The thesis examines in detail the project of Hunstanton Secondary School and the architectural language’s significance used in it. Thus, it is reinterpreting the set of processes that makes this work to be understood as the “built manifesto” of the English New Brutalism. Hunstanton School’s project was the first work designed and built by the Smithsons and, considering their legacy -more theoretical than constructed-, make of this building an important work within their career. In addition, the rigor with which it was carried out the project and the ratification of the ideas lying behind him, make this work becomes a synthesis of the architectural philosophy gestated in England after the war, despite the extensive time interval that characterized its construction process. On the other hand, it must be considered the simplicity of the constructive language used in this project. It is given by the complex projective repetition of the type systems and by the establishment of a quasi-mathematical grammar. The systematization of its vocabulary makes, after a deep analysis of its architecture, to recognize new parameters able to document this moment in the history of English architecture. The building envelope is, at the same time, facade and structure. This feature has been overlooked when many photographs of the finished work and its drawings -made by the Smithsons during the design phase- has been exposed over six decades. As a result, it has proliferated the knowledge of Hunstanton Secondary Modern School’s architecture as a more superficial level, just by showing the formal outcome of its project and thus simply been left the sensation of the great influence that Mies Van der Rohe provocated in the Smithson thinking during their first years of developing his work as architects. Therefore, the main objective of this thesis is to facilitate an understanding of the Smithsons’ proposed space. This is made possible through the detailed analysis of the different systems used in it and, by understanding the knowledge of the team involved in its construction. To prove this, it is necessary to pay attention to the study of the materials and to different project mechanisms that make possible to this group of spaces -inner and outer- be defined through the game played by two variables: an apparent austerity in the use of materials and the combination of the various participant systems through the resource of repetition. Despite the untimely interventions made in order to adapt the center to the new needs (the large increase in the number of students), Hunstanton School’s building continues proclaiming its spatial integrity. Assuming that Hunstanton Secondary School’s architecture represents the manifesto of New Brutalism in England, it is concluded that the result of its construction was the result of numerous influences that, in connection with the Smithsons, were present during the years in which its project was conceived. This meaning goes beyond the conclusions made from the architectural debate that was published in many of local architectural magazines. The compositional mechanisms employed, are also linked to what art historians had contributed to the history of architecture until then. Since the 40s, historians had undertaken a new way to tell History. This new mode strongly implied its critical capacity. All this, was causing interferences in the mentality of the architects of the new generation and, giving them a subliminally determined and very subjective cultural background. Of course, the final architectural result had much to do with the material resources available at that time and, with its optimization through the adoption of new working methods as the multidisciplinary organization. The inclusion of engineer Ronald Jenkins in the team of the Smithsons was a great opportunity. He proposed to implement the new Plastic Theory in the structural calculation and thereby he got enrich the spatial results achieved, by enabling the perception of a lightweight construction, despite its large size and, linked to the landscape where it is inserted. But all these conditions were passed through the filter of social regeneration’s desire, following the American society’s model. This American model travelled to Europe in the hands of advertising. And, in the same way that publicity had something to do with the creative process of this architecture, also had a lot to do the knowledge of pop art and its compositional resources.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The construction of cDNA clones encoding large-size RNA molecules of biological interest, like coronavirus genomes, which are among the largest mature RNA molecules known to biology, has been hampered by the instability of those cDNAs in bacteria. Herein, we show that the application of two strategies, cloning of the cDNAs into a bacterial artificial chromosome and nuclear expression of RNAs that are typically produced within the cytoplasm, is useful for the engineering of large RNA molecules. A cDNA encoding an infectious coronavirus RNA genome has been cloned as a bacterial artificial chromosome. The rescued coronavirus conserved all of the genetic markers introduced throughout the sequence and showed a standard mRNA pattern and the antigenic characteristics expected for the synthetic virus. The cDNA was transcribed within the nucleus, and the RNA translocated to the cytoplasm. Interestingly, the recovered virus had essentially the same sequence as the original one, and no splicing was observed. The cDNA was derived from an attenuated isolate that replicates exclusively in the respiratory tract of swine. During the engineering of the infectious cDNA, the spike gene of the virus was replaced by the spike gene of an enteric isolate. The synthetic virus replicated abundantly in the enteric tract and was fully virulent, demonstrating that the tropism and virulence of the recovered coronavirus can be modified. This demonstration opens up the possibility of employing this infectious cDNA as a vector for vaccine development in human, porcine, canine, and feline species susceptible to group 1 coronaviruses.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The large size of many novel therapeutics impairs their transport through the tumor extracellular matrix and thus limits their therapeutic effectiveness. We propose that extracellular matrix composition, structure, and distribution determine the transport properties in tumors. Furthermore, because the characteristics of the extracellular matrix largely depend on the tumor–host interactions, we postulate that diffusion of macromolecules will vary with tumor type as well as anatomical location. Diffusion coefficients of macromolecules and liposomes in tumors growing in cranial windows (CWs) and dorsal chambers (DCs) were measured by fluorescence recovery after photobleaching. For the same tumor types, diffusion of large molecules was significantly faster in CW than in DC tumors. The greater diffusional hindrance in DC tumors was correlated with higher levels of collagen type I and its organization into fibrils. For molecules with diameters comparable to the interfibrillar space the diffusion was 5- to 10-fold slower in DC than in CW tumors. The slower diffusion in DC tumors was associated with a higher density of host stromal cells that synthesize and organize collagen type I. Our results point to the necessity of developing site-specific drug carriers to improve the delivery of molecular medicine to solid tumors.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The dyneins are a class of motor protein involved in ciliary and flagellar motility, organelle transport, and chromosome segregation. Because of their large size and subunit complexity, relatively little is known about their mechanisms of force production and regulation. We report here on the expression and analysis of the entire rat cytoplasmic dynein heavy chain (Mr 532,000). Full-length cDNAs were constructed from a series of partial clones and tagged at the C terminus with either a FLAG-epitope tag or a His6-tag. The recombinant polypeptides were expressed either in insect cells by baculovirus infection or in COS-7 cells by transient transfection. The recombinant protein was mostly soluble and showed good microtubule binding. It exhibited a broad sedimentation profile, indicative of the formation of dimers as well as higher order multimers. Good microtubule gliding motility activity was observed in assays of heavy chain expressed in either insect or COS-7 cells. Average microtubule gliding velocities of 1.2-1.8 microm/sec were observed, comparable with the rates determined for calf brain cytoplasmic dynein. These results represent the first indication that recombinant heavy chain alone is capable of force production, and should lead to rapid progress in defining the dynein motor domain.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

An earthquake of magnitude M and linear source dimension L(M) is preceded within a few years by certain patterns of seismicity in the magnitude range down to about (M - 3) in an area of linear dimension about 5L-10L. Prediction algorithms based on such patterns may allow one to predict approximately 80% of strong earthquakes with alarms occupying altogether 20-30% of the time-space considered. An area of alarm can be narrowed down to 2L-3L when observations include lower magnitudes, down to about (M - 4). In spite of their limited accuracy, such predictions open a possibility to prevent considerable damage. The following findings may provide for further development of prediction methods: (i) long-range correlations in fault system dynamics and accordingly large size of the areas over which different observed fields could be averaged and analyzed jointly, (ii) specific symptoms of an approaching strong earthquake, (iii) the partial similarity of these symptoms worldwide, (iv) the fact that some of them are not Earth specific: we probably encountered in seismicity the symptoms of instability common for a wide class of nonlinear systems.