90 resultados para Separación matrimonial


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN La realización de túneles de gran longitud para ferrocarriles ha adquirido un gran auge en los últimos años. En España se han abordado proyectos de estas características, no existiendo para su ejecución una metodología completa y contrastada de actuación. Las características geométricas, de observación y de trabajo en túneles hace que las metodologías que se aplican en otros proyectos de ingeniería no sean aplicables por las siguientes causas: separación de las redes exteriores e interiores de los túneles debido a la diferente naturaleza de los observables, geometría en el interior siempre desfavorable a los requerimientos de observación clásica, mala visibilidad dentro del túnel, aumento de errores conforme avanza la perforación, y movimientos propios del túnel durante su ejecución por la propia geodinámica activa. Los patrones de observación geodésica usados deben revisarse cuando se ejecutan túneles de gran longitud. Este trabajo establece una metodología para el diseño de redes exteriores. ABSTRACT: The realization of long railway tunnels has acquired a great interest in recent years. In Spain it is necessary to address projects of this nature, but ther is no corresponding methodological framework supporting them. The tunnel observational and working geometrical properties, make that former methodologies used may be unuseful in this case: the observation of the exterior and interior geodetical networks of the tunnel is different in nature. Conditions of visibility in the interior of the tunnels, regardless of the geometry, are not the most advantageous for observation due to the production system and the natural conditions of the tunnels. Errors increase as the drilling of the tunnel progresses, as it becomes problematical to perform continuous verifications along the itinerary itself. Moreover, inherent tunnel movements due to active geodynamics must also be considered. Therefore patterns for geodetic and topographic observations have to be reviewed when very long tunnels are constructed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente Tesis se realizó un análisis numérico, usando el código comercial Ansys-Fluent, de la refrigeración de una bola de combustible de un reactor de lecho de bolas (PBR, por sus siglas en inglés), ante un escenario de emergencia en el cual el núcleo sea desensamblado y las bolas se dejen caer en una piscina de agua, donde el mecanismo de transferencia de calor inicialmente sería la ebullición en película, implicando la convección y la radiación al fluido. Previamente se realizaron pruebas de validación, comparando los resultados numéricos con datos experimentales disponibles en la literatura para tres geometrías diferentes, lo cual permitió seleccionar los esquemas y modelos numéricos con mejor precisión y menor costo computacional. Una vez identificada la metodología numérica, todas las pruebas de validación fueron ampliamente satisfactorias, encontrándose muy buena concordancia en el flujo de calor promedio con los datos experimentales. Durante estas pruebas de validación se lograron caracterizar numéricamente algunos parámetros importantes en la ebullición en película con los cuales existen ciertos niveles de incertidumbre, como son el factor de acoplamiento entre convección y radiación, y el factor de corrección del calor latente de vaporización. El análisis térmico de la refrigeración de la bola del reactor por ebullición en película mostró que la misma se enfría, a pesar del calor de decaimiento, con una temperatura superficial de la bola que desciende de forma oscilatoria, debido al comportamiento inestable de la película de vapor. Sin embargo, la temperatura de esta superficie tiene una buena uniformidad, notándose que las áreas mejor y peor refrigeradas están localizadas en la parte superior de la bola. Se observó la formación de múltiples domos de vapor en diferentes posiciones circunferenciales, lo cual causa que el área más caliente de la superficie se localice donde se forman los domos más grandes. La separación entre los domos de vapor fue consistente con la teoría hidrodinámica, con la adición de que la separación entre domos se reduce a medida que evolucionan y crecen, debido a la curvatura de la superficie. ABSTRACT A numerical cooling analysis of a PBR fuel pebble, after an emergency scenario in which the nucleus disassembly is made and the pebbles are dropped into a water pool, transmitting heat by film boiling, involving convection and radiation to the fluid, is carried out in this Thesis. First, were performed validation tests comparing the numerical results with experimental works available for three different geometries, which allowed the selection of numerical models and schemes with better precision and lower computational cost. Once identified the numerical methodology, all validation tests were widely satisfactory, finding very good agreement with experimental works in average heat flux. During these validation tests were achieved numerically characterize some important parameters in film boiling with which there are certain levels of uncertainty, such as the coupling factor between convection and radiation, and the correction factor of the latent heat of vaporization. The thermal analysis of pebble cooling by film boiling shows that despite its decay heat, cooling occurs, with pebble surface temperature descending from an oscillatory manner, due to the instability of the vapor film. However, the temperature of this surface has a good uniformity, noting that the best and worst refrigerated area is located at the top of the pebble. The formation of multiple vapor domes at different circumferential positions is observed, which cause that the hottest area of the surface was located where biggest vapor domes were formed. The separation between vapor domes was consistent with the hydrodynamic theory, with the addition that the separation is reduced as the vapor dome evolves and grows, due to the surface curvature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo realiza un estudio de estructuras radiantes basadas en ranuras sobre guía radial de un haz monopulso (suma y diferencia). Las características de estas estructuras de antena son su facilidad de construcción, polarización circular, bajas pérdidas y ancho de banda inversamente proporcional a su ganancia (debido a la excitación serie). El trabajo comienza con un estudio bibliográfico de antenas existentes, continúa con la aplicación objetivo y realiza un diseño. El objetivo del trabajo es el estudio de viabilidad de una antena de ranuras con una disposición de anillos concéntricos en la banda W con polarización circular. El diseño propuesto trabaja a una frecuencia de 94 GHz. Para ello, se aplicaría un procedimiento de síntesis basado en métodos de optimización con el fin de determinar la longitud y la posición de cada una de las ranuras. En la etapa de diseño de la antena se estudiará cuál es la mejor opción para el diseño de nuestra antena, cuáles son las longitudes de la ranuras, cuál es la distancia de cada anillo, con que separación. Con ello perseguimos, que nuestro array tenga la mayor ganancia posible, respetando que sea una de dimensiones reales. Para escoger correctamente los parámetros mencionados anteriormente se ha diseñado una herramienta de optimización utilizando el software comercial Matlab. Esta herramienta utiliza diversos algoritmos para poder optimizar correctamente nuestro elemento radiante: fmincon, herramienta de búsqueda local con restricciones para funciones multivariable no lineales y “simulannealbnd”, herramienta de búsqueda global con restricciones. Se utilizará una combinación de ambas herramientas con el objetivo de mejorar los resultados del primero y aumentando la velocidad de convergencia del segundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo constituye la simulación de un entorno para un sistema de separación de aeronaves basada en tiempos (TBS). El trabajo se divide en dos secciones: la generación de modelos atmosféricos, y la generación y simulación de trayectoria. Se pretende así recrear la ejecución de una maniobra de aproximación final en diferentes escenarios. La sección de generación de modelos atmosféricos es responsable de construir diferentes modelos de atmósfera, en los que poder obtener valores de presión, temperatura, viento y otras variables atmosféricas, para cualquier posición y tiempo deseados. La sección de generación y simulación de trayectoria se centra en la maniobra de aproximación final a pista, construyendo una trayectoria típica de aproximación final. Después, utilizando los datos atmosféricos de la primera sección, se realiza una simulación de una aeronave realizando dicha aproximación final, obteniéndose todos los datos relativos a velocidades respecto al aire y respecto a tierra, posiciones, tiempo transcurrido, etc. Como resultado, se obtiene información sobre la ejecución de la maniobra de aproximación final. Esta información es sensible a las variaciones de las condiciones atmosféricas de la simulación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, es ampliamente conocido que uno de los principales desafíos que enfrentan las organizaciones es el crecimiento de Internet, tanto en número de clientes como en tráfico multimedia. Una red de entrega de contenidos (CDN, Content Delivery Network) es una opción para mejorar la experiencia de los usuarios finales, es decir, hacer más eficiente y fiable la distribución de contenidos. Sin embargo, con los nuevos requisitos de negocio y tecnologías, los operadores de CDN tienen que mejorar la arquitectura de la red. La Red definida por software (SDN, Software Defined Networking) es una nueva arquitectura de la red con un gran potencial, y el aspecto principal es la separación de los planos de datos y de control. El objetivo de este trabajo fin de grado es proporcionar una arquitectura basada en la tecnología SDN para poder sustituir la parte de la redirección DNS en una red CDN

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Habitualmente la prefabricación en la construcción residencial se enfrenta a dos problemas: participación de sistemas cerrados (dependencia de patentes/fabricantes) y existencia de una masa crítica mínima a edificar que rentabilice los sobrecostes de fabricación con la reducción de tiempos de ejecución. Nuestro estudio realiza una labor de investigación en sistemas de construcción industrializados abiertos, flexibles, de bajo costo, en propuestas como las aquí presentadas: el CONCURSO INVISO (INdustrialización VIvienda Sostenible_ EMVS/ Instituto_Torroja: 1º_PREMIO) proponía un sistema teórico, abierto, independiente de escala programa o tipología residencial, posteriormente materializado en la CASA GUARDIOLA, aplicación del anterior que recogía sus ideas: una sistematización más conceptual que tecnológica, basada en industrialización abierta (compatible con materiales y elementos de mercado) modulada, flexible, reversible (junta seca con ensambles de tornillería) sistematizada (separación de elementos en respuesta a solicitudes específicas) con limitación dimensional y estructural (sin maquinaria pesada). Esta casa obtuvo el 1º premio VETECO en soluciones de fachada innovadora.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis Doctoral aborda el estudio de la resistencia a carga concentrada transversal del alma de vigas metálicas cuando se dispone un nervio inferior de rigidez, que puede materializarse mediante una célula triangular soldada al ala inferior de la viga y sobre el que se aplica directamente la carga. En primer lugar se presenta, de una forma cualitativa, las mejoras resistentes que aporta este diseño frente a la resistencia de una viga doble T (o alma equivalente de una sección cajón) con el ala inferior exenta. Se concluye que esta solución tiene gran interés de cara al diseño de puentes empujados, ya que, con una ejecución muy simple, puede mejorarse de forma sustancial la resistencia a carga concentrada transversal del alma sin recurrir a soluciones mucho más costosas como disponer rigidización longitudinal o, en última instancia, aumentar el espesor de alma por motivos resistentes en una fase constructiva. Se analizan en detalle todas las investigaciones realizadas, a lo largo de más de 80 años, sobre la resistencia de vigas metálicas a carga concentrada transversal, llevadas a cabo únicamente sobre vigas doble T con o sin rigidización longitudinal. Se centra el análisis en investigar los mecanismos resistentes identificados, con objeto de determinar si las distintas formulaciones planteadas contemplan mecanismos de resistencia aplicables al caso de vigas con nervio de rigidez. Se profundiza posteriormente en el análisis de la contribución de un nervio de rigidez a la resistencia a carga concentrada transversal. A través de modelos numéricos de elementos finitos no lineales, se simula la resistencia última de secciones reales de puentes metálicos de tipo doble T a las que se añade un nervio de rigidez y se constata el incremento notable en la resistencia que aporta el nervio. Se identifican los mecanismos resistentes involucrados, mediante un modelo híbrido de elementos finitos con el nervio modelizado con elementos viga, de forma que se obtienen resultados de esfuerzos y movimientos en el propio nervio, como viga en flexión, que resultan de gran claridad para la interpretación estructural del fenómeno. Con ello, se compara la resistencia calculada con la vigente formulación de EAE y EN1993 con la obtenida en vigas doble T y vigas con nervio de rigidez y se concluye que tal formulación es insuficiente para evaluar la resistencia de estas últimas, ya que no reproduce el mecanismo de resistencia conjunta del nervio y rigidizadores, adicional a la simple contribución del alma a la resistencia. A la vista de ello se plantea una formulación alternativa, que contempla de forma explícita los mecanismos resistentes complementarios identificados: flexión longitudinal del nervio, cuando los rigidizadores están más separados que la longitud de alma resistente, y contribución directa de los rigidizadores a la resistencia plástica cuando se aproximan a menor separación que la longitud de alma resistente. Las conclusiones derivadas de todo el análisis anterior se aplican al diseño de un caso real de puente empujado, en el que se suprime toda la rigidización longitudinal y, sobre unas almas exentas de espesor suficiente por resistencia a cortante, se dispone un nervio de rigidez. Los mecanismos resistentes identificados en la Tesis Doctoral, apoyados en la formulación planteada al efecto, permiten al ingeniero alternativas de diseño frente a las posibilidades que le otorga la vigente formulación de resistencia a carga concentrada en vigas doble T. Así, en efecto, una viga doble T que requiera una mayor resistencia a carga concentrada transversal sólo puede reforzarse incrementando el espesor del alma. Por el contrario, con el nervio de rigidez, el ingeniero puede actuar sobre otras variables de diseño: incrementar la rigidez del nervio manteniendo el espesor del alma, para potenciar el mecanismo de flexión longitudinal del nervio; o bien aproximar rigidizadores, más incluso que la longitud de alma resistente, en cuyo caso limitarán ésta a su separación pero contribuirán a incrementar el valor total de la resistencia, superando una insuficiencia de la vigente formulación ya detectada en diversas investigaciones recientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cuando la separación física entre el sistema local y remoto es relativamente corta, el retardo no es perceptible; sin embargo, cuando el manipulador local y el manipulador remoto se encuentran a una distancia lejana uno del otro, el retardo de tiempo ya no es insignificante e influye negativamente en la realización de la tarea. El retardo de tiempo en un sistema de control introduce un atraso de fase que a su vez degrada el rendimiento del sistema y puede causar inestabilidad. Los sistemas de teleoperación pueden sacar provecho de la posibilidad de estar presente en dos lugares simultáneamente, sin embargo, el uso de Internet y otras redes de conmutación de paquetes, tales como Internet2, impone retardos de tiempo variables, haciendo que los esquemas de control ya establecidos elaboren soluciones para hacer frente a inestabilidades causadas por estos retardos de tiempo variables. En este trabajo de tesis se presenta el modelado y análisis de un sistema de teloperación bilateral no lineal de n grados de libertad controlado por convergencia de estado. La comunicación entre el sitio local y remoto se realiza mediante un canal de comunicación con retardo de tiempo. El análisis presentado en este trabajo considera que el retardo puede ser constante o variable. Los principales objetivos de este trabajo son; 1) Desarrollar una arquitectura de control no lineal garantizando la estabilidad del sistema teleoperado, 2) Evaluar la estabilidad del sistema considerando el retardo en la comunicación, y 3) Implementación de los algoritmos desarrollados para probar el desempeño de los mismos en un sistema experimental de 3 grados de libertad. A través de la teoría de Estabilidad de Lyapunov y el funcional Lyapunov-Krasovskii, se demuestra que el sistema de lazo cerrado es asintóticamente estable. Estas conclusiones de estabilidad se han obtenido mediante la integración de la función de Lyapunov y aplicando el Lema de Barbalat. Se demuestra también que se logra sincronizar las posiciones del manipulador local y remoto cuando el operador humano no mueve el manipulador local y el manipulador remoto se mueve libremente. El esquema de control propuesto se ha validado mediante simulación y en forma experimental empleando un sistema de teleoperación real desarrollado en esta tesis doctoral y que consta de un un manipulador serie planar de tres grados de libertad, un manipulador local, PHANTOM Omni, el cual es un dispositivo haptico fabricado que consta de 3 grados de libertad (en fuerza) y que proporciona realimentación de fuerza en los ejes x,y,z. El control en tiempo real se ha diseñado usando el Sistema Operativo en Tiempo Real QuaRC de QUARC en el lado local y el Simulink Real-Time Windows TargetTM en el lado remoto. Para finalizar el resumen se destaca el impacto de esta tesis en el mundo científico a través de los resultados publicados: 2 artículos en revistas con índice de impacto , 1 artículo en una revista indexada en Sistemas, Cibernética e Informática, 7 artículos en congresos y ha obtenido un premio en la 9a. Conferencia Iberoamericana en Sistemas, Cibernética e Informática, 2010. ABSTRACT When the physical separation between the local and remote system is relatively short, the delay is not noticeable; however, when the local manipulator and the remote manipulator are at a far distance from each other, the time delay is no longer negligible and negatively influences the performance of the task. The time delay in a control system introduces a phase delay which in turn degrades the system performance and cause instability. Teleoperation systems can benefit from the ability to be in two places simultaneously, however, the use of Internet and other packet switched networks, such as Internet2, imposes varying time delays, making established control schemes to develop solutions to address these instabilities caused by different time delays. In this thesis work we present a modeling and analysis of a nonlinear bilateral teloperation system of n degrees of freedom controlled by state convergence strategy. Communication between the local and remote site is via a communication channel with time delay. The analysis presented in this work considers that the time-delay can be constant or variable. The main objectives of this work are; 1) Develop a nonlinear control schemes to ensure the stability of the teleoperated system, 2) Evaluate the system stability considering the delay in communication, and 3) Implementation of algorithms developed to test the performance of the teleoperation system in an experimental system of 3 degrees of freedom. Through the Theory of Stability of Lyapunov and the functional Lyapunov-Krasovskii, one demonstrates that the closed loop system is asymptotically stable.. The conclusions about stability were obtained by integration of the Lyapunov function and applying Barbalat Lemma. It further shows that the positions of the local and remote manipulator are synchronize when the human operator stops applying a constant force and the remote manipulator does not interact with the environment. The proposed control scheme has been validated by means of simulation and in experimental form using a developed system of real teleoperation in this doctoral thesis, which consists of a series planar manipulator of three degrees of freedom, a local manipulator, PHANTOM Omni, which is an haptic device that consists of 3 degrees of freedom (in force) and that provide feeback force in x-axis, and, z. The control in real time has been designed using the Operating system in Real time QuaRC of Quanser in the local side and the Simulink Real-Time Windows Target in the remote side. In order to finalize the summary, the highlights impact of this thesis in the scientific world are shows through the published results: 2 articles in Journals with impact factor, one article in a indexed Journal on Systemics, Cybernetics and Informatics, 7 articles in Conferences and has won an award in 9a. Conferencia Iberoamericana en Sistemas, Cibernética e Informática, 2010.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado tiene como objetivo realizar un estudio del centelleo troposférico en presencia de lluvia en la banda Ka. Para ello se han utilizado los datos obtenidos de un enlace Tierra-satélite mediante una estación receptora situada en la ETSIT UPM. En la primera parte de este proyecto, se ha realizado un estudio teórico, no demasiado profundo de los principales fenómenos que afectan a este tipo de enlaces, comentando algunos modelos de predicción y profundizando en el centelleo troposférico, ya que es el principal tema que se trata en este proyecto. En segundo lugar, se ha realizado el experimento. En la primera parte se ha comprobado que efectivamente se cumple el modelo de pendiente de -20 dB/dec debidos a la lluvia, todo ello procesando los datos que han sido tomados en la ETSIT mediante Matlab. En la segunda parte, se han tratado individualmente distintos tipos de eventos con el fin de determinar una frecuencia de corte adecuada para realizar la separación mediante filtrado de las componentes de lluvia respecto a las de centelleo, así como verificar el cumplimiento de la pendiente en el espectro de -26 dB/dec debida al centelleo. Posteriormente, una vez que se ha obtenido una frecuencia de corte adecuada para el filtro, he separado las componentes espectrales debidas al centelleo de las componentes debidas a la lluvia. Se ha obtenido la varianza de una serie de eventos, ya que es el parámetro que mejor caracteriza la intensidad del centelleo y la hemos comparado en los diferentes meses para observar su variación, ya que las lluvias de verano tienen asociadas la presencia de turbulencias mayores respecto a las de invierno. Para finalizar el proyecto, se han expuesto las conclusiones a las que hemos llegado mediante el mismo, comentando también las posibles líneas de investigación futuras. ABSTRACT. The aim of this Project is to make a study about tropospheric Scintillation in presence of rain in the Ka band. For this purpose, the data obtained in an Earth-satellite link by a receiving station located at ETSIT UPM will be used. In the first part of this project, a non-detailed theoretical study of the principal phenomena affecting this type of links has been performed, commenting some prediction models and deepening in tropospheric Scintillation, because this is the principal objective of this project. In the second part, the experiment has been completed. In the first part the fulfillment of -20 dB/dec of slope due to the rain has been proved, after processing the data obtained in the ETSIT using Matlab. In the second part different types of events have been treated in order to determine an adequate cut frequency with the purpose of separating by filtering the components of the rain from the components of scintillation as well as verifying the fulfillment of the slope in the spectrum of -26 dB/dec due to scintillation. Afterwards, once that one suitable cut frequency for the filter has been obtained, the components of scintillation respect to the components produced by rain have been separated. The variance of a series of events has been obtained, because it is the parameter that best characterizes the scintillation intensity and during the different months it has been compared with the objective of observing its variation, due to the higher association of summer rains to the presence of greater turbulences than during winter rains. To complete this project I have presented the final conclusions to which we have come, also commenting on the possible future lines of investigation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El aislamiento acústico de elementos constructivos obtenido en obra difiere del aislamiento acústico obtenido en laboratorio, tanto para ruido aéreo como para ruido de impactos. Esto se produce porque el aislamiento acústico de cualquier elemento constructivo, como por ejemplo una pared, está influido por los elementos constructivos conectados a ella, como son tabiques, forjados o fachadas, ya que los elementos constructivos, en presencia del campo acústico vibran y transmiten sus vibraciones al elemento de separación produciendo la transmisión indirecta estructural o también denominada transmisión por flancos. El objeto de esta comunicación es cuantificar la pérdida de aislamiento acústico a ruido aéreo, que se produce en la edificación y que es atribuible a las transmisiones indirectas. En el caso de los edificios estudiados, la pérdida de aislamiento acústico puede variar de 4 a 10 dB.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografía axial computerizada (TAC) es la modalidad de imagen médica preferente para el estudio de enfermedades pulmonares y el análisis de su vasculatura. La segmentación general de vasos en pulmón ha sido abordada en profundidad a lo largo de los últimos años por la comunidad científica que trabaja en el campo de procesamiento de imagen; sin embargo, la diferenciación entre irrigaciones arterial y venosa es aún un problema abierto. De hecho, la separación automática de arterias y venas está considerado como uno de los grandes retos futuros del procesamiento de imágenes biomédicas. La segmentación arteria-vena (AV) permitiría el estudio de ambas irrigaciones por separado, lo cual tendría importantes consecuencias en diferentes escenarios médicos y múltiples enfermedades pulmonares o estados patológicos. Características como la densidad, geometría, topología y tamaño de los vasos sanguíneos podrían ser analizados en enfermedades que conllevan remodelación de la vasculatura pulmonar, haciendo incluso posible el descubrimiento de nuevos biomarcadores específicos que aún hoy en dípermanecen ocultos. Esta diferenciación entre arterias y venas también podría ayudar a la mejora y el desarrollo de métodos de procesamiento de las distintas estructuras pulmonares. Sin embargo, el estudio del efecto de las enfermedades en los árboles arterial y venoso ha sido inviable hasta ahora a pesar de su indudable utilidad. La extrema complejidad de los árboles vasculares del pulmón hace inabordable una separación manual de ambas estructuras en un tiempo realista, fomentando aún más la necesidad de diseñar herramientas automáticas o semiautomáticas para tal objetivo. Pero la ausencia de casos correctamente segmentados y etiquetados conlleva múltiples limitaciones en el desarrollo de sistemas de separación AV, en los cuales son necesarias imágenes de referencia tanto para entrenar como para validar los algoritmos. Por ello, el diseño de imágenes sintéticas de TAC pulmonar podría superar estas dificultades ofreciendo la posibilidad de acceso a una base de datos de casos pseudoreales bajo un entorno restringido y controlado donde cada parte de la imagen (incluyendo arterias y venas) está unívocamente diferenciada. En esta Tesis Doctoral abordamos ambos problemas, los cuales están fuertemente interrelacionados. Primero se describe el diseño de una estrategia para generar, automáticamente, fantomas computacionales de TAC de pulmón en humanos. Partiendo de conocimientos a priori, tanto biológicos como de características de imagen de CT, acerca de la topología y relación entre las distintas estructuras pulmonares, el sistema desarrollado es capaz de generar vías aéreas, arterias y venas pulmonares sintéticas usando métodos de crecimiento iterativo, que posteriormente se unen para formar un pulmón simulado con características realistas. Estos casos sintéticos, junto a imágenes reales de TAC sin contraste, han sido usados en el desarrollo de un método completamente automático de segmentación/separación AV. La estrategia comprende una primera extracción genérica de vasos pulmonares usando partículas espacio-escala, y una posterior clasificación AV de tales partículas mediante el uso de Graph-Cuts (GC) basados en la similitud con arteria o vena (obtenida con algoritmos de aprendizaje automático) y la inclusión de información de conectividad entre partículas. La validación de los fantomas pulmonares se ha llevado a cabo mediante inspección visual y medidas cuantitativas relacionadas con las distribuciones de intensidad, dispersión de estructuras y relación entre arterias y vías aéreas, los cuales muestran una buena correspondencia entre los pulmones reales y los generados sintéticamente. La evaluación del algoritmo de segmentación AV está basada en distintas estrategias de comprobación de la exactitud en la clasificación de vasos, las cuales revelan una adecuada diferenciación entre arterias y venas tanto en los casos reales como en los sintéticos, abriendo así un amplio abanico de posibilidades en el estudio clínico de enfermedades cardiopulmonares y en el desarrollo de metodologías y nuevos algoritmos para el análisis de imágenes pulmonares. ABSTRACT Computed tomography (CT) is the reference image modality for the study of lung diseases and pulmonary vasculature. Lung vessel segmentation has been widely explored by the biomedical image processing community, however, differentiation of arterial from venous irrigations is still an open problem. Indeed, automatic separation of arterial and venous trees has been considered during last years as one of the main future challenges in the field. Artery-Vein (AV) segmentation would be useful in different medical scenarios and multiple pulmonary diseases or pathological states, allowing the study of arterial and venous irrigations separately. Features such as density, geometry, topology and size of vessels could be analyzed in diseases that imply vasculature remodeling, making even possible the discovery of new specific biomarkers that remain hidden nowadays. Differentiation between arteries and veins could also enhance or improve methods processing pulmonary structures. Nevertheless, AV segmentation has been unfeasible until now in clinical routine despite its objective usefulness. The huge complexity of pulmonary vascular trees makes a manual segmentation of both structures unfeasible in realistic time, encouraging the design of automatic or semiautomatic tools to perform the task. However, this lack of proper labeled cases seriously limits in the development of AV segmentation systems, where reference standards are necessary in both algorithm training and validation stages. For that reason, the design of synthetic CT images of the lung could overcome these difficulties by providing a database of pseudorealistic cases in a constrained and controlled scenario where each part of the image (including arteries and veins) is differentiated unequivocally. In this Ph.D. Thesis we address both interrelated problems. First, the design of a complete framework to automatically generate computational CT phantoms of the human lung is described. Starting from biological and imagebased knowledge about the topology and relationships between structures, the system is able to generate synthetic pulmonary arteries, veins, and airways using iterative growth methods that can be merged into a final simulated lung with realistic features. These synthetic cases, together with labeled real CT datasets, have been used as reference for the development of a fully automatic pulmonary AV segmentation/separation method. The approach comprises a vessel extraction stage using scale-space particles and their posterior artery-vein classification using Graph-Cuts (GC) based on arterial/venous similarity scores obtained with a Machine Learning (ML) pre-classification step and particle connectivity information. Validation of pulmonary phantoms from visual examination and quantitative measurements of intensity distributions, dispersion of structures and relationships between pulmonary air and blood flow systems, show good correspondence between real and synthetic lungs. The evaluation of the Artery-Vein (AV) segmentation algorithm, based on different strategies to assess the accuracy of vessel particles classification, reveal accurate differentiation between arteries and vein in both real and synthetic cases that open a huge range of possibilities in the clinical study of cardiopulmonary diseases and the development of methodological approaches for the analysis of pulmonary images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta tesis doctoral es la investigación del nuevo concepto de pinzas fotovoltaicas, es decir, del atrapamiento, ordenación y manipulación de partículas en las estructuras generadas en la superficie de materiales ferroeléctricos mediante campos fotovoltaicos o sus gradientes. Las pinzas fotovoltaicas son una herramienta prometedora para atrapar y mover las partículas en la superficie de un material fotovoltaico de una manera controlada. Para aprovechar esta nueva técnica es necesario conocer con precisión el campo eléctrico creado por una iluminación específica en la superficie del cristal y por encima de ella. Este objetivo se ha dividido en una serie de etapas que se describen a continuación. La primera etapa consistió en la modelización del campo fotovoltaico generado por iluminación no homogénea en substratos y guías de onda de acuerdo al modelo de un centro. En la segunda etapa se estudiaron los campos y fuerzas electroforéticas y dielectroforéticas que aparecen sobre la superficie de substratos iluminados inhomogéneamente. En la tercera etapa se estudiaron sus efectos sobre micropartículas y nanopartículas, en particular se estudió el atrapamiento superficial determinando las condiciones que permiten el aprovechamiento como pinzas fotovoltaicas. En la cuarta y última etapa se estudiaron las configuraciones más eficientes en cuanto a resolución espacial. Se trabajó con distintos patrones de iluminación inhomogénea, proponiéndose patrones de iluminación al equipo experimental. Para alcanzar estos objetivos se han desarrollado herramientas de cálculo con las cuales obtenemos temporalmente todas las magnitudes que intervienen en el problema. Con estas herramientas podemos abstraernos de los complicados mecanismos de atrapamiento y a partir de un patrón de luz obtener el atrapamiento. Todo el trabajo realizado se ha llevado a cabo en dos configuraciones del cristal, en corte X ( superficie de atrapamiento paralela al eje óptico) y corte Z ( superficie de atrapamiento perpendicular al eje óptico). Se ha profundizado en la interpretación de las diferencias en los resultados según la configuración del cristal. Todas las simulaciones y experimentos se han realizado utilizando como soporte un mismo material, el niobato de litio, LiNbO3, con el f n de facilitar la comparación de los resultados. Este hecho no ha supuesto una limitación en los resultados pues los modelos no se limitan a este material. Con respecto a la estructura del trabajo, este se divide en tres partes diferenciadas que son: la introducción (I), la modelización del atrapamiento electroforético y dielectroforético (II) y las simulaciones numéricas y comparación con experimentos (III). En la primera parte se fijan las bases sobre las que se sustentarán el resto de las partes. Se describen los efectos electromagnéticos y ópticos a los que se hará referencia en el resto de los capítulos, ya sea por ser necesarios para describir los experimentos o, en otros casos, para dejar constancia de la no aparición de estos efectos para el caso en que nos ocupa y justificar la simplificación que en muchos casos se hace del problema. En esta parte, se describe principalmente el atrapamiento electroforético y dielectroforético, el efecto fotovoltaico y las propiedades del niobato de litio por ser el material que utilizaremos en experimentos y simulaciones. Así mismo, como no debe faltar en ninguna investigación, se ha analizado el state of the art, revisando lo que otros científicos del campo en el que estamos trabajando han realizado y escrito con el fin de que nos sirva de cimiento a la investigación. Con el capítulo 3 finalizamos esta primera parte describiendo las técnicas experimentales que hoy en día se están utilizando en los laboratorios para realizar el atrapamiento de partículas mediante el efecto fotovoltaico, ya que obtendremos ligeras diferencias en los resultados según la técnica de atrapamiento que se utilice. En la parte I I , dedicada a la modelización del atrapamiento, empezaremos con el capítulo 4 donde modelizaremos el campo eléctrico interno de la muestra, para a continuación modelizar el campo eléctrico, los potenciales y las fuerzas externas a la muestra. En capítulo 5 presentaremos un modelo sencillo para comprender el problema que nos aborda, al que llamamos Modelo Estacionario de Separación de Carga. Este modelo da muy buenos resultados a pesar de su sencillez. Pasamos al capítulo 6 donde discretizaremos las ecuaciones que intervienen en la física interna de la muestra mediante el método de las diferencias finitas, desarrollando el Modelo de Distribución de Carga Espacial. Para terminar esta parte, en el capítulo 8 abordamos la programación de las modelizaciones presentadas en los anteriores capítulos con el fn de dotarnos de herramientas para realizar las simulaciones de una manera rápida. En la última parte, III, presentaremos los resultados de las simulaciones numéricas realizadas con las herramientas desarrolladas y comparemos sus resultados con los experimentales. Fácilmente podremos comparar los resultados en las dos configuraciones del cristal, en corte X y corte Z. Finalizaremos con un último capítulo dedicado a las conclusiones, donde resumiremos los resultados que se han ido obteniendo en cada apartado desarrollado y daremos una visión conjunta de la investigación realizada. ABSTRACT The aim of this thesis is the research of the new concept of photovoltaic or optoelectronic tweezers, i.e., trapping, management and manipulation of particles in structures generated by photovoltaic felds or gradients on the surface of ferroelectric materials. Photovoltaic tweezers are a promising tool to trap and move the particles on the surface of a photovoltaic material in a monitored way. To take advantage of this new technique is necessary to know accurately the electric field created by a specifc illumination in the crystal surface and above it. For this purpose, the work was divided into the stages described below. The first stage consisted of modeling the photovoltaic field generated by inhomogeneous illumination in substrates and waveguides according to the one-center model. In the second stage, electrophoretic and dielectrophoretic fields and forces appearing on the surface of substrates and waveguides illuminated inhomogeneously were studied. In the third stage, the study of its effects on microparticles and nanoparticles took place. In particular, the trapping surface was studied identifying the conditions that allow its use as photovoltaic tweezers. In the fourth and fnal stage the most efficient configurations in terms of spatial resolution were studied. Different patterns of inhomogeneous illumination were tested, proposing lightning patterns to the laboratory team. To achieve these objectives calculation tools were developed to get all magnitudes temporarily involved in the problem . With these tools, the complex mechanisms of trapping can be simplified, obtaining the trapping pattern from a light pattern. All research was carried out in two configurations of crystal; in X section (trapping surface parallel to the optical axis) and Z section (trapping surface perpendicular to the optical axis). The differences in the results depending on the configuration of the crystal were deeply studied. All simulations and experiments were made using the same material as support, lithium niobate, LiNbO3, to facilitate the comparison of results. This fact does not mean a limitation in the results since the models are not limited to this material. Regarding the structure of this work, it is divided into three clearly differentiated sections, namely: Introduction (I), Electrophoretic and Dielectrophoretic Capture Modeling (II) and Numerical Simulations and Comparison Experiments (III). The frst section sets the foundations on which the rest of the sections will be based on. Electromagnetic and optical effects that will be referred in the remaining chapters are described, either as being necessary to explain experiments or, in other cases, to note the non-appearance of these effects for the present case and justify the simplification of the problem that is made in many cases. This section mainly describes the electrophoretic and dielectrophoretic trapping, the photovoltaic effect and the properties of lithium niobate as the material to use in experiments and simulations. Likewise, as required in this kind of researches, the state of the art have been analyzed, reviewing what other scientists working in this field have made and written so that serve as a foundation for research. With chapter 3 the first section finalizes describing the experimental techniques that are currently being used in laboratories for trapping particles by the photovoltaic effect, because according to the trapping technique in use we will get slightly different results. The section I I , which is dedicated to the trapping modeling, begins with Chapter 4 where the internal electric field of the sample is modeled, to continue modeling the electric field, potential and forces that are external to the sample. Chapter 5 presents a simple model to understand the problem addressed by us, which is called Steady-State Charge Separation Model. This model gives very good results despite its simplicity. In chapter 6 the equations involved in the internal physics of the sample are discretized by the finite difference method, which is developed in the Spatial Charge Distribution Model. To end this section, chapter 8 is dedicated to program the models presented in the previous chapters in order to provide us with tools to perform simulations in a fast way. In the last section, III, the results of numerical simulations with the developed tools are presented and compared with the experimental results. We can easily compare outcomes in the two configurations of the crystal, in section X and section Z. The final chapter collects the conclusions, summarizing the results that were obtained in previous sections and giving an overview of the research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Arquitectura industrial del tabaco en España está representada por dos tipos de construcciones, que corresponden a las dos fases en las que se divide el proceso de producción del tabaco: los secaderos (arquitectura bioclimática donde se realiza el secado), y las fábricas (centros donde se elabora el tabaco procedente de los secaderos). Las fábricas se repartieron por todo el territorio español, ocupando preferiblemente los lugares costeros, aunque existen casos en los que su localización obedecía a razones políticas. Estos edificios, en su mayoría, incluidos en los centros históricos de las ciudades, han cambiando de uso, y las antiguas fábricas de tabaco se han transformado en su mayoría, en centros de cultura, o centros sociales y representativos. La tesis surge del análisis de las características constructivas de la arquitectura industrial del tabaco: de los secaderos y de las fábricas, por tratarse de una tipología con suficiente entidad y un ejemplo de arquitectura bioclimática de producción en el caso de los secaderos, y por conseguir haberse adaptado a otros usos en el caso de las fábricas. La arquitectura de producción emplea un lenguaje acorde con los avances de la industrialización, anticipando materiales y estructuras, y condensando en una tipología específica las complejas relaciones establecidas entre producto, hombres y espacio. Estos edificios tuvieron una extensa implantación en el territorio, y se caracterizan por una serie de valores tecnológicos, arquitectónicos, sociológicos y paisajísticos, que hacen de ellos un documento de primera magnitud para conocer: la evolución e implantación de las técnicas constructivas (materiales y estructuras), los procesos de innovación tipológica y la estructura económica y procedimientos técnicos utilizados. El territorio en el que se insertan constituye su contexto territorial, por lo que no sería adecuado considerar estos edificios como elementos aislados, sin analizar la relación con el entorno en el que se generaron. Por este motivo, se analizan las condiciones higrotérmicas ambientales de los secaderos para compararlas con las de confort humano y establecer relaciones y parámetros compatibles. Los ejemplos analizados de secaderos son todos de fábrica. El uso del ladrillo como módulo principal para la elaboración de un edificio, supone la consideración de un “grado cero” de todo el aparato constructivo y compositivo de la arquitectura. Dejar el ladrillo visto, supone hacer explícitos todos los procesos acumulativos. Este elemento mínimo, permite unas posibilidades enormemente abiertas, pero no absolutamente aleatorias, que definen su propia lógica combinatoria. La exigencia de sinceridad, característica de la arquitectura industrial, en la exposición de los materiales, exhibiéndolos en su propia naturaleza y en el modo real de ser utilizados, se hace patente en este tipo de construcción. Se realiza un estudio de permeabilidad en las fachadas de los secaderos, para determinar el grado de ventilación y su relación con la orientación, el patrón de celosía empleado y el volumen total. Este sistema de acondicionamiento climático específico, puede servir de recurso a otras construcciones, por lo que se podría trasladar el sistema constructivo y formal de los secaderos a otros usos, desde una doble vertiente: Arquitectura para la adaptación climática al entorno. Arquitectura como generadora de condiciones climáticas específicas, en el interior. La utilidad de los secaderos es fundamentalmente: proporcionar sombra, ventilación y un espacio cubierto, pero permeable en sus fachadas. La arquitectura industrial debe ser reconocida dentro del conjunto patrimonial, debido a sus características propias que permiten su diferenciación del resto de la arquitectura. Conocer la estructura productiva permite analizar correctamente estas construcciones, ya que el programa inicial es básico para entender la organización del espacio interior. Las fábricas no se situaron cerca de las zonas de producción del tabaco, excepto en dos casos: Cádiz y Palazuelo, en los que existen secaderos y campos de cultivo de hoja de tabaco en las áreas cercanas. La principal causa de esta separación es que el proceso de obtención de tabaco es un proceso dividido en dos fases principales: proceso primario y proceso secundario. En el proceso primario la hoja de tabaco se seca en los secaderos, en los que es determinante el clima, pero únicamente en el caso del secado del tabaco al aire. En el proceso secundario sin embargo, el tabaco llega previamente tratado a las fábricas, por lo que no influye el clima en esta parte del proceso. Esta razón determina que en las áreas climáticas donde se centra el estudio, haya zonas en las que existen fábrica y secaderos y otras en las que únicamente existe fábrica, o sólo secaderos. La localización de las fábricas atendía a razones de muy diferente índole, las más importantes fueron: geográficas, estratégicas, y políticas. En la mayoría de las fábricas la elección de la ciudad de emplazamiento estaba ligada a la recepción de la materia prima, que principalmente se hacía por vía marítima, o acuática (el caso de Sevilla), y por vía terrestre, utilizando como medio de transporte el ferrocarril. Sólo dos casos, de las antiguas fábricas, corresponden a razones políticas, son las dos únicas que no están en la costa: Madrid y Logroño. La de Madrid se construyó por centralidad política, y porque geográficamente ocupaba el punto central de todas las comunicaciones terrestres por carretera y ferrocarril. Muchas de las fábricas se situaron cercanas a las estaciones de ferrocarril. La de Logroño atendió, sin embargo, a razones políticas. Para finalizar, se realiza un estudio comparativo de las fábricas de Sevilla, Madrid y San Sebastián. Las razones que justifican esta elección son: - La de Sevilla fue históricamente la primera fábrica y la más importante. - La de Madrid fue la más importante a nivel administrativo, la sede de Tabacalera se instaló en la capital, y después de la de Sevilla, fue la que sirvió de modelo al resto de las fábricas. - La de San Sebastián era la más grande del Norte. Los análisis que se han realizado son de: volumen y superficies de patios, superficies de cubierta, permeabilidad o huecos en fachadas, orientación y soleamiento de patios, distribución espacial interior y organización, y evolución de usos. Podemos observar que en la mayoría de estas fábricas ha habido una transformación en el uso, pasando de ser edificios industriales a edificios culturales. Estas construcciones se pueden considerar como infraestructuras adaptables, por ser útiles, sostenibles y funcionales. ABSTRACT The Spanish industrial architecture of tobacco is represented by two construction types that correspond to the two phases of tobacco production: the drying sheds (bioclimatic constructions where the drying process takes place) and factories (centres where tobacco is processed after the drying process). The factories were distributed throughout the Spanish territory, preferably occupying coastal locations, although some of them were located elsewhere following political reasons. Most of the buildings inside city centres have suffered changes in their use, becoming cultural, social or representative centres. This thesis attempts the analysis of the constructive systems employed in tobacco industrial architecture, from drying sheds to factories. The drying sheds are an example of bioclimatic industrial architecture. The factories are a typology that have successfully adapted to new uses. Industrial architecture uses a language that follows the advances in industrialization, anticipating new materials and structures, and merging the complex relationships established among products, human beings, space and locations. These buildings were promoted extensively in the country. They are characterized by technological architectural sociological and landscaping innovations. They are considered as important examples of the evolution and the implementation of construction techniques (building materials and structures). They are also considered as examples of innovation in the building typology, in their economic structure and in the technologies that they have applied. The settings in which the drying sheds are placed have an important influence in them. They cannot be considered as isolated elements. Instead, there is a close relationship between drying sheds and the surroundings in which they are located. Drying sheds’ hygrotermal and environmental conditions are analyzed in this thesis to compare them with the values of human comfort and find suitable relationships and parameters. All the drying sheds that have been analyzed are constructed with brick. This implies a consideration of “zero degree” for both the construction and the composition of the architectural process. The detailing - entails making all the accumulative processes explicit as the brick walls are left exposed. This minimal component allows a wide range of options that are never random but based on the logic of the way in which it is combined. The “sincerity” in the exposition of material, displaying them in their very nature and showing how they are really used, is a basic characteristic of industrial architecture, and it is even more expressive in these types of buildings. The walls of the drying sheds undergo a permeability assessment in order to determine the degree of ventilation and orientation, the lattice pattern used and the overall volume. This specific conditioning system can serve as a resource for other buildings, and consequently, it could be transferred to other uses within a two-pronged approach: -Climatically adapted architecture that takes into account the surroundings. -Architecture as a generator of specific climatic conditions indoors. Drying sheds’ main purposes / aims deal with how to provide shade, ventilation and a covered space as well as permeability. The industrial architecture must be recognized as historical valuable buildings due to its intrinsic and distinctive characteristics. Knowing the productive structure, allow us to make a proper analysis of these buildings, since the basic aim, is to understand the spatial organization indoors. Factories did not come close to the tobacco production, with the exception of Cádiz and Palazuelo, where there are sheds and tobacco croplands nearby. The main reason for this separation is that the process of obtaining tobacco has two processes: the primary process and the secondary process. In the primary process tobacco leaves are left to dry. In the secondary process, previously manufactured tobacco allocated in the factories where the weather conditions are not important. This fact determines that in the climate areas where this study tales place there are some cases in which we can find both factories and drying sheds, and others where there are either factories or drying sheds only. The location of these factories met various demands, being the most outstanding the ones related to geographic, strategic and political reasons. In most factories the choice of its location was often linked to the incoming of raw goods, mainly delivered through waterways –it is the case of Seville,) and by land, using railways. The location of the factories was linked to political reasons in only two cases Madrid and Logroño, which are the only ones that are not placed near the coast. The one in Madrid was built due to its political centrality and because geographically speaking, it was the reference landmark of means of land and rail transports. Many factories, in fact, were settled nearby rail stations. For the factory in Logroño, only political reasons were taken into consideration. I should like to close by undertaking a comparative study of factories in Seville, Madrid and San Sebastian. There are a number of reasons to substantiate this choice: -The factory in Seville was historically speaking the first that was built and the most important one. -The factory in Madrid was the most important one administratively. This factory was the headquarters as well as being, after Seville, the one which provided a model for other factories. -The factory in San Sebastian is the biggest in the North of Spain. The analysis carried out are related to the volume of the buildings and the surface areas of the courtyards, the surface of the roofs, the permeability of the walls and the openings of the façade, the orientation and the sun exposure, the indoor spatial distribution and organization and evolution of the uses (formerly and currently) I observe that in most of these factories there has been a change in the use of the buildings, from industrial cultural purposes. These buildings can be considered as adaptable infrastructures based on a combination of architectural practicability, sustainability and functionality.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La revolución industrial, en todas sus etapas, supuso un cambio que afectó de lleno a la actividad comercial en la ciudad, produciéndose paulatinamente, una separación radical entre los lugares de producción de bienes manufacturados y los de intercambio. Estos últimos, van especializándose, desde las primeras agrupaciones de comercios en pequeños mercados, hasta una de las formas más evolucionadas de superficie comercial en la actualidad, los Parques Comerciales. En base a que actualmente, no hay estudios concluyentes sobre la manera de abordar estos nuevos espacios, se ha considerado el estudio de 17 Parques Comerciales representativos españoles, de este se han obtenido datos según su planeamiento, de los cuales se ha postulado una división de los Parques Comerciales en los que tienen ordenación exclusiva y los que se han desarrollado sin ordenación exclusiva, de la misma manera, se han dividido cada uno de ellos en los que se considera parcela de aparcamiento y en los que la parcela de aparcamiento está incluida en la parcela a edificar, de este manera se han obtenido unos parámetros de dimensionamiento representativos para cada uno de los casos considerados, que van a servir de orientación para el responsable de futuros planeamientos, tales como usos, parámetros de ordenación, distribución urbanística, aparcamientos, etc. También se realiza una clasificación de los Parques Comerciales en función de las dimensiones de las "medianas comerciales" que los corforman. La Tesis postula una nueva definición de Parque Comercial más completa y adaptada a la importancia de este formato comercial, así como unas recomendaciones para su diseño y desarrollo en base a los parámetros urbanísticos obtenidos. Se desarrolla en la Tesis el horizonte previsible de los Parques Comerciales y las posibles nuevas líenas de investigación. The industrial revolution, in all its stages, marked a change that would have a major impact on commercial activity in cities, gradually producing a radical separation between the production sites of manufacturated goods and those of trading goods. The latter are becoming increasingly specialized, from the first trade associations in small markets, up to what is now one of the most highly evolved forms of retail spaces, the Commercial Parks. On the grounds that there are currently no conclusive studies on the manner in which to address these new spaces, a study of 17 prominent Spanish Commercial Parks has been considered, from which data has been obtained based on the way in which they were planned. It has been proposed that these Commercial Parks be divided into those that have been developed without exclusive planning. Likewise, each of these has been divided into those considered as parking lots and those in which the parking area is included in the building plot. In this manner, representative sizing parameters have been obtained for each of the cases considered, which will act as guidelines for the person in charge of future proposals, such as uses, development parameters, town planning, parking, etc. The Commercial Parks have also been classified according to the sizes of the "mid-sized stores" that comprise them. The Thesis proposes a new definition of the Commercial Park, which is more comprehensive and better adapted to the importance of this commercial format, as well as recommendations for design and development based on the urban planning parameters obtained. The Thesis explores the foresseable horizon of Commercial Parks and potential new lines of research.