75 resultados para Special Driver Control Equipment Requirements.
Resumo:
Both in industry and research, the quality control of micrometric manufactured parts is based on the measurement of parameters whose traceability is sometimes difficult to guarantee. In some of these parts, the confocal microscopy shows great aptitudes to characterize a measurand qualitatively and quantitatively. The confocal microscopy allows the acquisition of 2D and 3D images that are easily manipulated. Nowadays, this equipment is manufactured by many different brands, each of them claiming a resolution probably not in accord to their real performance. The Laser Center (Technical University of Madrid) has a confocal microscope to verify the dimensions of the micro mechanizing in their own research projects. The present study pretends to confirm that the magnitudes obtained are true and reliable. To achieve this, a methodology for confocal microscope calibration is proposed, as well as an experimental phase for dimensionally valuing the equipment by 4 different standard positions, with its seven magnifications and the six objective lenses that the equipment currently has, in the x–y and z axis. From the results the uncertainty will be estimated along with an effect analysis of the different magnifications in each of the objective lenses.
Resumo:
Entre los años 2004 y 2007 se hundieron por problemas de estabilidad cinco pesqueros españoles de pequeña eslora, de características parecidas, de relativamente poca edad, que habían sido construidos en un intervalo de pocos años. La mayoría de los tripulantes de esos pesqueros fallecieron o desaparecieron en esos accidentes. Este conjunto de accidentes tuvo bastante repercusión social y mediática. Entre ingenieros navales y marinos del sector de la pesca se relacionó estos accidentes con los condicionantes a los diseños de los pesqueros impuestos por la normativa de control de esfuerzo pesquero. Los accidentes fueron investigados y publicados sus correspondientes informes; en ellos no se exploró esta supuesta relación. Esta tesis pretende investigar la relación entre esos accidentes y los cambios de la normativa de esfuerzo pesquero. En la introducción se expone la normativa de control de esfuerzo pesquero analizada, se presentan datos sobre la estructura de la flota pesquera en España y su accidentalidad, y se detallan los criterios de estabilidad manejados durante el trabajo, explicando su relación con la seguridad de los pesqueros. Seguidamente se realiza un análisis estadístico de la siniestralidad en el sector de la pesca para establecer si el conjunto de accidentes estudiados supone una anomalía, o si por el contrario el conjunto de estos accidentes no es relevante desde el punto de vista estadístico. Se analiza la siniestralidad a partir de diversas bases de datos de buques pesqueros en España y se concluye que el conjunto de accidentes estudiados supone una anomalía estadística, ya que la probabilidad de ocurrencia de los cinco sucesos es muy baja considerando la frecuencia estimada de pérdidas de buques por estabilidad en el subsector de la flota pesquera en el que se encuadran los cinco buques perdidos. A continuación el trabajo se centra en la comparación de los buques accidentados con los buques pesqueros dados de baja para construir aquellos, según exige la normativa de control de esfuerzo pesquero; a estos últimos buques nos referiremos como “predecesores” de los buques accidentados. Se comparan las dimensiones principales de cada buque y de su predecesor, resultando que los buques accidentados comparten características de diseño comunes que son sensiblemente diferentes en los buques predecesores, y enlazando dichas características de diseño con los requisitos de la nueva normativa de control del esfuerzo pesquero bajo la que se construyeron estos barcos. Ello permite establecer una relación entre los accidentes y el mencionado cambio normativo. A continuación se compara el margen con que se cumplían los criterios reglamentarios de estabilidad entre los buques accidentados y los predecesores, encontrándose que en cuatro de los cinco casos los predecesores cumplían los criterios de estabilidad con mayor holgura que los buques accidentados. Los resultados obtenidos en este punto permiten establecer una relación entre el cambio de normativa de esfuerzo pesquero y la estabilidad de los buques. Los cinco buques accidentados cumplían con los criterios reglamentarios de estabilidad en vigor, lo que cuestiona la relación entre esos criterios y la seguridad. Por ello se extiende la comparativa entre pesqueros a dos nuevos campos relacionados con la estabilidad y la seguridad delos buques: • Movimientos a bordo (operatividad del buque), y • Criterios de estabilidad en condiciones meteorológicas adversas El estudio de la operatividad muestra que los buques accidentados tenían, en general, una mayor operatividad que sus predecesores, contrariamente a lo que sucedía con el cumplimiento de los criterios reglamentarios de estabilidad. Por último, se comprueba el desempeño de los diez buques en dos criterios específicos de estabilidad en caso de mal tiempo: el criterio IMO de viento y balance intenso, y un criterio de estabilidad de nueva generación, incluyendo la contribución original del autor de considerar agua en cubierta. Las tendencias observadas en estas dos comparativas son opuestas, lo que permite cuestionar la validez del último criterio sin un control exhaustivo de los parámetros de su formulación, poniendo de manifiesto la necesidad de más investigaciones sobre ese criterio antes de su adopción para uso regulatorio. El conjunto de estos resultados permite obtener una serie de conclusiones en la comparativa entre ambos conjuntos de buques pesqueros. Si bien los resultados de este trabajo no muestran que la aprobación de la nueva normativa de esfuerzo pesquero haya significado una merma general de seguridad en sectores enteros de la flota pesquera, sí se concluye que permitió que algunos diseños de buques pesqueros, posiblemente en busca de la mayor eficiencia compatible con dicha normativa, quedaran con una estabilidad precaria, poniendo de manifiesto que la relación entre seguridad y criterios de estabilidad no es unívoca, y la necesidad de que éstos evolucionen y se adapten a los nuevos diseños de buques pesqueros para continuar garantizando su seguridad. También se concluye que la estabilidad es un aspecto transversal del diseño de los buques, por lo que cualquier reforma normativa que afecte al diseño de los pesqueros o su forma de operar debería estar sujeta a evaluación por parte de las autoridades responsables de la seguridad marítima con carácter previo a su aprobación. ABSTRACT Between 2004 and 2007 five small Spanish fishing vessels sank in stability related accidents. These vessels had similar characteristics, had relatively short age, and had been built in a period of a few years. Most crewmembers of these five vessels died or disappeared in those accidents. This set of accidents had significant social and media impact. Among naval architects and seamen of the fishing sector these accidents were related to the design constraints imposed by the fishing control effort regulations. The accidents were investigated and the official reports issued; this alleged relationship was not explored. This thesis aims to investigate the relationship between those accidents and changes in fishing effort control regulations. In the introduction, the fishing effort control regulation is exposed, data of the Spanish fishing fleet structure and its accident rates are presented, and stability criteria dealt with in this work are explained, detailing its relationship with fishing vessel safety. A statistical analysis of the accident rates in the fishing sector in Spain is performed afterwards. The objective is determining whether the set of accidents studied constitute an anomaly or, on the contrary, they are not statistically relevant. Fishing vessels accident rates is analyzed from several fishing vessel databases in Spain. It is concluded that the set of studied accidents is statistically relevant, as the probability of occurrence of the five happenings is extremely low, considering the loss rates in the subsector of the Spanish fishing fleet where the studied vessels are fitted within. From this point the thesis focuses in comparing the vessels lost and the vessels that were decommissioned to build them as required by the fishing effort control regulation; these vessels will be referred to as “predecessors” of the sunk vessels. The main dimensions between each lost vessel and her predecessor are compared, leading to the conclusion that the lost vessels share design characteristics which are sensibly different from the predecessors, and linking these design characteristics with the requirements imposed by the new fishing control effort regulations. This allows establishing a relationship between the accidents and this regulation change. Then the margin in fulfilling the regulatory stability criteria among the vessels is compared, resulting, in four of the five cases, that predecessors meet the stability criteria with greater clearance than the sunk vessels. The results obtained at this point would establish a relationship between the change of fishing effort control regulation and the stability of vessels. The five lost vessels complied with the stability criteria in force, so the relation between these criteria and safety is put in question. Consequently, the comparison among vessels is extended to other fields related to safety and stability: • Motions onboard (operability), and • Specific stability criteria in rough weather The operability study shows that the lost vessels had in general greater operability than their predecessors, just the opposite as when comparing stability criteria. Finally, performance under specific rough weather stability criteria is checked. The criteria studied are the IMO Weather Criterion, and one of the 2nd generation stability criteria under development by IMO considering in this last case the presence of water on deck, which is an original contribution by the author. The observed trends in these two cases are opposite, allowing to put into question the last criterion validity without an exhaustive control of its formulation parameters; indicating that further research might be necessary before using it for regulatory purposes. The analysis of this set of results leads to some conclusions when comparing both groups of fishing vessels. While the results obtained are not conclusive in the sense that the entry into force of a new fishing effort control in 1998 caused a generalized safety reduction in whole sectors of the Spanish fishing fleet, it can be concluded that it opened the door for some vessel designs resulting with precarious stability. This evidences that the relation between safety and stability criteria is not univocal, so stability criteria needs to evolve for adapting to new fishing vessels designs so their safety is still guaranteed. It is also concluded that stability is a transversal aspect to ship design and operability, implying that any legislative reform affecting ship design or operating modes should be subjected to assessing by the authorities responsible for marine safety before being adopted.
Resumo:
Las infraestructuras de telecomunicaciones son las que forman la capa física para la transmisión de la información de la que se componen las comunicaciones. Según el modelo OSI la capa física se encarga de convertir la trama que recibe (del nivel de enlace) en una serie de bits que envía a través del medio de transmisión correspondiente hacia el sistema destino, liberando a la capa superior de las funciones que imponga la naturaleza particular del medio de transmisión que se utilice. Para ello define las características mecánicas, eléctricas y funcionales de la interconexión al medio físico estableciendo además una interfaz con su capa superior (el nivel de enlace). Dependiendo del medio y el modo de transmisión así como de la topología de la red, el tipo de codificación y configuración de la línea y el tipo de comunicación deseada se requiere de un equipamiento u otro, por lo que la infraestructura de comunicaciones cambia. La complejidad de las redes de comunicaciones (multitud de servicios a multitud de destinos) hace que la gestión de la capa física (o de infraestructura) de las comunicaciones sea un reto difícil para los gestores de las telecomunicaciones en las empresas u organismos públicos. Ya que conseguir una correcta administración de las infraestructuras de telecomunicaciones es un factor clave para garantizar la calidad del servicio, optimizar los tiempos de provisión a los clientes y minimizar la indisponibilidad de la red ante incidencias. Si bien existen diferentes herramientas para la gestión de las telecomunicaciones la mayoría de estas soluciones contempla de manera limitada la capa física, dejando a los gestores con una multitud de aproximaciones, más o menos manuales, para entender y conocer qué pasa en su red a nivel físico y lo que puede ser aún más grave, sin la capacidad de reacción rápida ante la aparición de una incidencia. Para resolver este problema se hace necesaria la capacidad de gestión extremo a extremo de los circuitos y de todas sus conexiones intermedias. Esto es, se necesita implantar una metodología que modele la red de comunicaciones de manera que se pueda representar en un sistema informático y sobre él facilitar la gestión de los circuitos físicos y de sus infraestructuras asociadas. Por ello, la primera parte del proyecto consistirá en la descripción del tipo de infraestructura de telecomunicaciones a gestionar, el estudio de las soluciones actuales de gestión de red y el análisis de las estrategias que se están considerando para permitir la gestión de la capa física. La segunda parte estará dedicada a la definición de una metodología para la representación de la capa física en un sistema informático, de manera que se proporcione una solución completa a las organizaciones para la gestión eficaz de su infraestructura de telecomunicaciones. Y la tercera parte se centrará en la realización de un ejemplo real (piloto) de implantación de esta metodología para un proyecto concreto de una red de comunicaciones. Con objeto de mostrar las prestaciones de la solución propuesta. ABSTRACT. Telecommunications infrastructures have the physical layer component for the transfer of data. As defined in OSI model the physical layer performs the conversion of data received to binary digits which are sent through the transmission devices towards the target system, thus freeing the top layer from defining the functional specifics of each device used. This requires the full definition of the mechanical, electrical and functional features within the physical environment and the implementation of an interface with the top layer. Dependencies on the environment and the transmission modes as well as the network’s topology, the type of protocol and the line’s configuration and the type of communication selected provide specific requirements which define the equipment needed. This may also require changes in the communications environment. Current networks’ complexity (many different types of services to many nodes) demand an efficient management of the physical layer and the infrastructure in enterprises and the public sector agencies thus becoming a challenging task to the responsible for administering the telecommunications infrastructure which is key to provide high quality of service with the need to avoid any disruption of service. We have in the market different tools supporting telecommunications management but most of these solutions have limited functionality for the physical layer, leaving to administrators with the burden of executing manual tasks which need to be performed in order to attain the desired level of control which facilitates the decision process when incidents occur. An adequate solution requires an end to end capacity management of the circuits and all intermediate connections. We must implement a methodology to model the communications network to be able of representing an entire IT system to manage circuitry and associated infrastructure components. For the above purpose, the first part of the Project includes a complete description of the type of communications infrastructure to manage, the study of the current solutions available in network management and an analysis of the strategies in scope for managing the physical layer. The second part is dedicated to the definition of a methodology for the presentation of the physical layer in an IT system with the objective of providing a complete solution to the responsible staffs for efficiently managing a telecommunications infrastructure. The third part focuses on the deployment of a pilot using this methodology in a specific project performed on a communications network. Purpose is to show the deliverables of the proposed solution.
Diseño de algoritmos de guerra electrónica y radar para su implementación en sistemas de tiempo real
Resumo:
Esta tesis se centra en el estudio y desarrollo de algoritmos de guerra electrónica {electronic warfare, EW) y radar para su implementación en sistemas de tiempo real. La llegada de los sistemas de radio, radar y navegación al terreno militar llevó al desarrollo de tecnologías para combatirlos. Así, el objetivo de los sistemas de guerra electrónica es el control del espectro electomagnético. Una de la funciones de la guerra electrónica es la inteligencia de señales {signals intelligence, SIGINT), cuya labor es detectar, almacenar, analizar, clasificar y localizar la procedencia de todo tipo de señales presentes en el espectro. El subsistema de inteligencia de señales dedicado a las señales radar es la inteligencia electrónica {electronic intelligence, ELINT). Un sistema de tiempo real es aquel cuyo factor de mérito depende tanto del resultado proporcionado como del tiempo en que se da dicho resultado. Los sistemas radar y de guerra electrónica tienen que proporcionar información lo más rápido posible y de forma continua, por lo que pueden encuadrarse dentro de los sistemas de tiempo real. La introducción de restricciones de tiempo real implica un proceso de realimentación entre el diseño del algoritmo y su implementación en plataformas “hardware”. Las restricciones de tiempo real son dos: latencia y área de la implementación. En esta tesis, todos los algoritmos presentados se han implementado en plataformas del tipo field programmable gate array (FPGA), ya que presentan un buen compromiso entre velocidad, coste total, consumo y reconfigurabilidad. La primera parte de la tesis está centrada en el estudio de diferentes subsistemas de un equipo ELINT: detección de señales mediante un detector canalizado, extracción de los parámetros de pulsos radar, clasificación de modulaciones y localization pasiva. La transformada discreta de Fourier {discrete Fourier transform, DFT) es un detector y estimador de frecuencia quasi-óptimo para señales de banda estrecha en presencia de ruido blanco. El desarrollo de algoritmos eficientes para el cálculo de la DFT, conocidos como fast Fourier transform (FFT), han situado a la FFT como el algoritmo más utilizado para la detección de señales de banda estrecha con requisitos de tiempo real. Así, se ha diseñado e implementado un algoritmo de detección y análisis espectral para su implementación en tiempo real. Los parámetros más característicos de un pulso radar son su tiempo de llegada y anchura de pulso. Se ha diseñado e implementado un algoritmo capaz de extraer dichos parámetros. Este algoritmo se puede utilizar con varios propósitos: realizar un reconocimiento genérico del radar que transmite dicha señal, localizar la posición de dicho radar o bien puede utilizarse como la parte de preprocesado de un clasificador automático de modulaciones. La clasificación automática de modulaciones es extremadamente complicada en entornos no cooperativos. Un clasificador automático de modulaciones se divide en dos partes: preprocesado y el algoritmo de clasificación. Los algoritmos de clasificación basados en parámetros representativos calculan diferentes estadísticos de la señal de entrada y la clasifican procesando dichos estadísticos. Los algoritmos de localization pueden dividirse en dos tipos: triangulación y sistemas cuadráticos. En los algoritmos basados en triangulación, la posición se estima mediante la intersección de las rectas proporcionadas por la dirección de llegada de la señal. En cambio, en los sistemas cuadráticos, la posición se estima mediante la intersección de superficies con igual diferencia en el tiempo de llegada (time difference of arrival, TDOA) o diferencia en la frecuencia de llegada (frequency difference of arrival, FDOA). Aunque sólo se ha implementado la estimación del TDOA y FDOA mediante la diferencia de tiempos de llegada y diferencia de frecuencias, se presentan estudios exhaustivos sobre los diferentes algoritmos para la estimación del TDOA, FDOA y localización pasiva mediante TDOA-FDOA. La segunda parte de la tesis está dedicada al diseño e implementación filtros discretos de respuesta finita (finite impulse response, FIR) para dos aplicaciones radar: phased array de banda ancha mediante filtros retardadores (true-time delay, TTD) y la mejora del alcance de un radar sin modificar el “hardware” existente para que la solución sea de bajo coste. La operación de un phased array de banda ancha mediante desfasadores no es factible ya que el retardo temporal no puede aproximarse mediante un desfase. La solución adoptada e implementada consiste en sustituir los desfasadores por filtros digitales con retardo programable. El máximo alcance de un radar depende de la relación señal a ruido promedio en el receptor. La relación señal a ruido depende a su vez de la energía de señal transmitida, potencia multiplicado por la anchura de pulso. Cualquier cambio hardware que se realice conlleva un alto coste. La solución que se propone es utilizar una técnica de compresión de pulsos, consistente en introducir una modulación interna a la señal, desacoplando alcance y resolución. ABSTRACT This thesis is focused on the study and development of electronic warfare (EW) and radar algorithms for real-time implementation. The arrival of radar, radio and navigation systems to the military sphere led to the development of technologies to fight them. Therefore, the objective of EW systems is the control of the electromagnetic spectrum. Signals Intelligence (SIGINT) is one of the EW functions, whose mission is to detect, collect, analyze, classify and locate all kind of electromagnetic emissions. Electronic intelligence (ELINT) is the SIGINT subsystem that is devoted to radar signals. A real-time system is the one whose correctness depends not only on the provided result but also on the time in which this result is obtained. Radar and EW systems must provide information as fast as possible on a continuous basis and they can be defined as real-time systems. The introduction of real-time constraints implies a feedback process between the design of the algorithms and their hardware implementation. Moreover, a real-time constraint consists of two parameters: Latency and area of the implementation. All the algorithms in this thesis have been implemented on field programmable gate array (FPGAs) platforms, presenting a trade-off among performance, cost, power consumption and reconfigurability. The first part of the thesis is related to the study of different key subsystems of an ELINT equipment: Signal detection with channelized receivers, pulse parameter extraction, modulation classification for radar signals and passive location algorithms. The discrete Fourier transform (DFT) is a nearly optimal detector and frequency estimator for narrow-band signals buried in white noise. The introduction of fast algorithms to calculate the DFT, known as FFT, reduces the complexity and the processing time of the DFT computation. These properties have placed the FFT as one the most conventional methods for narrow-band signal detection for real-time applications. An algorithm for real-time spectral analysis for user-defined bandwidth, instantaneous dynamic range and resolution is presented. The most characteristic parameters of a pulsed signal are its time of arrival (TOA) and the pulse width (PW). The estimation of these basic parameters is a fundamental task in an ELINT equipment. A basic pulse parameter extractor (PPE) that is able to estimate all these parameters is designed and implemented. The PPE may be useful to perform a generic radar recognition process, perform an emitter location technique and can be used as the preprocessing part of an automatic modulation classifier (AMC). Modulation classification is a difficult task in a non-cooperative environment. An AMC consists of two parts: Signal preprocessing and the classification algorithm itself. Featurebased algorithms obtain different characteristics or features of the input signals. Once these features are extracted, the classification is carried out by processing these features. A feature based-AMC for pulsed radar signals with real-time requirements is studied, designed and implemented. Emitter passive location techniques can be divided into two classes: Triangulation systems, in which the emitter location is estimated with the intersection of the different lines of bearing created from the estimated directions of arrival, and quadratic position-fixing systems, in which the position is estimated through the intersection of iso-time difference of arrival (TDOA) or iso-frequency difference of arrival (FDOA) quadratic surfaces. Although TDOA and FDOA are only implemented with time of arrival and frequency differences, different algorithms for TDOA, FDOA and position estimation are studied and analyzed. The second part is dedicated to FIR filter design and implementation for two different radar applications: Wideband phased arrays with true-time delay (TTD) filters and the range improvement of an operative radar with no hardware changes to minimize costs. Wideband operation of phased arrays is unfeasible because time delays cannot be approximated by phase shifts. The presented solution is based on the substitution of the phase shifters by FIR discrete delay filters. The maximum range of a radar depends on the averaged signal to noise ratio (SNR) at the receiver. Among other factors, the SNR depends on the transmitted signal energy that is power times pulse width. Any possible hardware change implies high costs. The proposed solution lies in the use of a signal processing technique known as pulse compression, which consists of introducing an internal modulation within the pulse width, decoupling range and resolution.
Resumo:
Las normativas que regulan la seguridad de las presas en España han recogido la necesidad de conocer los desplazamientos y deformaciones de sus estructuras y cimientos. A día de hoy, son muchas las presas en explotación que no cuentan con un sistema de auscultación adecuado para controlar este tipo de variables, ya que la instalación de métodos clásicos de precisión en las mismas podría no ser viable técnicamente y, de serlo, supondría un coste económico importante y una dudosa garantía del proceso de ejecución de la obra civil correspondiente. Con el desarrollo de las nuevas tecnologías, la informática y las telecomunicaciones, han surgido nuevos sistemas de auscultación de desplazamientos. Los sistemas GPS actuales, diseñados para el control de estructuras, guiado de maquinaria, navegación y topografía, estabilidad de taludes, subsidencias, etc. permiten alcanzar precisiones centimétricas. El sistema de control de movimientos basado en la tecnología DGPS (GPS diferencial) combinada con un filtro estadístico con el que se alcanzan sensibilidades de hasta ±1 mm en el sistema, suficientes para una auscultación normal de presas según los requerimientos de la normativa actual. Esta exactitud se adapta a los desplazamientos radiales de las presas, donde son muy comunes valores de amplitudes en coronación de hasta 15 mm en las de gravedad y de hasta 45 mm en el caso de las presas bóveda o arco. La presente investigación tiene por objetivo analizar la viabilidad del sistema DGPS en el control de movimientos de presas de hormigón comparando los diferentes sistemas de auscultación y su correlación con las variables físicas y las vinculadas al propio sistema GPS diferencial. Ante la necesidad de dar respuesta a estas preguntas y de validar e incorporar a la mencionada tecnología en la ingeniería civil en España, se ha llevado a cabo un estudio de caso en La Aceña (Ávila). Esta es una de las pocas presas españolas que se está controlando con dicha tecnología y de forma simultánea con los sistemas clásicos de auscultación y algunos otros de reciente aplicación La presente investigación se ha organizado con idea de dar respuesta a varias preguntas que el explotador de presas se plantea y que no se analizan en el estado del arte de la técnica: cómo hacer la configuración espacial del sistema y cuáles son los puntos necesarios que se deben controlar, qué sistemas de comunicaciones son los más fiables, cuáles son los costes asociados, calibración del software, vida útil y mantenimientos requeridos, así como la posibilidad de telecontrolar los datos. Entre las ventajas del sistema DGPS, podemos señalar su bajo coste de implantación y posibilidad de controlarlo de forma remota, así como la exactitud y carácter absoluto de los datos. Además, está especialmente indicado para presas aisladas o mal comunicadas y para aquellas otras en las que el explotador no tiene referencia alguna de la magnitud de los desplazamientos o deformaciones propias de la presa en toda su historia. Entre los inconvenientes de cualquier sistema apoyado en las nuevas tecnologías, destaca la importancia de las telecomunicaciones ya sea en el nivel local en la propia presao desde su ubicación hasta el centro de control de la explotación. Con la experiencia alcanzada en la gestión de la seguridad de presas y sobre la base de la reciente implantación de los nuevos métodos de auscultación descritos, se ha podido analizar cada una de sus ventajas e inconvenientes. En el capítulo 5, se presenta una tabla de decisión para el explotador que servirá como punto de partida para futuras inversiones. El impacto de esta investigación se ha visto reflejado en la publicación de varios artículos en revistas indexadas y en el debate suscitado entre gestores y profesionales del sector en los congresos nacionales e internacionales en los que se han presentado resultados preliminares. All regulations on the safety of dams in Spain have collected the need to know the displacements and deformations of the structure and its foundation. Today there are many dams holding not have an adequate system of auscultation to control variables such as the installation of classical methods of precision in the same might not be technically feasible, and if so, would cost important economic and guarantee the implementation process of the dubious civil works. With the development of new technologies, computing and telecommunications, new displacements auscultation systems have emerged. Current GPS systems designed to control structures, machine guidance, navigation and topography, slope stability, subsidence, etc, allow to reach centimeter-level accuracies. The motion control system based on DGPS technology applies a statistical filter that sensitivities are achieved in the system to ± 1 mm, sufficient for normal auscultation of dams as required by current regulations. This accuracy is adapted to the radial displacement of dams, which are common values in coronation amplitudes up to 15 mm in gravity dams and up to 45 mm in arch or arc dams. This research aims to analyze the feasibility of DGPS system in controlling movements of concrete dams, comparing the different systems auscultation and its correlation with physical variables and linked to differential GPS system itself. Given the need to answer this question and to validate and incorporate this technology to civil engineering in Spain, has conducted a case study in real time at the dam La Aceña (Ávila). This dam is one of the few Spanish companies, which are controlling with this technology and simultaneously with the classic auscultation systems and some other recent application. This research has been organized with a view to responding to questions that the dam operator arises and in the state of the art technique not discussed: how to make spatial configuration of the system and what are the necessary control points what communication systems are the most reliable, what are the associated costs, calibration software, service life and maintenance requirements, possibility of monitoring, etc. Among the advantages we can point to its low cost of implementation, the possibility of remote, high accuracy and absolute nature of the data. It could also be suitable for those isolated or poorly communicated dams and those in which the operator has no reference to the magnitude of displacements or deformations own prey in its history. The disadvantages of any system based on the new technologies we highlight the importance of telecommunications, either locally or from this dam control center of the farm. With the experience gained in the management of dam safety and based on the recent introduction of new methods of auscultation described, it has been possible to analyze each of their advantages and disadvantages. A decision table for the operator, which will serve as a starting point for future investments is presented. The impact of research, has been reflected in the publication of several articles in refereed journals and discussion among managers and professionals in national and international conferences in which they participated.
Resumo:
Permanent displacements of a gas turbine founded on a fine, poorly graded, and medium density sand are studied. The amplitudes and modes of vibration are computed using Barkan´s formulation, and the “High-Cycle Accumulation” (HCA) model is employed to account for accumulated deformations due to the high number of cycles. The methodology is simple: it can be easily incorporated into standard mathematical software, and HCA model parameters can be estimated based on granulometry and index properties. Special attention is devoted to ‘transient’ situations at equipment´s start-up, during which a range of frequencies – including frequencies that could be similar to the natural frequencies of the ground – is traversed. Results show that such transient situations could be more restrictive than stationary situations corresponding to normal operation. Therefore, checking the stationary situation only might not be enough, and studying the influence of transient situations on computed permanent displacements is needed to produce a proper foundation design
Resumo:
La emisión de polvo por efecto del viento desde depósitos de residuos mineros o industriales y el paso de vehículos en vías no pavimentadas, es un problema que afecta las actividades productivas; el ambiente y la salud de las personas que permanecen en el área contaminada. En Chile, en los últimos años la sensibilidad social y las exigencias ambientales han aumentado, así como la oferta de diferentes supresores y tecnologías de aplicación. Se han revisado las causas que provocan emisión de polvo y las tecnologías disponibles en Chile para la supresión de polvo, además de las metodologías y normativa para evaluar el desempeño de los materiales tratados con diferentes supresores. En algunos casos no es posible comparar propiedades de desempeño, como durabilidad, dosis a aplicar y frecuencia de las aplicaciones, entre otros aspectos. Los procedimientos descritos en la norma NCh3266-2012 permiten evaluar la erosión eólica en depósitos de residuos, sitios eriazos y caminos no pavimentados, entre otros, junto con evaluar el desempeño de diferentes tipos de supresores de polvo a partir de datos objetivos comparables. Esto permite seleccionar el supresor más adecuado, mejorar la eficiencia de los tratamientos, optimizar los costos y mejorar los procesos productivos. Palabras clave: Erosión-eólica, supresor de polvo, residuos-mineros, caminos-no pavimentados. Dust emissions by wind effect from mining deposits or industrial waste and passing vehicles on unpaved roads, is a problem that affects the productive activities; the environment and the health of those who remain in the contaminated area. The social sensitivity and environmental requirements on this issue in Chile have increased, as well as offering different suppressors and application technologies. Have been reviewed the causes of dust emission and technologies available in Chile for dust suppression, plus methodologies and standards for assessing the performance of the treated materials with different suppressors. In some cases it is not possible to compare performance properties such as durability, application dose and frequency of applications, among others aspects. The procedures described in the NCh 3266-2012 standard allows the assessment of wind erosion in waste deposits, vacant lots and unpaved roads, among others, along with evaluating the performance of different types of dust suppressants from comparable objective data. This allows selecting the most suitable suppressor, improve efficiency of treatments, optimize costs and improve production processes. Keywords: Wind-erosion, dust-suppressor, mining-waste, unpavedroads
Resumo:
El proyecto tiene por objeto la realización de los estudios técnicos, económicos y de mercado necesarios para definir la estrategia de creación de un Centro Tecnológico en Puertollano (Ciudad Real), ya que no existe en Castilla-La Mancha y tampoco en España un Laboratorio de estas características que trate conjuntamente campos muy demandados por los sectores de las Energías Renovables y la Industria Energética, lo que potenciará en un futuro inmediato un importante campo de negocio. Con el propósito de tener una estrategia adecuada en el desarrollo e implantación de este Centro se ha realizado un estudio de la optimización de los servicios a prestar mediante la implantación de Sistemas de Gestión de Calidad y Sistemas de Gestión de Actividades de Investigación, Desarrollo e Innovación (I+D+I) en relación con la actividad del negocio y fomentar en este aspecto la colaboración de las Administraciones y Universidades. El déficit en la competitividad de la economía española afecta a los conceptos íntimamente ligados de calidad y seguridad. Las exigencias cada vez mayores de seguridad y controles metrológicos de normativas europeas en el uso de energías, combustibles e industria, prevén un horizonte muy interesante para los servicios colaterales del Control de Calidad. ABSTRACT The main objetive of this project is to make a technical, economical and marketing study to define the creation strategy of a Technological Centre in Puertollano (Ciudad Real), since there is none in Castilla-La Mancha, or in Spain. Such laboratory would jointly manage fields of high demand by the Renevable Energy Industry sectors, that would enable the development of an important business field. With the purpose of having an appropriate strategy for the development and implementation of this centre, a service optimization study has been made, using the Quality Management Investigation, and ID Systems. This is related to business activities and seeks to foment the colaboration with the Administration and universities. The competitiviness déficit of the Spanish Economy, affects some closely related concepts of quality and security. The constantly growing requirements of security and metrological controls, due to energy, fuel and industry european laws, anticípate an interesting progress for the colateral services of Quality Control.
Resumo:
El objetivo de este proyecto es la creación de un modelo de gestión y control de la integridad de pozo, basado en el seguimiento de la operación y el análisis de su diseño y construcción. Para ello se diseña una herramienta tecnológica que permita disponer de la información necesaria y gestionarla según estándares internacionales. En la fase inicial del proyecto se realizó una revisión bibliográfica de los estudios más relevantes sobre integridad de pozos, tanto de la asociación SPE (Society of Petroleum Engineers), de Universidades de Noruega y México, o de empresas como ECOPETROL, con el fin entrar en el contexto y analizar antecedentes de modelos y herramientas similares. En segundo lugar se ha realizado un estudio de las bases de datos, comenzando por un análisis de los estándares de PPDM (The Professional Petroleum Data Management Association) sobre los que se realiza la herramienta y se ha seleccionado la base de datos que más se adecua a la herramienta, considerando Access como la mejor opción por ser de fácil acceso e incorporar el módulo de informes. Para la creación de la solución se diseñó un modelo de datos, condicionado por los requisitos de integridad de pozos de la normativa noruega NORSOK D-010 y de la guía de recomendaciones para la integridad de pozos de la asociación de petróleo y gas de Noruega. La materialización de este modelo se realizó mediante la creación de una base de datos en la plataforma Access, y empleando lenguaje propio de Access combinado con programación SQL. Una vez definido y construido el modelo de datos, es posible crear una capa de visualización de la información. Para ello se define un informe de estado de pozo. Este informe será visible por el usuario según sus roles y responsabilidades. ABSTRACT The objective of this project is to create a model for managing and controlling the well integrity. It is based on the monitoring of the operation and the analysis of its design and construction. Therefore a technological tool is designed; to allow having the necessary information and to manage it according to international standards. At the beginning of the project, a literature review of the most relevant studies on well integrity was performed. It was made to enter into context and to analyze the history of the models and available similar tools. It included texts from the association SPE (Society of Petroleum Engineers), universities from Norway and Mexico, and companies like ECOPETROL. Secondly there has been a study of the databases. It began with an analysis of PPDM (The Professional Petroleum Data Management Association) standards; about which, the tool is made. After the analysis, Access was considered the best option because it is easily accessible and incorporates the reporting module. In order to create the solution a data model was designed. It was conditioned by the requirements of integrity of wells, in the Norwegian standards and in the NORSOK D010 recommendations guide for well integrity of the Norwegian oil and gas Association. This model was performed by a database in the Access platform, and using Access language, combined with SQL programming. Once the data model is defined and built, it is possible to create a layer of data visualization. A report of this well is defined to create it. This report will be visible for the user according to their roles and responsibilities.
Resumo:
Silicon wafers comprise approximately 40% of crystalline silicon module cost, and represent an area of great technological innovation potential. Paradoxically, unconventional wafer-growth techniques have thus far failed to displace multicrystalline and Czochralski silicon, despite four decades of innovation. One of the shortcomings of most unconventional materials has been a persistent carrier lifetime deficit in comparison to established wafer technologies, which limits the device efficiency potential. In this perspective article, we review a defect-management framework that has proven successful in enabling millisecond lifetimes in kerfless and cast materials. Control of dislocations and slowly diffusing metal point defects during growth, coupled to effective control of fast-diffusing species during cell processing, is critical to enable high cell efficiencies. To accelerate the pace of novel wafer development, we discuss approaches to rapidly evaluate the device efficiency potential of unconventional wafers from injection-dependent lifetime measurements.
Resumo:
A solution for the problem of reusability of software system for batch production systems is proposed. It is based on ISA S88 standard that prescribes the abstraction of elements in the manufacturing system that is equipment, processes and procedures abstraction, required to make a product batch. An easy to apply data scheme, compatible with the standard, is developed for management of production information. In addition to flexibility provided by the S88 standard, software system reusability requires a solution supporting manufacturing equipment reconfigurability. Toward this end a coupling mechanism is developed. A software tool, including these solutions, was developed and validated at laboratory level, using product manufacturing information of an actual plant.
Resumo:
Las herramientas de configuración basadas en lenguajes de alto nivel como LabVIEW permiten el desarrollo de sistemas de adquisición de datos basados en hardware reconfigurable FPGA muy complejos en un breve periodo de tiempo. La estandarización del ciclo de diseño hardware/software y la utilización de herramientas como EPICS facilita su integración con la plataforma de adquisición y control ITER CODAC CORE SYSTEM (CCS) basada en Linux. En este proyecto se propondrá una metodología que simplificará el ciclo completo de integración de plataformas novedosas, como cRIO, en las que el funcionamiento del hardware de adquisición puede ser modificado por el usuario para que éste se amolde a sus requisitos específicos. El objetivo principal de este proyecto fin de master es realizar la integración de un sistema cRIO NI9159 y diferentes módulos de E/S analógica y digital en EPICS y en CODAC CORE SYSTEM (CCS). Este último consiste en un conjunto de herramientas software que simplifican la integración de los sistemas de instrumentación y control del experimento ITER. Para cumplir el objetivo se realizarán las siguientes tareas: • Desarrollo de un sistema de adquisición de datos basado en FPGA con la plataforma hardware CompactRIO. En esta tarea se realizará la configuración del sistema y la implementación en LabVIEW para FPGA del hardware necesario para comunicarse con los módulos: NI9205, NI9264, NI9401.NI9477, NI9426, NI9425 y NI9476 • Implementación de un driver software utilizando la metodología de AsynDriver para integración del cRIO con EPICS. Esta tarea requiere definir todos los records necesarios que exige EPICS y crear las interfaces adecuadas que permitirán comunicarse con el hardware. • Implementar la descripción del sistema cRIO y del driver EPICS en el sistema de descripción de plantas de ITER llamado SDD. Esto automatiza la creación de las aplicaciones de EPICS que se denominan IOCs. SUMMARY The configuration tools based in high-level programing languages like LabVIEW allows the development of high complex data acquisition systems based on reconfigurable hardware FPGA in a short time period. The standardization of the hardware/software design cycle and the use of tools like EPICS ease the integration with the data acquisition and control platform of ITER, the CODAC Core System based on Linux. In this project a methodology is proposed in order to simplify the full integration cycle of new platforms like CompactRIO (cRIO), in which the data acquisition functionality can be reconfigured by the user to fits its concrete requirements. The main objective of this MSc final project is to develop the integration of a cRIO NI-9159 and its different analog and digital Input/Output modules with EPICS in a CCS. The CCS consists of a set of software tools that simplifies the integration of instrumentation and control systems in the International Thermonuclear Reactor (ITER) experiment. To achieve such goal the following tasks are carried out: • Development of a DAQ system based on FPGA using the cRIO hardware platform. This task comprehends the configuration of the system and the implementation of the mandatory hardware to communicate to the I/O adapter modules NI9205, NI9264, NI9401, NI9477, NI9426, NI9425 y NI9476 using LabVIEW for FPGA. • Implementation of a software driver using the asynDriver methodology to integrate such cRIO system with EPICS. This task requires the definition of the necessary EPICS records and the creation of the appropriate interfaces that allow the communication with the hardware. • Develop the cRIO system’s description and the EPICS driver in the ITER plant description tool named SDD. This development will automate the creation of EPICS applications, called IOCs.
Resumo:
Las futuras misiones para misiles aire-aire operando dentro de la atmósfera requieren la interceptación de blancos a mayores velocidades y más maniobrables, incluyendo los esperados vehículos aéreos de combate no tripulados. La intercepción tiene que lograrse desde cualquier ángulo de lanzamiento. Una de las principales discusiones en la tecnología de misiles en la actualidad es cómo satisfacer estos nuevos requisitos incrementando la capacidad de maniobra del misil y en paralelo, a través de mejoras en los métodos de guiado y control modernos. Esta Tesis aborda estos dos objetivos simultáneamente, al proponer un diseño integrando el guiado y el control de vuelo (autopiloto) y aplicarlo a misiles con control aerodinámico simultáneo en canard y cola. Un primer avance de los resultados obtenidos ha sido publicado recientemente en el Journal of Aerospace Engineering, en Abril de 2015, [Ibarrondo y Sanz-Aranguez, 2015]. El valor del diseño integrado obtenido es que permite al misil cumplir con los requisitos operacionales mencionados empleando únicamente control aerodinámico. El diseño propuesto se compara favorablemente con esquemas más tradicionales, consiguiendo menores distancias de paso al blanco y necesitando de menores esfuerzos de control incluso en presencia de ruidos. En esta Tesis se demostrará cómo la introducción del doble mando, donde tanto el canard como las aletas de cola son móviles, puede mejorar las actuaciones de un misil existente. Comparado con un misil con control en cola, el doble control requiere sólo introducir dos servos adicionales para accionar los canards también en guiñada y cabeceo. La sección de cola será responsable de controlar el misil en balanceo mediante deflexiones diferenciales de los controles. En el caso del doble mando, la complicación añadida es que los vórtices desprendidos de los canards se propagan corriente abajo y pueden incidir sobre las superficies de cola, alterando sus características de control. Como un primer aporte, se ha desarrollado un modelo analítico completo para la aerodinámica no lineal de un misil con doble control, incluyendo la caracterización de este efecto de acoplamiento aerodinámico. Hay dos modos de funcionamiento en picado y guiñada para un misil de doble mando: ”desviación” y ”opuesto”. En modo ”desviación”, los controles actúan en la misma dirección, generando un cambio inmediato en la sustentación y produciendo un movimiento de translación en el misil. La respuesta es rápida, pero en el modo ”desviación” los misiles con doble control pueden tener dificultades para alcanzar grandes ángulos de ataque y altas aceleraciones laterales. Cuando los controles actúan en direcciones opuestas, el misil rota y el ángulo de ataque del fuselaje se incrementa para generar mayores aceleraciones en estado estacionario, aunque el tiempo de respuesta es mayor. Con el modelo aerodinámico completo, es posible obtener una parametrización dependiente de los estados de la dinámica de corto periodo del misil. Debido al efecto de acoplamiento entre los controles, la respuesta en bucle abierto no depende linealmente de los controles. El autopiloto se optimiza para obtener la maniobra requerida por la ley de guiado sin exceder ninguno de los límites aerodinámicos o mecánicos del misil. Una segunda contribución de la tesis es el desarrollo de un autopiloto con múltiples entradas de control y que integra la aerodinámica no lineal, controlando los tres canales de picado, guiñada y cabeceo de forma simultánea. Las ganancias del autopiloto dependen de los estados del misil y se calculan a cada paso de integración mediante la resolución de una ecuación de Riccati de orden 21x21. Las ganancias obtenidas son sub-óptimas, debido a que una solución completa de la ecuación de Hamilton-Jacobi-Bellman no puede obtenerse de manera práctica, y se asumen ciertas simplificaciones. Se incorpora asimismo un mecanismo que permite acelerar la respuesta en caso necesario. Como parte del autopiloto, se define una estrategia para repartir el esfuerzo de control entre el canard y la cola. Esto se consigue mediante un controlador aumentado situado antes del bucle de optimización, que minimiza el esfuerzo total de control para maniobrar. Esta ley de alimentación directa mantiene al misil cerca de sus condiciones de equilibrio, garantizando una respuesta transitoria adecuada. El controlador no lineal elimina la respuesta de fase no-mínima característica de la cola. En esta Tesis se consideran dos diseños para el guiado y control, el control en Doble-Lazo y el control Integrado. En la aproximación de Doble-Lazo, el autopiloto se sitúa dentro de un bucle interior y se diseña independientemente del guiado, que conforma el bucle más exterior del control. Esta estructura asume que existe separación espectral entre los dos, esto es, que los tiempos de respuesta del autopiloto son mucho mayores que los tiempos característicos del guiado. En el estudio se combina el autopiloto desarrollado con una ley de guiado óptimo. Los resultados obtenidos demuestran que se consiguen aumentos muy importantes en las actuaciones frente a misiles con control canard o control en cola, y que la interceptación, cuando se lanza cerca del curso de colisión, se consigue desde cualquier ángulo alrededor del blanco. Para el misil de doble mando, la estrategia óptima resulta en utilizar el modo de control opuesto en la aproximación al blanco y utilizar el modo de desviación justo antes del impacto. Sin embargo la lógica de doble bucle no consigue el impacto cuando hay desviaciones importantes con respecto al curso de colisión. Una de las razones es que parte de la demanda de guiado se pierde, ya que el misil solo es capaz de modificar su aceleración lateral, y no tiene control sobre su aceleración axial, a no ser que incorpore un motor de empuje regulable. La hipótesis de separación mencionada, y que constituye la base del Doble-Bucle, puede no ser aplicable cuando la dinámica del misil es muy alta en las proximidades del blanco. Si se combinan el guiado y el autopiloto en un único bucle, la información de los estados del misil está disponible para el cálculo de la ley de guiado, y puede calcularse la estrategia optima de guiado considerando las capacidades y la actitud del misil. Una tercera contribución de la Tesis es la resolución de este segundo diseño, la integración no lineal del guiado y del autopiloto (IGA) para el misil de doble control. Aproximaciones anteriores en la literatura han planteado este sistema en ejes cuerpo, resultando en un sistema muy inestable debido al bajo amortiguamiento del misil en cabeceo y guiñada. Las simplificaciones que se tomaron también causan que el misil se deslice alrededor del blanco y no consiga la intercepción. En nuestra aproximación el problema se plantea en ejes inerciales y se recurre a la dinámica de los cuaterniones, eliminado estos inconvenientes. No se limita a la dinámica de corto periodo del misil, porque se construye incluyendo de modo explícito la velocidad dentro del bucle de optimización. La formulación resultante en el IGA es independiente de la maniobra del blanco, que sin embargo se ha de incluir en el cálculo del modelo en Doble-bucle. Un típico inconveniente de los sistemas integrados con controlador proporcional, es el problema de las escalas. Los errores de guiado dominan sobre los errores de posición del misil y saturan el controlador, provocando la pérdida del misil. Este problema se ha tratado aquí con un controlador aumentado previo al bucle de optimización, que define un estado de equilibrio local para el sistema integrado, que pasa a actuar como un regulador. Los criterios de actuaciones para el IGA son los mismos que para el sistema de Doble-Bucle. Sin embargo el problema matemático resultante es muy complejo. El problema óptimo para tiempo finito resulta en una ecuación diferencial de Riccati con condiciones terminales, que no puede resolverse. Mediante un cambio de variable y la introducción de una matriz de transición, este problema se transforma en una ecuación diferencial de Lyapunov que puede resolverse mediante métodos numéricos. La solución resultante solo es aplicable en un entorno cercano del blanco. Cuando la distancia entre misil y blanco es mayor, se desarrolla una solución aproximada basada en la solución de una ecuación algebraica de Riccati para cada paso de integración. Los resultados que se han obtenido demuestran, a través de análisis numéricos en distintos escenarios, que la solución integrada es mejor que el sistema de Doble-Bucle. Las trayectorias resultantes son muy distintas. El IGA preserva el guiado del misil y consigue maximizar el uso de la propulsión, consiguiendo la interceptación del blanco en menores tiempos de vuelo. El sistema es capaz de lograr el impacto donde el Doble-Bucle falla, y además requiere un orden menos de magnitud en la cantidad de cálculos necesarios. El efecto de los ruidos radar, datos discretos y errores del radomo se investigan. El IGA es más robusto, resultando menos afectado por perturbaciones que el Doble- Bucle, especialmente porque el núcleo de optimización en el IGA es independiente de la maniobra del blanco. La estimación de la maniobra del blanco es siempre imprecisa y contaminada por ruido, y degrada la precisión de la solución de Doble-Bucle. Finalmente, como una cuarta contribución, se demuestra que el misil con guiado IGA es capaz de realizar una maniobra de defensa contra un blanco que ataque por su cola, sólo con control aerodinámico. Las trayectorias estudiadas consideran una fase pre-programada de alta velocidad de giro, manteniendo siempre el misil dentro de su envuelta de vuelo. Este procedimiento no necesita recurrir a soluciones técnicamente más complejas como el control vectorial del empuje o control por chorro para ejecutar esta maniobra. En todas las demostraciones matemáticas se utiliza el producto de Kronecker como una herramienta practica para manejar las parametrizaciones dependientes de variables, que resultan en matrices de grandes dimensiones. ABSTRACT Future missions for air to air endo-atmospheric missiles require the interception of targets with higher speeds and more maneuverable, including forthcoming unmanned supersonic combat vehicles. The interception will need to be achieved from any angle and off-boresight launch conditions. One of the most significant discussions in missile technology today is how to satisfy these new operational requirements by increasing missile maneuvering capabilities and in parallel, through the development of more advanced guidance and control methods. This Thesis addresses these two objectives by proposing a novel optimal integrated guidance and autopilot design scheme, applicable to more maneuverable missiles with forward and rearward aerodynamic controls. A first insight of these results have been recently published in the Journal of Aerospace Engineering in April 2015, [Ibarrondo and Sanz-Aránguez, 2015]. The value of this integrated solution is that it allows the missile to comply with the aforementioned requirements only by applying aerodynamic control. The proposed design is compared against more traditional guidance and control approaches with positive results, achieving reduced control efforts and lower miss distances with the integrated logic even in the presence of noises. In this Thesis it will be demonstrated how the dual control missile, where canard and tail fins are both movable, can enhance the capabilities of an existing missile airframe. Compared to a tail missile, dual control only requires two additional servos to actuate the canards in pitch and yaw. The tail section will be responsible to maintain the missile stabilized in roll, like in a classic tail missile. The additional complexity is that the vortices shed from the canard propagate downstream where they interact with the tail surfaces, altering the tail expected control characteristics. These aerodynamic phenomena must be properly described, as a preliminary step, with high enough precision for advanced guidance and control studies. As a first contribution we have developed a full analytical model of the nonlinear aerodynamics of a missile with dual control, including the characterization of this cross-control coupling effect. This development has been produced from a theoretical model validated with reliable practical data obtained from wind tunnel experiments available in the scientific literature, complement with computer fluid dynamics and semi-experimental methods. There are two modes of operating a missile with forward and rear controls, ”divert” and ”opposite” modes. In divert mode, controls are deflected in the same direction, generating an increment in direct lift and missile translation. Response is fast, but in this mode, dual control missiles may have difficulties in achieving large angles of attack and high level of lateral accelerations. When controls are deflected in opposite directions (opposite mode) the missile airframe rotates and the body angle of attack is increased to generate greater accelerations in steady-state, although the response time is larger. With the aero-model, a state dependent parametrization of the dual control missile short term dynamics can be obtained. Due to the cross-coupling effect, the open loop dynamics for the dual control missile is not linearly dependent of the fin positions. The short term missile dynamics are blended with the servo system to obtain an extended autopilot model, where the response is linear with the control fins turning rates, that will be the control variables. The flight control loop is optimized to achieve the maneuver required by the guidance law without exceeding any of the missile aerodynamic or mechanical limitations. The specific aero-limitations and relevant performance indicators for the dual control are set as part of the analysis. A second contribution of this Thesis is the development of a step-tracking multi-input autopilot that integrates non-linear aerodynamics. The designed dual control missile autopilot is a full three dimensional autopilot, where roll, pitch and yaw are integrated, calculating command inputs simultaneously. The autopilot control gains are state dependent, and calculated at each integration step solving a matrix Riccati equation of order 21x21. The resulting gains are sub-optimal as a full solution for the Hamilton-Jacobi-Bellman equation cannot be resolved in practical terms and some simplifications are taken. Acceleration mechanisms with an λ-shift is incorporated in the design. As part of the autopilot, a strategy is defined for proper allocation of control effort between canard and tail channels. This is achieved with an augmented feed forward controller that minimizes the total control effort of the missile to maneuver. The feedforward law also maintains the missile near trim conditions, obtaining a well manner response of the missile. The nonlinear controller proves to eliminate the non-minimum phase effect of the tail. Two guidance and control designs have been considered in this Thesis: the Two- Loop and the Integrated approaches. In the Two-Loop approach, the autopilot is placed in an inner loop and designed separately from an outer guidance loop. This structure assumes that spectral separation holds, meaning that the autopilot response times are much higher than the guidance command updates. The developed nonlinear autopilot is linked in the study to an optimal guidance law. Simulations are carried on launching close to collision course against supersonic and highly maneuver targets. Results demonstrate a large boost in performance provided by the dual control versus more traditional canard and tail missiles, where interception with the dual control close to collision course is achieved form 365deg all around the target. It is shown that for the dual control missile the optimal flight strategy results in using opposite control in its approach to target and quick corrections with divert just before impact. However the Two-Loop logic fails to achieve target interception when there are large deviations initially from collision course. One of the reasons is that part of the guidance command is not followed, because the missile is not able to control its axial acceleration without a throttleable engine. Also the separation hypothesis may not be applicable for a high dynamic vehicle like a dual control missile approaching a maneuvering target. If the guidance and autopilot are combined into a single loop, the guidance law will have information of the missile states and could calculate the most optimal approach to the target considering the actual capabilities and attitude of the missile. A third contribution of this Thesis is the resolution of the mentioned second design, the non-linear integrated guidance and autopilot (IGA) problem for the dual control missile. Previous approaches in the literature have posed the problem in body axes, resulting in high unstable behavior due to the low damping of the missile, and have also caused the missile to slide around the target and not actually hitting it. The IGA system is posed here in inertial axes and quaternion dynamics, eliminating these inconveniences. It is not restricted to the missile short term dynamic, and we have explicitly included the missile speed as a state variable. The IGA formulation is also independent of the target maneuver model that is explicitly included in the Two-loop optimal guidance law model. A typical problem of the integrated systems with a proportional control law is the problem of scales. The guidance errors are larger than missile state errors during most of the flight and result in high gains, control saturation and loss of control. It has been addressed here with an integrated feedforward controller that defines a local equilibrium state at each flight point and the controller acts as a regulator to minimize the IGA states excursions versus the defined feedforward state. The performance criteria for the IGA are the same as in the Two-Loop case. However the resulting optimization problem is mathematically very complex. The optimal problem in a finite-time horizon results in an irresoluble state dependent differential Riccati equation with terminal conditions. With a change of variable and the introduction of a transition matrix, the equation is transformed into a time differential Lyapunov equation that can be solved with known numerical methods in real time. This solution results range limited, and applicable when the missile is in a close neighborhood of the target. For larger ranges, an approximate solution is used, obtained from solution of an algebraic matrix Riccati equation at each integration step. The results obtained show, by mean of several comparative numerical tests in diverse homing scenarios, than the integrated approach is a better solution that the Two- Loop scheme. Trajectories obtained are very different in the two cases. The IGA fully preserves the guidance command and it is able to maximize the utilization of the missile propulsion system, achieving interception with lower miss distances and in lower flight times. The IGA can achieve interception against off-boresight targets where the Two- Loop was not able to success. As an additional advantage, the IGA also requires one order of magnitude less calculations than the Two-Loop solution. The effects of radar noises, discrete radar data and radome errors are investigated. IGA solution is robust, and less affected by radar than the Two-Loop, especially because the target maneuvers are not part of the IGA core optimization loop. Estimation of target acceleration is always imprecise and noisy and degrade the performance of the two-Loop solution. The IGA trajectories are such that minimize the impact of radome errors in the guidance loop. Finally, as a fourth contribution, it is demonstrated that the missile with IGA guidance is capable of performing a defense against attacks from its rear hemisphere, as a tail attack, only with aerodynamic control. The studied trajectories have a preprogrammed high rate turn maneuver, maintaining the missile within its controllable envelope. This solution does not recur to more complex features in service today, like vector control of the missile thrust or side thrusters. In all the mathematical treatments and demonstrations, the Kronecker product has been introduced as a practical tool to handle the state dependent parametrizations that have resulted in very high order matrix equations.
Resumo:
Los sistemas microinformáticos se componen principalmente de hardware y software, con el paso del tiempo el hardware se degrada, se deteriora y en ocasiones se avería. El software evoluciona, requiere un mantenimiento, de actualización y en ocasiones falla teniendo que ser reparado o reinstalado. A nivel hardware se analizan los principales componentes que integran y que son comunes en gran parte estos sistemas, tanto en equipos de sobre mesa como portátiles, independientes del sistema operativo, además de los principales periféricos, también se analizan y recomiendan algunas herramientas necesarias para realizar el montaje, mantenimiento y reparación de estos equipos. Los principales componentes hardware internos son la placa base, memoria RAM, procesador, disco duro, carcasa, fuente de alimentación y tarjeta gráfica. Los periféricos más destacados son el monitor, teclado, ratón, impresora y escáner. Se ha incluido un apartado donde se detallan los distintos tipos de BIOS y los principales parámetros de configuración. Para todos estos componentes, tanto internos como periféricos, se ha realizado un análisis de las características que ofrecen y los detalles en los que se debe prestar especial atención en el momento de seleccionar uno frente a otro. En los casos que existen diferentes tecnologías se ha hecho una comparativa entre ambas, destacando las ventajas y los inconvenientes de unas frente a otras para que sea el usuario final quien decida cual se ajusta mejor a sus necesidades en función de las prestaciones y el coste. Un ejemplo son las impresoras de inyección de tinta frente a las laser o los discos duros mecánicos en comparación con y los discos de estado sólido (SSD). Todos estos componentes están relacionados, interconectados y dependen unos de otros, se ha dedicado un capítulo exclusivamente para estudiar cómo se ensamblan estos componentes, resaltando los principales fallos que se suelen cometer o producir y se han indicado unas serie tareas de mantenimiento preventivo que se pueden realizar para prolongar la vida útil del equipo y evitar averías por mal uso. Los mantenimientos se pueden clasificar como predictivo, perfectivo, adaptativo, preventivo y correctivo. Se ha puesto el foco principalmente en dos tipos de mantenimiento, el preventivo descrito anteriormente y en el correctivo, tanto software como hardware. El mantenimiento correctivo está enfocado al análisis, localización, diagnóstico y reparación de fallos y averías hardware y software. Se describen los principales fallos que se producen en cada componente, cómo se manifiestan o qué síntomas presentan para poder realizar pruebas específicas que diagnostiquen y acoten el fallo. En los casos que es posible la reparación se detallan las instrucciones a seguir, en otro caso se recomienda la sustitución de la pieza o componente. Se ha incluido un apartado dedicado a la virtualización, una tecnología en auge que resulta muy útil para realizar pruebas de software, reduciendo tiempos y costes en las pruebas. Otro aspecto interesante de la virtualización es que se utiliza para montar diferentes servidores virtuales sobre un único servidor físico, lo cual representa un importante ahorro en hardware y costes de mantenimiento, como por ejemplo el consumo eléctrico. A nivel software se realiza un estudio detallado de los principales problemas de seguridad y vulnerabilidades a los que está expuesto un sistema microinformático enumerando y describiendo el comportamiento de los distintos tipos de elementos maliciosos que pueden infectar un equipo, las precauciones que se deben tomar para minimizar los riesgos y las utilidades que se pueden ejecutar para prevenir o limpiar un equipo en caso de infección. Los mantenimientos y asistencias técnicas, en especial las de tipo software, no siempre precisan de la atención presencial de un técnico cualificado, por ello se ha dedicado un capítulo a las herramientas de asistencia remota que se pueden utilizar en este ámbito. Se describen algunas de las más populares y utilizadas en el mercado, su funcionamiento, características y requerimientos. De esta forma el usuario puede ser atendido de una forma rápida, minimizando los tiempos de respuesta y reduciendo los costes. ABSTRACT Microcomputer systems are basically made up of pieces of hardware and software, as time pass, there’s a degradation of the hardware pieces and sometimes failures of them. The software evolves, new versions appears and requires maintenance, upgrades and sometimes also fails having to be repaired or reinstalled. The most important hardware components in a microcomputer system are analyzed in this document for a laptop or a desktop, with independency of the operating system they run. In addition to this, the main peripherals and devices are also analyzed and a recommendation about the most proper tools necessary for maintenance and repair this kind of equipment is given as well. The main internal hardware components are: motherboard, RAM memory, microprocessor, hard drive, housing box, power supply and graphics card. The most important peripherals are: monitor, keyboard, mouse, printer and scanner. A section has been also included where different types of BIOS and main settings are listed with the basic setup parameters in each case. For all these internal components and peripherals, an analysis of their features has been done. Also an indication of the details in which special attention must be payed when choosing more than one at the same time is given. In those cases where different technologies are available, a comparison among them has been done, highlighting the advantages and disadvantages of selecting one or another to guide the end user to decide which one best fits his needs in terms of performance and costs. As an example, the inkjet vs the laser printers technologies has been faced, or also the mechanical hard disks vs the new solid state drives (SSD). All these components are interconnected and are dependent one to each other, a special chapter has been included in order to study how they must be assembled, emphasizing the most often mistakes and faults that can appear during that process, indicating different tasks that can be done as preventive maintenance to enlarge the life of the equipment and to prevent damage because of a wrong use. The different maintenances can be classified as: predictive, perfective, adaptive, preventive and corrective. The main focus is on the preventive maintains, described above, and in the corrective one, in software and hardware. Corrective maintenance is focused on the analysis, localization, diagnosis and repair of hardware and software failures and breakdowns. The most typical failures that can occur are described, also how they can be detected or the specific symptoms of each one in order to apply different technics or specific tests to diagnose and delimit the failure. In those cases where the reparation is possible, instructions to do so are given, otherwise, the replacement of the component is recommended. A complete section about virtualization has also been included. Virtualization is a state of the art technology that is very useful especially for testing software purposes, reducing time and costs during the tests. Another interesting aspect of virtualization is the possibility to have different virtual servers on a single physical server, which represents a significant savings in hardware inversion and maintenance costs, such as electricity consumption. In the software area, a detailed study has been done about security problems and vulnerabilities a microcomputer system is exposed, listing and describing the behavior of different types of malicious elements that can infect a computer, the precautions to be taken to minimize the risks and the tools that can be used to prevent or clean a computer system in case of infection. The software maintenance and technical assistance not always requires the physical presence of a qualified technician to solve the possible problems, that’s why a complete chapter about the remote support tools that can be used to do so has been also included. Some of the most popular ones used in the market are described with their characteristics and requirements. Using this kind of technology, final users can be served quickly, minimizing response times and reducing costs.
Resumo:
En el trabajo se ha reflejado la génesis del término „desarrollo sostenible‟ y la preocupación social y de los gobiernos hacia la sostenibilidad de los recursos, generando una política forestal a escala internacional, cuyo hito inicial desempeña la Cumbre de Rio y otros procesos, donde surge el término „sostenibilidad‟ - procesos gubernamentales que ponen su atención en los bosques,entre ellos el Proceso paneuropeo del que emanan los Criterios e indicadores de la gestión forestal sostenible, así como otros foros donde aparece la vinculación entre los productos y la sostenibilidad de los bosques de donde proceden. A partir de esos conceptos aparecen los sistemas de certificación, primero FSC, promovido por las ONG ambientalistas, y en respuesta a ello, el sistema PEFC de los propietarios forestales privados con las industrias forestales. En su introducción, el trabajo recoge como surge y evoluciona esta preocupación y como se sucede y desarrollan los sistemas de certificación en España, orientados tanto a la superficie forestal como a sus productos derivados. Tratando de ser una herramienta técnica, en estos últimos quince años, se han ido planteando metodologías y propuestas técnicas que puedan garantizar el origen sostenible del bosque de donde procede la materia prima. Aunque la persistencia de la masa forestal como término tiene importancia, no considera numerosos aspectos incluidos en el concepto “gestión forestal sostenible”. El trabajo manifiesta qué es y cómo se origina la Gestión Forestal Sostenible y muy ligado con ello, el origen de la certificación como herramienta, explicando cómo se incardina la certificación forestal española con las estructuras internacionales y se construyen nuevas estructuras a escala española y autonómica. Se expone el dominio y alcance técnico de la certificación, sus inicios y un análisis de la diversidad de sistemas y etiquetas existentes -como ha ido evolucionando a escala internacional y nacional, por sistemas, sectores y continentes, con especial atención en España, recopilando lo sucedido relevante para el sector forestal, industrias forestales y sistemas de certificación en los años de estudio de elaboración de la tesis. Se refleja la relevancia que adquiere la certificación forestal y de la cadena de custodia para la industria del papel, tanto por las regulaciones, normativas y legislación que involucran al producto derivado del bosque como por ser herramienta que enlaza el bosque sostenible con el consumidor. La aplicación de todas esas especificaciones técnicas que muestran la sostenibilidad del bosque y al trazabilidad en el proceso productivo comporta una carga administrativa de recopilación de información, de control para el seguimiento asociado con los registros necesarios, y de archivo de documentos, conforme a las exigencias que plantean los sistemas de certificación forestal. Por tanto, es importante definir un método y procedimientos genéricos para los correspondientes sistemas de gestión preexistentes en las empresas del sector de pasta y papel (de calidad/ de medio ambiente/integrados), para implantar un Sistema de Cadena de Custodia genérico (común a FSC y PEFC) en una instalación de celulosa y papel y un sistema de diligencia debida. Para ello, ha sido necesario analizar la línea de producción y establecer los puntos de su diagrama en los que se requiere el control de la trazabilidad, puntos en los que se procede al seguimiento y registro de la materia prima, materia semielaborada y producto, y de ahí proceder a redactar o retocar los procedimientos de gestión calidad/ medioambiental, en su caso, para incluir los campos de registro. Según determinen los procedimientos, se efectuará un seguimiento y registro de los, derivados que configuran una característica y se determinará una serie de indicadores del sistema de trazabilidad de la madera en la industria de celulosa y papel, es decir, un conjunto de parámetros cuantitativos y descriptivos, sujetos al seguimiento de forma periódica, que muestren el cambio y permitan observar la evaluación y control del Sistema de Cadena de Custodia. Además de asegurar la trazabilidad de la madera y fibra en la industria de pasta y papel y con ello la sostenibilidad del bosque del que procede, se avalará la legalidad de los aprovechamientos que proporcionan ese recurso maderable, cumpliendo así no sólo la legislación vigente sino también ambos sistemas de certificación FSC y PEFC. El sistema de cadena de custodia de la pasta y papel se caracteriza por los indicadores de seguimiento que permite el control de la trazabilidad. ABSTRACT This paper traces the origins of the term „Sustainable Development‟ and of both citizen and institutional concern for the sustainability of resources, leading to the enactment of a forestry policy at international level, of which the initial milestones are the Rio Summit and other processes in which the term „Sustainability‟ was born. Those forestfocused institutional initiatives include the pan-European process that led to the publication of Sustainable Forest Management Criteria and Indicators, and other forums that highlight the link between finished wood-based products and the sustainability of the forests from which that wood is sourced. Those concepts were the culture in which forest certification systems were engendered, first FSC, promoted by environmental NGOs, and subsequently PEFC, fostered in response to FSC by private forest owners and forest-based industries. In its Introduction, this paper looks at how such concern arose and has evolved and how certification systems came into existence in Spain and developed to encompass both forest lands and forest-based products. As part of a mission to provide an applicable technical tool, new methodologies and technical proposals have been put forward over the past fifteen years aimed at guaranteeing the sustainable origin of the forest from which raw material is sourced. Although the maintenance of forest stands as a term in its own right is important, it does not take many of the aspects included in the concept of “sustainable forest management” into account. This thesis describes what SFM is and how it was born, underlying the close link between SFM and the origin of certification as a tool, explaining how Spanish forest certification is embodied in international structures, while new structures are built here in Spain on both the national and regional scale. This work also details the domain and scope of forest certification from the technical standpoint, explains its beginnings, and assesses the various systems and labels that exist - how certification has evolved internationally and nationally across systems, sectors and continents, with special emphasis on Spain. It provides a compilation of events relevant to forestry, forest industries and forest certification systems that have taken place during the years this thesis has been in preparation. It reflects on the relevance that forest and chain of custody certification holds for the paper industry, in view not only of the regulations, policies and legislation that affect forest-based products but also of its role as a tool that bonds the sustainable forest with the consumer. Implementing the range of technical specifications to demonstrate forest sustainability and traceability throughout the production process entails the administrative burden of collecting information and providing controls to process the relevant records and documents to be kept on file in compliance with the requirements made by forest certification schemes. It is therefore important to define a generic method, together with its relevant procedures,that fits the management systems (quality / environmental / integrated)existing today in pulp and paper companies, in order to implement a generic Chain of Custody scheme (common to FSC and PEFC) in a pulp and paper mill, and a due diligence system. To achieve that, it has first been necessary to analyse the production line and establish points along the route where traceabilitycontrols need to be implemented and points where raw material, semi-finished goods and end products should be monitored and recorded. Subsequently, the procedures in quality / environmental management systems need to be drafted or amended as required to include fields that reflect those records. As required by the procedures, forest-based products that have a specific characteristic shall be monitored and recorded, and a number of indicators identified in the traceability system of wood for pulp & paper, i.e.createa set of quantitative and descriptive parameters subject to regular monitoringthat reveal changes and enable the Chain of Custody system to be assessed and controlled. In addition to ensuring the traceability of wood and fibre in the pulp and paper industry -and so the sustainability of the forest from which it is sourced -, the legality of the harvesting that produces that timber will also be enhanced, thus fulfilling not only the law but also both FSC and PEFC certification schemes. The chain of custody system for pulp and paper is characterised by monitoring indicators that enable traceability to be controlled.