21 resultados para Design and Formative Studies of AIED Systems
em Universidad Politécnica de Madrid
Resumo:
The purpose of this investigation was the determination of the aerodynamic performance of sails and gain knowledge of the phenomena involved in order to improve the aerody¬namic characteristics. In this research, the airflow around different sails in four scenarios was studied. The method to analyze these scenarios was the combination of numerical simulations and experimental tests by taking advantage of the best of each tool. Two different Com¬putational Fluid Dynamic codes were utilized: the ANSYS-CFX and the CD-Adapco’s STAR-CCM+. The experimental tests were conducted in the Atmospheric Boundary Layer Wind Tunnel at the Universidad de Granada (Spain), the Twisted Flow Wind Tunnel at the University of Auckland (New Zealand) and the A9 Wind Tunnel at the Universidad Polit´ecnica de Madrid (Spain). Through this research, it was found the three-dimensional effect of the mast on the aerodynamic performance of an IMS Class boat. The pressure distribution on a Transpac 52 Class mainsail was also determined. Moreover, the aerodynamic perfor¬mance of the 43ft and 60ft Dhow Classes was obtained. Finally, a feasibility study was conducted to use a structural wing in combination with conventional propulsions systems. The main conclusion was that this research clarified gaps on the knowledge of the aerodynamic performance of sails. Moreover, since commercial codes were not specifically designed to study sails, a procedure was developed. On the other hand, innovative experimental techniques were used and applied to model-scale sails. The achievements of this thesis are promising and some of the results are already in use by the industry on a daily basis. El propósito de este estudio era determinar el comportamiento aerodinámico de unas velas y mejorar el conocimiento de los fenómenos que suceden para optimizar las características aerodinámicas de dichas velas. En esta investigación se estudió el flujo de aire alrededor de diferentes velas en cuatro escenarios. El método para analizar estos escenarios fue la combinación de simulaciones numéricas y ensayos experimentales mediante el aprovechamiento de las ventajas de cada herramienta. Se utilizaron dos códigos de dinámica de fluidos computacional: el ANSYS-CFX y el STAR-CCM+ de la empresa CD-Adapco. Los ensayos experimentales se desarrollaron en el túnel de viento de capa límite de la Universidad de Granada (España), el túnel de viento de la Universidad de Auckland (Nueva Zelanda) y en el túnel A9 de la Universidad Politécnica de Madrid (España). Mediante esta investigación, se determinó el efecto tridimensional del mástil en un velero de la clase IMS. También se describió la distribución de presiones sobre una mayor de un Transpac 52. Además, se obtuvo el comportamiento aerodinámico de las clases 43ft y 60ft de los veleros Dhows. Finalmente, se llevó a cabo un estudio de viabilidad de la utilización de un ala estructural en combinación con sistemas de propulsión convencionales. La conclusión principal de esta investigación fue la capacidad de explicar ciertas lagunas en el conocimiento del comportamiento aerodinámico de las velas en diferentes escenarios. Además, dado que los códigos comerciales no están específicamente diseñados para el estudio de velas, se desarrolló un procedimiento a tal efecto. Por otro lado, se han utilizado innovadoras técnicas experimentales y se han aplicado a modelos de velas a escala. Los logros de esta investigación son prometedores y algunos de los resultados obtenidos ya están siendo utilizados por la industria en su día a día.
Resumo:
The term "Logic Programming" refers to a variety of computer languages and execution models which are based on the traditional concept of Symbolic Logic. The expressive power of these languages offers promise to be of great assistance in facing the programming challenges of present and future symbolic processing applications in Artificial Intelligence, Knowledge-based systems, and many other areas of computing. The sequential execution speed of logic programs has been greatly improved since the advent of the first interpreters. However, higher inference speeds are still required in order to meet the demands of applications such as those contemplated for next generation computer systems. The execution of logic programs in parallel is currently considered a promising strategy for attaining such inference speeds. Logic Programming in turn appears as a suitable programming paradigm for parallel architectures because of the many opportunities for parallel execution present in the implementation of logic programs. This dissertation presents an efficient parallel execution model for logic programs. The model is described from the source language level down to an "Abstract Machine" level suitable for direct implementation on existing parallel systems or for the design of special purpose parallel architectures. Few assumptions are made at the source language level and therefore the techniques developed and the general Abstract Machine design are applicable to a variety of logic (and also functional) languages. These techniques offer efficient solutions to several areas of parallel Logic Programming implementation previously considered problematic or a source of considerable overhead, such as the detection and handling of variable binding conflicts in AND-Parallelism, the specification of control and management of the execution tree, the treatment of distributed backtracking, and goal scheduling and memory management issues, etc. A parallel Abstract Machine design is offered, specifying data areas, operation, and a suitable instruction set. This design is based on extending to a parallel environment the techniques introduced by the Warren Abstract Machine, which have already made very fast and space efficient sequential systems a reality. Therefore, the model herein presented is capable of retaining sequential execution speed similar to that of high performance sequential systems, while extracting additional gains in speed by efficiently implementing parallel execution. These claims are supported by simulations of the Abstract Machine on sample programs.
Resumo:
The analysis of complex nonlinear systems is often carried out using simpler piecewise linear representations of them. A principled and practical technique is proposed to linearize and evaluate arbitrary continuous nonlinear functions using polygonal (continuous piecewise linear) models under the L1 norm. A thorough error analysis is developed to guide an optimal design of two kinds of polygonal approximations in the asymptotic case of a large budget of evaluation subintervals N. The method allows the user to obtain the level of linearization (N) for a target approximation error and vice versa. It is suitable for, but not limited to, an efficient implementation in modern Graphics Processing Units (GPUs), allowing real-time performance of computationally demanding applications. The quality and efficiency of the technique has been measured in detail on two nonlinear functions that are widely used in many areas of scientific computing and are expensive to evaluate.
Resumo:
The relationship between structural controllability and observability of complex systems is studied. Algebraic and graph theoretic tools are combined to prove the extent of some controller/observer duality results. Two types of control design problems are addressed and some fundamental theoretical results are provided. In addition new algorithms are presented to compute optimal solutions for monitoring large scale real networks.
Resumo:
En este trabajo se han cubierto diferentes asuntos del diseño neutrónico de los aspectos radiológicos de las dos instalaciones del proyecto HiPER. El proyecto HiPER es un proyecto europeo concebido en el marco del programa ESFRI (European Scientific Facilities Research Infrastructure). Está destinado al desarrollo de la energía de fusión nuclear inercial mediante el uso de láseres y el esquema iluminación directa. Consecuentemente, se trata de una instalación con fines exclusivamente civiles. Se divide en dos fases, correspondientes con dos instalaciones: HiPER Engineering y HiPER Reactor. La instalación HiPER Engineering desarrollará las tecnologías implicadas en la ignición de alta repetición de cápsulas de DT por iluminación directa. El HiPER Reactor será una planta demostradora que produzca electricidad haciendo uso de las tecnologías desarrolladas durante la fase HiPER Engineering. El HiPER Engineering se centrará en las tecnologías relevantes para las igniciones a alta repetición de cápsulas de DT usando la iluminación directa. El principal esfuerzo de desarrollo tecnológico se hará en todos los asuntos directamente relacionados con la ignición: láseres, óptica, inyector, y fabricación masiva de cápsulas entre otros. Se espera una producción de entre 5200 MJ/año y 120000 MJ/año dependiendo del éxito de la instalación. Comparado con la energía esperada en NIF, 1200 MJ/año, se trata de un reto y un paso más allá en la protección radiológica. En este trabajo se ha concebido una instalación preliminar. Se ha evaluado desde el punto de vista de la protección radiológica, siendo las personas y la óptica el objeto de protección de este estudio. Se ha establecido una zonificación durante la operación y durante el mantenimiento de la instalación. Además, se ha llevado a cabo una evaluación de la selección de materiales para la cámara de reacción desde el punto de vista de gestión de residuos radiactivos. El acero T91 se ha seleccionado por, siendo un acero comercial, presentar el mismo comportamiento que el acero de baja activación EUROFER97 al evaluarse como residuo con el nivel de irradiación de HiPER Engineering. Teniendo en cuenta los resultados obtenidos para la instalación preliminar y las modificaciones de la instalación motivadas en otros campos, se ha propuesto una instalación avanzada también en este trabajo. Un análisis más profundo de los aspectos radiológicos, así como una evaluación completa de la gestión de todos los residuos radiactivos generados en la instalación se ha llevado a cabo. La protección radiológica se ha incrementado respecto de la instalación preliminar, y todos los residuos pueden gestionarse en un plazo de 30 sin recurrir al enterramiento de residuos. El HiPER Reactor sera una planta demostradora que produzca electricidad basada en las tecnologías de ignición desarrolladas durante la fase HiPER Engineering. El esfuerzo de desarrollo tecnológico se llevará a cabo en los sistemas relacionados con la generación de electricidad en condiciones económicas: manto reproductor de tritio, ciclos de potencia, vida y mantenimiento de componentes, o sistemas de recuperación de tritio entre otros. En este trabajo la principal contribución a HiPER Reactor está relacionada con el diseño de la cámara de reacción y sus extensiones en la planta. La cámara de reacción es la isla nuclear más importante de la planta, donde la mayoría de las reacciones nucleares tienen lugar. Alberga la primera pared, el manto reproductor de tritio y la vasija de vacío. Todo el trabajo realizado aquí ha pivotado en torno al manto reproductor de tritio y sus interacciones con el resto de componentes de la planta. Tras una revisión profunda de la bibliografía de los diseños recientes de cámaras de reacción con características similares a HiPER Reactor, se ha propuesto y justificado un esquema tecnológico innovador para el manto reproductor de tritio. El material fértil selecconado es el eutéctico 15.7 at.% Litio – 84.3 at.% Plomo, LiPb, evitando el uso de berilio como multiplicador neutrónico mientras se garantiza el ajuste online de la tasa de reproducción de tritio mediante el ajuste en el enriquecimiento en 6Li. Aunque se podría haber elegido Litio purom el LiPb evita problemas relacionados con la reactividad química. El precio a pagar es un reto materializado como inventario radiactivo de Z alto en el lazo de LiPb que debe controlarse. El material estructural seleccionado es el acero de baja activación EUROFER97, que estará en contacto directo con le LiPb fluyendo a alta velocidad. En este esquema tecnológico, el LiPb asegurará la autosuficiente de tritio de la planta mientras el propio LiPb extrae del manto el calor sobre él depositado por los neutrones. Este esquema recibe el nombre de manto de Litio-Plomo auto-refrigerado (SCLL por sus siglas en inglés). Respecto de los conceptos SCLL previos, es destacable que nos e requieren componentes del SiC, puesto que no hay campos magnéticos en la cámara de reacción. Consecuentemente, el manto SCLL propuesto para HiPER presenta riesgo tecnológicos moderados, similares a otros dispositivos de fusión magnética, como el HCLL, e incluso inferiores a los del DCLL, puesto que no se require SiC. Los retos que se deben afrontar son el control del inventario de Z alto así como las tasas de corrosión derivadas de la interacción del LiPb con el EUROFE97. En este trabajo se abordan ambos aspectos, y se presentan los respectivos análisis, junto con otros aspectos neutrónicos y de activación, tales como la protección de la vasija de vacío por parte del material fértil para garantizar la resoldabilidad de por vida en la cara externa de la vasija. También se propone y se estudio un ciclo de potencia de Brayton de Helio para dos configuraciones diferentes de refrigeración del sistema primera pared-manto reproductor. Las principales conclusiones de estos estudios son: i) el inventario de Z alto puede controlarse y es comparable al que se encuentra en dispositivos de fusión similares, ii)la vasija de vacío requiere una mayor protección frente a la radiación neutrónica y iii) las tasas de corrosión son demasiado altas y la temperatura media de salida del LiPb es demasiado baja. Tiendo en cuenta estos resultados juntos con otras consideraciones relacionadas con el mantenimiento de componentes y la viabilidad constructiva, se ha propuesto una evolución de la cámara de reacción. Las evoluciones más destacables son la introducción de un reflector neutrónico de grafito, la modificación de la configuración de la óptica final, la forma y el tamaño de la cámara de vacío y una nueva subdivisión modular del manto. Se ha evaluado desde el punto de vista neutrónico, y su análisis y posterior evolución queda fuera del objeto de este trabajo. Los códigos utilizados en este trabajo son: CATIA para la generación de geometrías 3D complejas MCAM para la traducción de archivos de CATIA a formato de input de MCNP MCNP para el transporte de la radiación (neutrones y gammas) y sus respuestas asociadas ACAB para la evolución del inventario isotópico y sus respuestas asociadas MC2ACAB para acoplar MCNP y ACAB para el cómputo de dosis en parada usando la metodología R2S basada en celda. Moritz para visualizar los reultados de MCNP FLUENT para llevar a cabo cálculos de fluido-dinámica Para llevar a cabo este trabajo, han sido necesarias unas destrezas computacionales. Las más relevantes utilizadas son: generación de geometrás 3D complejas y transmisión a MCNP, diferentes tñecnica de reducción de varianza como importancia por celdas y weight windows basado en malla, metodología Rigorous-two-Steps basada en celdas para el cálculo de dosis en parada y la modificación del código ACAB para el cálculos con múltiples espectros en la misma simulación. Como resumen, la contribución de este trabajo al proyecto HiPER son dos diseños conceptuales de instalación: una para HiPER Engineering y otra para HiPER Reactor. La primera se ha estudio en profundidad desde el punto de vista de protección radiológica y gestión de residuos, mientras que la segunda se ha estudiado desde el punto de vista de operación: seguridad, comportamiento, vida y mantenimiento de componentes y eficiencia del ciclo de potencia.
Resumo:
In this work it is presented a complete kinematic analysis of the 3PSS-1S parallel mechanism for its implementation as a spherical wrist for a needle insertion guidance robot. The spherical 3PSS-1S mechanism is a low weight and reduced dimension parallel mechanism that allows spherical movements providing the requirements needed for the serial–parallel robotic arm for needle insertion guidance. The solution of its direct kinematic is computed with a numerical method based on the Newton–Raphson formulation and a constraint function of the mechanism. The input–output velocity equation is obtained with the use of screw theory. Three types of singular postures are identified during simulations and verified in the real prototype. The 3PSS-1S can perform pure rotations of ±45°±45°, ±40°±40°, ±60°±60° along the View the MathML sourcex, View the MathML sourcey, View the MathML sourcez axes respectively.
Resumo:
Debido al reciente incremento de conflictos en el mundo árabe y dado el interés nacional de España en dicha zona, se propone en este proyecto un estudio inicial para el diseño y desarrollo de un microsatélite que ayude al gobierno de España a mantener esa zona bajo observación constante. En el presente trabajo se abarcan todos los subsistemas del satélite, haciéndose un estudio más detallado del subsistema de potencia
Resumo:
Este proyecto consiste en el estudio y dimensionado inicial del sistema de potencia de un satélite de observación, que sirva de ayuda a otros sistemas de mayor precisión a la hora de detectar posibles terremotos y actividad volcánica mediante el análisis de señales electromagnéticas presentes en la ionosfera. Para ello el satélite incorpora, entre otros elementos sensores eléctricos, un analizador de plasma, y un detector de partículas. Con esta instrumentación se pretenden detectar los cambios que se producen en el campo electromagnético terrestre como consecuencia del movimiento de las placas tectónicas, y descubrir así las posibles anomalías que preceden a un seísmo. Para no sobrepasar el presupuesto con el que se ha ideado el proyecto se utilizarán sistemas que permitan la lectura de datos de la forma más simple, pudiendo ocurrir que los datos recogidos no se transmitan al control de Tierra en tiempo real, impidiendo a los científicos analizar los datos recogidos hasta unos días después, de ahí que este satélite experimental deba emplearse, en principio, como apoyo a programas de detención de terremotos más sofisticados y con mayores medios técnicos. Evidentemente, con este sistema también se podrán recoger datos tras los seísmos y examinarlos posteriormente. La órbita del satélite será una órbita LEO (Low Earth Orbit) de una altitud aproximada de 670 Km, estimándose el tiempo de vida del satélite en 5 años. Intentando emplear la mayor parte de los recursos económicos en el equipamiento científico, la estructura será la más simple posible, esto es, un paralelepípedo de dimensiones compactas con un peso aproximado de 185 kg, contando con paneles solares desplegables y en su interior con baterías que proporcionarán potencia al satélite durante la fase de lanzamiento y en momentos concretos.
Resumo:
Las principal conclusión que se puede obtener tras el estudio es que el satélite, tal y como se ha tenido en cuenta, es perfectamente funcional desde el punto de vista eléctrico. Por la parte de la generación de potencia, los paneles son capaces de ofreces una cantidad tal como para que aproximadamente la mitad (en el caso de funcionamiento normal) de esta potencia sea destinada a la carga útil. Además, incluso en los modos de fallo definidos, el valor de potencia dedicada a la carga útil, es suficientemente alta como para que merezca la pena mantener el satélite operativo. Respecto de las baterías, se puede observar por su comportamiento que están, sobredimensionadas y por ello actúan como un elemento regulador del sistema completo, ya que tiene un amplio margen de trabajo por el cual se puede modificar el funcionamiento general. Y esto se demuestra no sólo en cuanto al estado de carga, que para el perfil de consumo constante y el de cuatro pulsos de 120 W por día se mantiene siempre por encima del 99%, si no también en términos de charging rate, el cual se está siempre dentro de los límites establecidos por el fabricante, asegurando una vida operativa acorde con la nominal. Por último, sobre el propio método de simulación se puede extraer que aun no siendo la mejor plataforma donde estudiar estos comportamientos. Presenta el inconveniente de que, en ciertas partes, restringe la flexibilidad a la hora de cambiar múltiples condiciones al mismo tiempo, pero a cambio permite un estudio bastante amplio con un requisito de conocimientos y de complejidad bajo, de manera que habilita a cualquier estudiante a llevar a cabo estudios similares.
Resumo:
El Proyecto Fin De Carrera presentado a continuación contiene una descripción del prediseño del microsatélite de observación terrestre Gaia, particularizando ésta especialmente en el sistema de potencia del mismo. En el presente capítulo se describen los objetivos de la misión expuesta y los requerimientos del satélite objeto de este proyecto.
Resumo:
The progressive ageing of population has turned the mild cognitive impairment (MCI) into a prevalent disease suffered by elderly. Consequently, the spatial disorientation has become a significant problem for older people and their caregivers. The ambient-assisted living applications are offering location-based services for empowering elderly to go outside and encouraging a greater independence. Therefore, this paper describes the design and technical evaluation of a location-awareness service enabler aimed at supporting and managing probable wandering situations of a person with MCI. Through the presence capabilities of the IP multimedia subsystem (IMS) architecture, the service will alert patient's contacts if a hazardous situation is detected depending on his location. Furthermore, information about the older person's security areas has been included in the user profile managed by IMS. In doing so, the service enabler introduced contribute to “context-awareness” paradigm allowing the adaptation and personalization of services depending on user's context and specific conditions or preferences.
Resumo:
La prevalencia de las alergias está aumentando desde mediados del siglo XX, y se estima que actualmente afectan a alrededor del 2-8 % de la población, pero las causas de este aumento aún no están claras. Encontrar el origen del mecanismo por el cual una proteína inofensiva se convierte en capaz de inducir una respuesta alérgica es de vital importancia para prevenir y tratar estas enfermedades. Aunque la caracterización de alérgenos relevantes ha ayudado a mejorar el manejo clínico y a aclarar los mecanismos básicos de las reacciones alérgicas, todavía queda un largo camino para establecer el origen de la alergenicidad y reactividad cruzada. El objetivo de esta tesis ha sido caracterizar las bases moleculares de la alergenicidad tomando como modelo dos familias de panalergenos (proteínas de transferencia de lípidos –LTPs- y taumatinas –TLPs-) y estudiando los mecanismos que median la sensibilización y la reactividad cruzada para mejorar tanto el diagnóstico como el tratamiento de la alergia. Para ello, se llevaron a cabo dos estrategias: estudiar la reactividad cruzada de miembros de familias de panalérgenos; y estudiar moléculas-co-adyuvantes que pudieran favorecer la capacidad alergénica de dichas proteínas. Para estudiar la reactividad cruzada entre miembros de la misma familia de proteínas, se seleccionaron LTPs y TLPs, descritas como alergenos, tomando como modelo la alergia a frutas. Por otra parte, se estudiaron los perfiles de sensibilización a alérgenos de trigo relacionados con el asma del panadero, la enfermedad ocupacional más relevante de origen alérgico. Estos estudios se llevaron a cabo estandarizando ensayos tipo microarrays con alérgenos y analizando los resultados por la teoría de grafos. En relación al estudiar moléculas-co-adyuvantes que pudieran favorecer la capacidad alergénica de dichas proteínas, se llevaron a cabo estudios sobre la interacción de los alérgenos alimentarios con células del sistema inmune humano y murino y el epitelio de las mucosas, analizando la importancia de moléculas co-transportadas con los alérgenos en el desarrollo de una respuesta Th2. Para ello, Pru p 3(LTP y alérgeno principal del melocotón) se selección como modelo para llevarlo a cabo. Por otra parte, se analizó el papel de moléculas activadoras del sistema inmune producidas por patógenos en la inducción de alergias alimentarias seleccionando el modelo kiwi-alternaria, y el papel de Alt a 1, alérgeno mayor de dicho hongo, en la sensibilización a Act d 2, alérgeno mayor de kiwi. En resumen, el presente trabajo presenta una investigación innovadora aportando resultados de gran utilidad tanto para la mejora del diagnóstico como para nuevas investigaciones sobre la alergia y el esclarecimiento final de los mecanismos que caracterizan esta enfermedad. ABSTRACT Allergies are increasing their prevalence from mid twentieth century, and they are currently estimated to affect around 2-8% of the population but the underlying causes of this increase remain still elusive. The understanding of the mechanism by which a harmless protein becomes capable of inducing an allergic response provides us the basis to prevent and treat these diseases. Although the characterization of relevant allergens has led to improved clinical management and has helped to clarify the basic mechanisms of allergic reactions, it seems justified in aspiring to molecularly dissecting these allergens to establish the structural basis of their allergenicity and cross-reactivity. The aim of this thesis was to characterize the molecular basis of the allergenicity of model proteins belonging to different families (Lipid Transfer Proteins –LTPs-, and Thaumatin-like Proteins –TLPs-) in order to identify mechanisms that mediate sensitization and cross reactivity for developing new strategies in the management of allergy, both diagnosis and treatment, in the near future. With this purpose, two strategies have been conducted: studies of cross-reactivity among panallergen families and molecular studies of the contribution of cofactors in the induction of the allergic response by these panallergens. Following the first strategy, we studied the cross-reactivity among members of two plant panallergens (LTPs , Lipid Transfer Proteins , and TLPs , Thaumatin-like Proteins) using the peach allergy as a model. Similarly, we characterized the sensitization profiles to wheat allergens in baker's asthma development, the most relevant occupational disease. These studies were performed using allergen microarrays and the graph theory for analyzing the results. Regarding the second approach, we analyzed the interaction of plant allergens with immune and epithelial cells. To perform these studies , we examined the importance of ligands and co-transported molecules of plant allergens in the development of Th2 responses. To this end, Pru p 3, nsLTP (non-specific Lipid Transfer Protein) and peach major allergen, was selected as a model to investigate its interaction with cells of the human and murine immune systems as well as with the intestinal epithelium and the contribution of its ligand in inducing an allergic response was studied. Moreover, we analyzed the role of pathogen associated molecules in the induction of food allergy. For that, we selected the kiwi- alternaria system as a model and the role of Alt a 1 , major allergen of the fungus, in the development of Act d 2-sensitization was studied. In summary, this work presents an innovative research providing useful results for improving diagnosis and leading to further research on allergy and the final clarification of the mechanisms that characterize this disease.
Resumo:
The availability of suitable laser sources is one of the main challenges in future space missions for accurate measurement of atmospheric CO2. The main objective of the European project BRITESPACE is to demonstrate the feasibility of an all-semiconductor laser source to be used as a space-borne laser transmitter in an Integrated Path Differential Absorption (IPDA) lidar system. We present here the proposed transmitter and system architectures, the initial device design and the results of the simulations performed in order to estimate the source requirements in terms of power, beam quality, and spectral properties to achieve the required measurement accuracy. The laser transmitter is based on two InGaAsP/InP monolithic Master Oscillator Power Amplifiers (MOPAs), providing the ON and OFF wavelengths close to the selected absorption line around 1.57 µm. Each MOPA consists of a frequency stabilized Distributed Feedback (DFB) master oscillator, a modulator section, and a tapered semiconductor amplifier optimized to maximize the optical output power. The design of the space-compliant laser module includes the beam forming optics and the thermoelectric coolers.The proposed system replaces the conventional pulsed source with a modulated continuous wave source using the Random Modulation-Continuous Wave (RM-CW) approach, allowing the designed semiconductor MOPA to be applicable in such applications. The system requirements for obtaining a CO2 retrieval accuracy of 1 ppmv and a spatial resolution of less than 10 meters have been defined. Envelope estimated of the returns indicate that the average power needed is of a few watts and that the main noise source is the ambient noise.
Resumo:
Although the sequential execution speed of logic programs has been greatly improved by the concepts introduced in the Warren Abstract Machine (WAM), parallel execution represents the only way to increase this speed beyond the natural limits of sequential systems. However, most proposed parallel logic programming execution models lack the performance optimizations and storage efficiency of sequential systems. This paper presents a parallel abstract machine which is an extension of the WAM and is thus capable of supporting ANDParallelism without giving up the optimizations present in sequential implementations. A suitable instruction set, which can be used as a target by a variety of logic programming languages, is also included. Special instructions are provided to support a generalized version of "Restricted AND-Parallelism" (RAP), a technique which reduces the overhead traditionally associated with the run-time management of variable binding conflicts to a series of simple run-time checks, which select one out of a series of compiled execution graphs.
Resumo:
Nowadays computing platforms consist of a very large number of components that require to be supplied with diferent voltage levels and power requirements. Even a very small platform, like a handheld computer, may contain more than twenty diferent loads and voltage regulators. The power delivery designers of these systems are required to provide, in a very short time, the right power architecture that optimizes the performance, meets electrical specifications plus cost and size targets. The appropriate selection of the architecture and converters directly defines the performance of a given solution. Therefore, the designer needs to be able to evaluate a significant number of options in order to know with good certainty whether the selected solutions meet the size, energy eficiency and cost targets. The design dificulties of selecting the right solution arise due to the wide range of power conversion products provided by diferent manufacturers. These products range from discrete components (to build converters) to complete power conversion modules that employ diferent manufacturing technologies. Consequently, in most cases it is not possible to analyze all the alternatives (combinations of power architectures and converters) that can be built. The designer has to select a limited number of converters in order to simplify the analysis. In this thesis, in order to overcome the mentioned dificulties, a new design methodology for power supply systems is proposed. This methodology integrates evolutionary computation techniques in order to make possible analyzing a large number of possibilities. This exhaustive analysis helps the designer to quickly define a set of feasible solutions and select the best trade-off in performance according to each application. The proposed approach consists of two key steps, one for the automatic generation of architectures and other for the optimized selection of components. In this thesis are detailed the implementation of these two steps. The usefulness of the methodology is corroborated by contrasting the results using real problems and experiments designed to test the limits of the algorithms.