37 resultados para SISTEMAS CON BARBECHO


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los sistemas empotrados son cada día más comunes y complejos, de modo que encontrar procesos seguros, eficaces y baratos de desarrollo software dirigidos específicamente a esta clase de sistemas es más necesario que nunca. A diferencia de lo que ocurría hasta hace poco, en la actualidad los avances tecnológicos en el campo de los microprocesadores de los últimos tiempos permiten el desarrollo de equipos con prestaciones más que suficientes para ejecutar varios sistemas software en una única máquina. Además, hay sistemas empotrados con requisitos de seguridad (safety) de cuyo correcto funcionamiento depende la vida de muchas personas y/o grandes inversiones económicas. Estos sistemas software se diseñan e implementan de acuerdo con unos estándares de desarrollo software muy estrictos y exigentes. En algunos casos puede ser necesaria también la certificación del software. Para estos casos, los sistemas con criticidades mixtas pueden ser una alternativa muy valiosa. En esta clase de sistemas, aplicaciones con diferentes niveles de criticidad se ejecutan en el mismo computador. Sin embargo, a menudo es necesario certificar el sistema entero con el nivel de criticidad de la aplicación más crítica, lo que hace que los costes se disparen. La virtualización se ha postulado como una tecnología muy interesante para contener esos costes. Esta tecnología permite que un conjunto de máquinas virtuales o particiones ejecuten las aplicaciones con unos niveles de aislamiento tanto temporal como espacial muy altos. Esto, a su vez, permite que cada partición pueda ser certificada independientemente. Para el desarrollo de sistemas particionados con criticidades mixtas se necesita actualizar los modelos de desarrollo software tradicionales, pues estos no cubren ni las nuevas actividades ni los nuevos roles que se requieren en el desarrollo de estos sistemas. Por ejemplo, el integrador del sistema debe definir las particiones o el desarrollador de aplicaciones debe tener en cuenta las características de la partición donde su aplicación va a ejecutar. Tradicionalmente, en el desarrollo de sistemas empotrados, el modelo en V ha tenido una especial relevancia. Por ello, este modelo ha sido adaptado para tener en cuenta escenarios tales como el desarrollo en paralelo de aplicaciones o la incorporación de una nueva partición a un sistema ya existente. El objetivo de esta tesis doctoral es mejorar la tecnología actual de desarrollo de sistemas particionados con criticidades mixtas. Para ello, se ha diseñado e implementado un entorno dirigido específicamente a facilitar y mejorar los procesos de desarrollo de esta clase de sistemas. En concreto, se ha creado un algoritmo que genera el particionado del sistema automáticamente. En el entorno de desarrollo propuesto, se han integrado todas las actividades necesarias para desarrollo de un sistema particionado, incluidos los nuevos roles y actividades mencionados anteriormente. Además, el diseño del entorno de desarrollo se ha basado en la ingeniería guiada por modelos (Model-Driven Engineering), la cual promueve el uso de los modelos como elementos fundamentales en el proceso de desarrollo. Así pues, se proporcionan las herramientas necesarias para modelar y particionar el sistema, así como para validar los resultados y generar los artefactos necesarios para el compilado, construcción y despliegue del mismo. Además, en el diseño del entorno de desarrollo, la extensión e integración del mismo con herramientas de validación ha sido un factor clave. En concreto, se pueden incorporar al entorno de desarrollo nuevos requisitos no-funcionales, la generación de nuevos artefactos tales como documentación o diferentes lenguajes de programación, etc. Una parte clave del entorno de desarrollo es el algoritmo de particionado. Este algoritmo se ha diseñado para ser independiente de los requisitos de las aplicaciones así como para permitir al integrador del sistema implementar nuevos requisitos del sistema. Para lograr esta independencia, se han definido las restricciones al particionado. El algoritmo garantiza que dichas restricciones se cumplirán en el sistema particionado que resulte de su ejecución. Las restricciones al particionado se han diseñado con una capacidad expresiva suficiente para que, con un pequeño grupo de ellas, se puedan expresar la mayor parte de los requisitos no-funcionales más comunes. Las restricciones pueden ser definidas manualmente por el integrador del sistema o bien pueden ser generadas automáticamente por una herramienta a partir de los requisitos funcionales y no-funcionales de una aplicación. El algoritmo de particionado toma como entradas los modelos y las restricciones al particionado del sistema. Tras la ejecución y como resultado, se genera un modelo de despliegue en el que se definen las particiones que son necesarias para el particionado del sistema. A su vez, cada partición define qué aplicaciones deben ejecutar en ella así como los recursos que necesita la partición para ejecutar correctamente. El problema del particionado y las restricciones al particionado se modelan matemáticamente a través de grafos coloreados. En dichos grafos, un coloreado propio de los vértices representa un particionado del sistema correcto. El algoritmo se ha diseñado también para que, si es necesario, sea posible obtener particionados alternativos al inicialmente propuesto. El entorno de desarrollo, incluyendo el algoritmo de particionado, se ha probado con éxito en dos casos de uso industriales: el satélite UPMSat-2 y un demostrador del sistema de control de una turbina eólica. Además, el algoritmo se ha validado mediante la ejecución de numerosos escenarios sintéticos, incluyendo algunos muy complejos, de más de 500 aplicaciones. ABSTRACT The importance of embedded software is growing as it is required for a large number of systems. Devising cheap, efficient and reliable development processes for embedded systems is thus a notable challenge nowadays. Computer processing power is continuously increasing, and as a result, it is currently possible to integrate complex systems in a single processor, which was not feasible a few years ago.Embedded systems may have safety critical requirements. Its failure may result in personal or substantial economical loss. The development of these systems requires stringent development processes that are usually defined by suitable standards. In some cases their certification is also necessary. This scenario fosters the use of mixed-criticality systems in which applications of different criticality levels must coexist in a single system. In these cases, it is usually necessary to certify the whole system, including non-critical applications, which is costly. Virtualization emerges as an enabling technology used for dealing with this problem. The system is structured as a set of partitions, or virtual machines, that can be executed with temporal and spatial isolation. In this way, applications can be developed and certified independently. The development of MCPS (Mixed-Criticality Partitioned Systems) requires additional roles and activities that traditional systems do not require. The system integrator has to define system partitions. Application development has to consider the characteristics of the partition to which it is allocated. In addition, traditional software process models have to be adapted to this scenario. The V-model is commonly used in embedded systems development. It can be adapted to the development of MCPS by enabling the parallel development of applications or adding an additional partition to an existing system. The objective of this PhD is to improve the available technology for MCPS development by providing a framework tailored to the development of this type of system and by defining a flexible and efficient algorithm for automatically generating system partitionings. The goal of the framework is to integrate all the activities required for developing MCPS and to support the different roles involved in this process. The framework is based on MDE (Model-Driven Engineering), which emphasizes the use of models in the development process. The framework provides basic means for modeling the system, generating system partitions, validating the system and generating final artifacts. The framework has been designed to facilitate its extension and the integration of external validation tools. In particular, it can be extended by adding support for additional non-functional requirements and support for final artifacts, such as new programming languages or additional documentation. The framework includes a novel partitioning algorithm. It has been designed to be independent of the types of applications requirements and also to enable the system integrator to tailor the partitioning to the specific requirements of a system. This independence is achieved by defining partitioning constraints that must be met by the resulting partitioning. They have sufficient expressive capacity to state the most common constraints and can be defined manually by the system integrator or generated automatically based on functional and non-functional requirements of the applications. The partitioning algorithm uses system models and partitioning constraints as its inputs. It generates a deployment model that is composed by a set of partitions. Each partition is in turn composed of a set of allocated applications and assigned resources. The partitioning problem, including applications and constraints, is modeled as a colored graph. A valid partitioning is a proper vertex coloring. A specially designed algorithm generates this coloring and is able to provide alternative partitions if required. The framework, including the partitioning algorithm, has been successfully used in the development of two industrial use cases: the UPMSat-2 satellite and the control system of a wind-power turbine. The partitioning algorithm has been successfully validated by using a large number of synthetic loads, including complex scenarios with more that 500 applications.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis se centra en el estudio de una secuencia de procesos basados en la tecnología láser y ejecutados en dispositivos fotovoltaicos, que son imprescindibles para el desarrollo en general de las tecnologías fotovoltaicas basadas en lámina delgada y, en particular, de aquellas que utilizan silicio amorfo como absorbente, así como en aplicaciones posteriores de estas tecnologías de alto valor añadido como es la integración arquitectónica de este tipo de dispositivos. En gran parte de las tecnologías FV de lámina delgada, y muy particularmente en la de silicio amorfo, el material se deposita sobre un substrato en un área lo suficientemente grande para que se requiera de un proceso de subdivisión del dispositivo en células de tamaño adecuado, y su posterior conexión en serie para garantizar las figuras eléctricas nominales del dispositivo. Este proceso se ha desarrollado industrialmente hace años, pero no ha habido un esfuerzo científico asociado que permitiera conocer en profundidad los efectos que los procesos en si mismos tiene de forma individualizada sobre los materiales que componen el dispositivo y sus características finales. Este trabajo, desarrollado durante años en el Centro Láser de la UPM, en estrecha colaboración con Centro de Investigaciones Energéticas y Medioambientales (CIEMAT), la Universidad de Barcelona (UB), y la Universidad Politécnica de Cataluña (UPC), se centra justamente en un estudio detallado de dichos procesos, denominados habitualmente P1, P2, P3 y P4 atendiendo al orden en el que se realizan en el dispositivo. Este estudio incluye tanto la parametrización de los procesos, el análisis del efecto que los mismos producen sobre los materiales que componen el dispositivo y su comportamiento fotoeléctrico final, así como la evaluación del potencial uso de fuentes láser de última generación (ultrarrápidas) frente al estándar industrial en la actualidad que es el empleo de fuentes láser convencionales de ancho temporal en el rango de los nanosegundos. En concreto se ha estudiado en detalle las ventajas y limitaciones del uso de sistemas con diferentes rangos espectrales (IR, VIS y UV) y temporales (nanosegundos y picosegundos) para diferentes tipos de configuraciones y disposiciones tecnológicas (entendiendo por estas las habituales configuraciones en substrato y superestrato de este tipo de dispositivos). La caracterización individual de los procesos fue realizada primeramente en células de laboratorio específicamente diseñadas, abriendo nuevos planteamientos y conceptos originales para la mejora de los procesos láser de interconexión y posibilitando el empleo y desarrollo de técnicas y métodos avanzados de caracterización para el estudio de los procesos de ablación en las distintas láminas que conforman la estructura de los dispositivos fotovoltaicos, por lo que se considera que este trabajo ha propuesto una metodología completamente original, y que se ha demostrado efectiva, en este ámbito. Por último el trabajo aborda un tema de particular interés, como es el posible uso de los procesos desarrollados, no para construir los módulos fotovoltaicos en sí, sino para personalizarlos en forma y efectos visuales para potenciar su uso mediante elementos integrables arquitectónicamente, lo que es un ámbito de gran potencial de desarrollo futuro de las tecnologías fotovoltaicas de lámina delgada. En concreto se presentan estudios de fabricación de dispositivos integrables arquitectónicamente y plenamente funcionales no solo en dispositivos de silicio amorfo con efectos de transparencias y generación de formas libres, si no que también se incluye la posibilidad de hacer tales dispositivos con células de silicio cristalino estándar que es la tecnología fotovoltaica de mayor presencia en mercado. Es importante, además, resaltar que la realización de este trabajo ha sido posible gracias a la financiación obtenida con dos proyectos de investigación aplicada, MICROSIL (PSE-120000-2008-1) e INNDISOL (IPT-420000-2019-6), y los correspondientes al Plan Nacional de I+D+I financiados por el ministerio de Ciencia e Innovación y el Ministerio de Economía y Competitividad: CLÁSICO (ENE 2007- 67742-C04-04) y AMIC ENE2010-21384-C04-02. De hecho, y en el marco de estos proyectos, los resultados de este trabajo han ayudado a conseguir algunos de los hitos más importantes de la tecnología fotovoltaica en nuestro país en los últimos años, como fue en el marco de MICROSIL la fabricación del primer módulo de silicio amorfo con tecnología íntegramente española (hecho en colaboración con el CIEMAT), o la fabricación de los dispositivos para integración arquitectónica con geometrías libres que se describen en esta Tesis y que fueron parte de los desarrollos del proyecto INNDISOL. ABSTRACT This thesis focuses on the study of a sequence of laser-based technology and processes executed in photovoltaic devices, which are essential for the overall development of photovoltaic technologies based on thin film and, in particular, those using amorphous silicon as absorbent and subsequent applications of these technologies with high added value such as the architectural integration of such devices. In much of the PV thin film technologies, and particularly in the amorphous silicon material is deposited on a substrate in an area large enough so that it requires a process of subdivision of the device in cells of appropriate size, and subsequent serial connection to ensure nominal device power figures. This process has been industrially developed years ago, but there has been an associate scientific effort that would learn more about the effects that the processes themselves have either individually on the materials that make up the device and its final characteristics. This work, developed over years in the Laser Center of the UPM, in close collaboration with Centre for Energy and Environmental Research (CIEMAT), the University of Barcelona (UB) and the Polytechnic University of Catalonia (UPC)., Focuses precisely in a detailed study of these processes, usually they called P1, P2, P3 and P4 according to the order in which they perform on the device. This study includes both the parameters of the processes, the analysis of the effect they produce on the materials making up the device and its final photoelectric behavior as well as the potential use of EVALUATION of next-generation laser sources (ultrafast) versus standard industry today is the use of conventional laser sources temporal width in the range of nanoseconds. In particular we have studied in detail the advantages and limitations of using systems with different spectral ranges (IR, UV and VIS) and time (nanosecond and picosecond) for different configurations and technological provisions (meaning these typical configurations in substrate and superstrate such devices). Individual characterization of the processes was conducted primarily in laboratory cells specifically designed, opening new approaches and original concepts for improving laser interconnection processes and enabling the use and development of advanced techniques and characterization methods for studying the processes ablation in the different sheets making up the structure of the photovoltaic devices, so it is considered that this work has proposed a completely original methodology, which has proven effective in this area. Finally, the paper addresses a topic of particular interest, as is the possible use of lso developed processes, not to build the photovoltaic modules themselves but to customize fit and visual effects to enhance their use by integrated architectural elements, which is an area of great potential for future development of thin film photovoltaic technologies. Specifically studies manufacture of integrated architecturally and fully functional not only in amorphous silicon devices with transparency effects and generating freeform devices occur, if not also include the ability to make such devices with cells of standard crystalline silicon photovoltaic technology is more visible in the market. It is also important to note that the completion of this work has been possible thanks to the financing obtained with two applied research projects, Microsil (PSE-120000- 2008-1) and INNDISOL (IPT-420000-2019-6), and those for the National R & D funded by the Ministry of Science and Innovation and the Ministry of Economy and Competitiveness: CLASSIC (ENE 2007-67742-C04-04) and AMIC ENE2010-21384-C04- 02. In fact, within the framework of these projects, the results of this work have helped get some of the most important milestones of photovoltaic technology in our country in recent years, as it was under Microsil making the first module Amorphous silicon technology with entirely Spanish (made in collaboration with CIEMAT), or the manufacture of devices for architectural integration with free geometries that are described in this thesis and that were part of the project Inndisol developments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La norma UNE-EN 13374 “Sistemas provisionales de protección de borde. Especificaciones del producto, métodos de ensayo” (1) clasifica los sistemas provisionales de protección de borde (SPPB) en tres clases (A, B y C), en función del ángulo de la superficie de trabajo y de la altura de caída de la persona a proteger. Los sistemas clase A son los indicados cuando la inclinación de la superficie de trabajo es menor de 10º. La norma establece los requisitos de flecha y de resistencia de los SPPB. Los requisitos se pueden comprobar tanto analítica como experimentalmente. El objetivo del trabajo ha sido la evaluación del comportamiento de los SPPB utilizados habitualmente en las obras y establecer los cambios necesarios para que cumplan con la norma UNE-EN 13374. Para ello se han evaluado analítica y experimentalmente tres SPPB clase A, fabricados con acero S235. Los resultados obtenidos muestran que, el sistema empleado de forma habitual en obras no supera los requisitos de la norma ni analítica ni experimentalmente. El tercer sistema supera los requisitos con las dos metodologías de análisis. El segundo sistema supera los requisitos cuando la evaluación se realiza analíticamente pero no cuando la vía utilizada es la experimental.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This work discusses an iterative procedure of shaping offset dual-reflector antennas based on geometrical optics considering both far-field and near-field measurements of amplitude and phase from the feed horn. The surfaces synthesized will transform a known radiation field of a feed to a desired aperture distribution. This technique is applied for both circular and elliptical apertures and has the advantage to simplify the problem compared with existing techniques based on solving nonlinear differential equations. A MATLAB tool has been developed to implement the shaping algorithms. This procedure is applied for the design of a 1.1 m high-gain antenna for the ESA’s Solar Orbiter spacecraft. This antenna operating at X-band will manage high data rate and high efficiency communications with Earth stations.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A compact array of monopoles with a slotted ground plane is analyzed for being used in MIMO systems. Compact arrays suffer usually from high coupling which degrades significantly MIMO benefits. Through a matching network, main drawbacks can be solved, although it tends to provide a low bandwidth. The studied design is an array of monopoles with a slot in the ground plane. The slot shape is optimized with a Genetic Algorithm and an own electromagnetic software based on MoM in order to fulfill main figures of merit within a significant bandwidth

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Los requisitos cada vez más exigentes en cuanto a misiones, limitaciones operacionales y ambientales así como nuevas tecnologías, imponen permanentemente retos a los arquitectos navales para generar alternativas de buques y valorar su bondad en las primeras etapas del proyecto. Este es el caso de los Buques Patrulleros de Apoyo Fluvial Pesados PAF-P, que por requerimiento de la Armada Nacional de Colombia ha diseñado y construido COTECMAR. Los PAF-P, son buques fluviales cuya relación Manga-Calado excede la mayoría de los buques existentes (B/T=9,5), debido principalmente a las restricciones en el calado a consecuencia de la escasa profundidad de los ríos. Estos buques están equipados con sistemas de propulsión acimutales tipo “Pum-Jet”. Las particularidades del buque y del ambiente operacional, caracterizado por ríos tropicales con una variabilidad de profundidad dependiente del régimen de lluvias y sequía, así como la falta de canalización y la corriente, hacen que la maniobrabilidad y controlabilidad sean fundamentales para el cumplimiento de su misión; adicionalmente, no existen modelos matemáticos validados que permitan predecir en las primeras etapas del diseño la maniobrabilidad de este tipo de buques con los efectos asociados por profundidad. La presente tesis doctoral aborda el desarrollo de un modelo matemático para simulación de maniobrabilidad en aguas poco profundas de buques con relación manga-calado alta y con propulsores acimutales tipo “Pump-Jet”, cuyo chorro además de entregar el empuje necesario para el avance del buque, genera la fuerza de gobierno en función del ángulo de orientación del mismo, eliminando la necesidad de timones. El modelo matemático ha sido validado mediante los resultados obtenidos en las pruebas de maniobrabilidad a escala real del PAF-P, a través de la comparación de trayectorias, series temporales de las variables de estado más significativas y parámetros del círculo evolutivo como son diámetro de giro, diámetro táctico, avance y transferencia. El plan de pruebas se basó en técnicas de Diseño de Experimentos “DOE” para racionalizar el número de corridas en diferentes condiciones de profundidad, velocidad y orientación del chorro (ángulo de timón). En el marco de la presente investigación y para minimizar los errores por efectos ambientales y por inexactitud en los instrumentos de medición, se desarrolló un sistema de adquisición y procesamiento de datos de acuerdo con los lineamientos de ITTC. La literatura existente describe los efectos negativos de la profundidad en los parámetros de maniobrabilidad de buques convencionales (Efecto tipo S), principalmente las trayectorias descritas en los círculos evolutivos aumentan en la medida que disminuye la profundidad; no obstante, en buques de alta relación manga-calado, B/T=7,51 (Yoshimura, y otros, 1.988) y B/T=6,38 (Yasukawa, y otros, 1.995) ha sido reportado el efecto contrario (Efecto tipo NS Non Standart). Este último efecto sin embargo, ha sido observado mediante experimentación con modelos a escala pero no ha sido validado en pruebas de buques a escala real. El efecto tipo NS en buques dotados con hélice y timones, se atribuye al mayor incremento de la fuerza del timón comparativamente con las fuerzas del casco en la medida que disminuye la profundidad; en el caso de estudio, el fenómeno está asociado a la mejor eficiencia de la bomba de agua “Pump-Jet”, debido a la resistencia añadida en el casco por efecto de la disminución de la profundidad. Los resultados de las pruebas con buque a escala real validan el excelente desempeño de esta clase de buques, cumpliendo en exceso los criterios de maniobrabilidad existentes y muestran que el diámetro de giro y otras características de maniobrabilidad mejoran con la disminución de la profundidad en buques con alta relación manga-calado. ABSTRACT The increasingly demanding requirements in terms of missions, operational and environmental constraints as well as new technologies, constantly impose challenges to naval architects to generate alternatives and asses their performance in the early stages of design. That is the case of Riverine Support Patrol Vessel (RSPV), designed and built by COTECMAR for the Colombian Navy. RSPV are riverine ships with a Beam-Draft ratio exceeding most of existing ships (B/T=9,5), mainly due to the restrictions in draft as a result of shallow water environment. The ships are equipped with azimuthal propulsion system of the “Pump-Jet” type. The peculiarities of the ship and the operational environment, characterized by tropical rivers of variable depth depending on the rain and dry seasons, as well as the lack channels and the effect of water current, make manoeuvrability and controllability fundamental to fulfill its mission; on the other hand, there are not validated mathematical models available to predict the manoeuvrability of such ships with the associated water depth effects in the early stages of design. This dissertation addresses the development of a mathematical model for shallow waters’ manoeuvrability simulation of ships with high Beam-Draft ratio and azimuthal propulsion systems type “Pump-Jet”, whose stream generates the thrust required by the ship to advance and also the steering force depending on the orientation angle, eliminating the need of rudders. The mathematical model has been validated with the results of RSPV’s full scale manoeuvring tests, through a comparison of paths, time series of state variables and other parameters taken from turning tests, such as turning diameter, tactical diameter, advance and transfer. The test plan was developed applying techniques of Design of Experiments “DOE”, in order to rationalize the number of runs in different conditions of water depth, ship speed and jet stream orientation (rudder angle). A data acquisition and processing system was developed, following the guidelines of ITTC, as part of this research effort, in order to minimize errors by environmental effects and inaccuracy in measurement instruments, The negative effects of depth on manoeuvrability parameters for conventional ships (Effect Type S: the path described by the ship during turning test increase with decrease of water depth), has been documented in the open literature; however for wide-beam ships, B/T=7,51 (Yoshimura, y otros, 1.988) and B/T=6,38 (Yasukawa, y otros, 1.995) has been reported the opposite effect (Type NS). The latter effect has been observed thru model testing but until now had not been validated with full-scale results. In ships with propellers and rudders, type NS effect is due to the fact that increment of rudder force becomes larger than hull force with decrease of water depth; in the study case, the phenomenon is associated with better efficiency of the Pump-Jet once the vessel speed becomes lower, due to hull added resistance by the effect of the decrease of water depth. The results of full scale tests validates the excellent performance of this class of ships, fulfilling the manoeuvrability criteria in excess and showing that turning diameter and other parameters in high beam-draft ratio vessels do improve with the decrease of depth.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Los estudios paleoecológicos holocenos basados en macro- y megafósiles encierran un gran valor debido a que su información tiene generalmente carácter local, su origen es conocido, pueden ser datados directamente mediante el método radiocarbónico, y pueden identificarse a un nivel taxonómicamente preciso. Sin embargo son pocas las áreas del Sur de Europa en las que sea conocida una alta densidad de yacimientos con restos leñosos de gran tamaño. En esta tesis, se presentan datos de 53 yacimientos de la sierra de Gredos y de la cordillera Cantábrica (Península Ibérica). Los restos fueron hallados en ambientes variados, como zonas higroturbosas, turberas erosionadas o lagos, y fueron identificadas mediante el estudio de la anatomía de la madera o mediante rasgos morfológicos. En la sierra de Gredos, la evidencia paleobotánica indica la existencia de un panorama relativamente estable a lo largo del Holoceno medio y principio del Holoceno final y sugiere la persistencia, a lo largo de milenios, de un piso de pinares ampliamente distribuído en cotas altas de la sierra. La información obtenida de piñas y frutos mejoran la información taxonómica disponible y revelan la existencia tanto de Pinus sylvestris como de Pinus nigra en estas sierras durante el Holoceno. La datación radiocarbónica, medición de anillos de crecimiento y sincronización preliminar de 26 secciones de troncos de subfósiles demuestran el potencial de este material de las montañas de Iberia central en la obtención de cronologías holocenas de pino. En la cordillera Cantábrica, los datos aportan información espacialmente precisa de distribuciones de ciertas especies arbóreas durante el Holoceno. En las zonas centrales de la cordillera, han sido hallados fundamentalmente restos de pino, mientras que en las zonas más occidentales los pinos estás ausentes y los restos encontrados corresponden a otras especies de caducifolios (Betula, Salix, Quercus) y arbustos (Erica, Fabaceae) Esta información paleobiogeográfica constrasta con la distribución natural actual de Pinus sylvestris y Pinus nigra en el área de estudio. En la sierra de Gredos, la naturalidad de las escasos rodales de pinos que aún persisten ha sido discutida, mientras que en la cordillera Cantábrica, la única especie del grupo que persiste es P. sylvestris y está localizada en unos pocos relictos. El clima pudo haber jugado un papel importante en una primera fase de declive de los pinares durante el Holoceno inicial, mostrado en numerosos registros polínicos de manera casi sincrónica y asociada a una expansión de frondosas. Sin embargo la información histórica disponible y la comparación entre las áreas de distribución de los pinares en el presente, modelizada y en momentos anteriores a la la generalización de la presión antrópica sugiere que durante los últimos dos milenios, la actividad humana ha sido responsable de la desaparición de estas especies como árboles naturales en áreas extensas. ABSTRACTMacro- and megafossil studies provide information of great value in palaeoecology because such evidence is spatially precise, directly radiocarbon dated and usually taxon-specific. However, few areas of southern Europe have a high density of sites with Holocene woody remains. Here, local data from 53 sites in the Gredos Mountains and the Cantabrian Range (Iberian Peninsula) is presented. Woody remains were recovered from mires, eroded peat bogs and lakes and were identified by their wood anatomy or morphological traits. In the Gredos Mountains, palaeobotanical evidence portrays a relatively stable picture of tree distribution over the mid- and beggining of the late-Holocene, and suggests the persistence of a widespread belt of pinewoods. Cones and fruits enlarge the taxonomic information available and reveal that both Pinus sylvestris and Pinus nigra were present locally during the Holocene. Radiocarbon dating, tree ring measurement and preliminary cross-dating of 26 pine sub-fossil logs demonstrate the potential of obtaining a long pine chronology from subfossil wood from the mountains of Central Iberia. In the Cantabrian Range the data provide spatially precise evidence of tree distribution in the region during the Holocene. Pines were mostly identified in the central areas, whereas at the western edge no pine evidence was detected and deciduous trees (Betula, Salix, Quercus) and shrubs (Erica, Fabaceae) were identified. This palaeoecological information contrasts with the current natural distribution ranges of P. sylvestris and P. nigra in the study area. In the Gredos Mountains, the naturality of the few pine stands currently growing has been heavily debated. In the Cantabrian Range P. sylvestris is the only pine species that is today present, and its natural presence is now limited to a few enclaves. Climate may have played a key role in the early-Holocene, as pollen archives document a pine demise that is synchronous with the spread of broadleaved taxa. However, available historical data and the comparison of the reconstructed distribution of pinewoods before extensive human forest disturbance with both present and modelled distributions suggests that during the last two millennia, anthropogenic activity may have removed these species as native trees from a large territory.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En el presente artículo se proponen indicadores que permitan la búsqueda de trazados de autopistas más respetuosas con los valores ambientales del territorio en general y en particular con el paisaje. El trabajo desarrollado se ha dividido en dos fases. En una fase inicial se han recopilado recomendaciones teóricas orientadas a la búsqueda de trazados más respetuosos, a partir de manuales de trazado y de integración paisajística. En una segunda fase se ha realizado una revisión y selección de aquellos indicadores territoriales que permiten cuantificar la capacidad de acogida del territorio e incorporar dichas recomendaciones en función de ésta.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En la actualidad, el crecimiento de la población y el desarrollo tecnológico de nuestros tiempos han originado novedosas formas de confort para los habitantes, lo cual a su vez se traduce en una demanda creciente de energía. No obstante, el concepto energético está llegando a la conciencia y es necesario adaptarse a la nueva situación, por lo tanto, es imprescindible el estudio y el aprovechamiento de nuevos sistemas constructivos de cerramientos, como pueden ser los cerramientos multicapas ligeros, que presentan características favorables para el ahorro en el consumo energético, y a su vez pueden ser industrializados, obteniendo beneficios, como la mejora de la calidad, el acortamiento de plazos constructivos, mayor seguridad, altas prestaciones, mayor ligereza, más espacio habitable, entre otros. El desarrollo de esta tesis doctoral esta centrado en definir tres propuestas de Cerramientos Multicapas Ligeros (CML) con estructura de light steel frame, analizando el comportamiento térmico y acústico, así como también el coste económico de las mismas, con el objetivo de demostrar que este tipo de sistema constructivo es una alternativa competitiva a los sistemas de Cerramientos Tradicionales y, que a su vez se puedan implementar en cualquier sistema constructivo y se puedan adaptar a los distintos ambientes climáticos que existen en España. Por otro lado, se han seleccionado tres Cerramientos Tradicionales, para llevar a cabo las distintas comparativas propuestas. La investigación se desarrolla en cinco grandes partes: La primera parte está formada por la justificación de la investigación y el planteamiento de los objetivos, así como también la hipótesis de partida y la metodología empleada. En la segunda parte se definen los antecedentes teóricos, divididos en tres temas: el cerramiento ? la fachada, la transmisión del calor y la transmisión del sonido en los cerramientos. También se realiza una síntesis del trabajo de investigación previo que he realizado ?Caracterización del comportamiento térmico de fachadas multicapas ligeras?, el cual sirve de base de partida para el desarrollo de esta tesis. Y por último, se desarrollan distintos temas relacionados con el Light Steel Frame (LSF), en donde se lleva a cabo una búsqueda de la documentación disponible sobre las investigaciones científico-tecnológicas, desde distintos puntos de vista: térmico, acústico, económico, estructural, en caso de incendio, industrialización y medioambiental ? sostenibilidad. Una vez realizados todos los puntos anteriores y para sintetizar la información, se lleva a cabo una clasificación de los sistemas de cerramientos que tienen como estructura el light steel frame, se analizan las ventajas e inconvenientes de cada uno de estos sistemas de la clasificación, llegando a unas conclusiones que sirven de base para definir las propuestas de Cerramientos Multicapas Ligeros. En la tercera parte, se definen los tres cerramientos tradicionales que se utilizan para realizar las comparativas con los cerramientos multicapas ligeros, definiendo las características de cada uno de los materiales y, también se desarrollan los criterios de diseño que deben cumplir los cerramientos multicapas ligeros, definiendo cada una de las tres muestras de ensayo de cerramientos multicapas ligeros. En la cuarta parte se lleva a cabo el análisis teórico ? experimental de las seis muestras de estudio, en donde, se realiza una investigación térmica basada en simulaciones y experimentaciones en células de ensayo e implementación de la termografía infrarroja. Por otro lado, se realiza también una investigación acústica desarrollando ensayos en laboratorio de aislamiento a ruido aéreo e intensimetría sonora. Y por último, se hace un análisis económico, tomando en cuenta las variables del coste de construcción, el consumo energético, el ahorro que supone la masa a la estructura y el espacio adicional que aporta este tipo de sistema constructivo a la superficie útil, para ello se plantean distintos escenarios de estudio. Una vez obtenidos los resultados de las diferentes investigaciones (térmica, acústica y económica), se llevan a cabo una serie de comparativas entre los cerramientos multicapas ligeros y los cerramientos tradicionales, y los cerramientos multicapas ligeros entre sí. En la quinta parte, se exponen las conclusiones derivadas de las distintas investigaciones y se realiza la comprobación de los objetivos propuestos y de la hipótesis de partida, destacando los hallazgos principales para cada situación y se presentan las líneas futuras de investigación que han ido surgiendo en el desarrollo de la tesis doctoral.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

RESUMEN Las enfermedades cardiovasculares constituyen en la actualidad la principal causa de mortalidad en el mundo y se prevé que sigan siéndolo en un futuro, generando además elevados costes para los sistemas de salud. Los dispositivos cardiacos implantables constituyen una de las opciones para el diagnóstico y el tratamiento de las alteraciones del ritmo cardiaco. La investigación clínica con estos dispositivos alcanza gran relevancia para combatir estas enfermedades que tanto afectan a nuestra sociedad. Tanto la industria farmacéutica y de tecnología médica, como los propios investigadores, cada día se ven involucrados en un mayor número de proyectos de investigación clínica. No sólo el incremento en su volumen, sino el aumento de la complejidad, están generando mayores gastos en las actividades asociadas a la investigación médica. Esto está conduciendo a las compañías del sector sanitario a estudiar nuevas soluciones que les permitan reducir los costes de los estudios clínicos. Las Tecnologías de la Información y las Comunicaciones han facilitado la investigación clínica, especialmente en la última década. Los sistemas y aplicaciones electrónicos han proporcionado nuevas posibilidades en la adquisición, procesamiento y análisis de los datos. Por otro lado, la tecnología web propició la aparición de los primeros sistemas electrónicos de adquisición de datos, que han ido evolucionando a lo largo de los últimos años. Sin embargo, la mejora y perfeccionamiento de estos sistemas sigue siendo crucial para el progreso de la investigación clínica. En otro orden de cosas, la forma tradicional de realizar los estudios clínicos con dispositivos cardiacos implantables precisaba mejorar el tratamiento de los datos almacenados por estos dispositivos, así como para su fusión con los datos clínicos recopilados por investigadores y pacientes. La justificación de este trabajo de investigación se basa en la necesidad de mejorar la eficiencia en la investigación clínica con dispositivos cardiacos implantables, mediante la reducción de costes y tiempos de desarrollo de los proyectos, y el incremento de la calidad de los datos recopilados y el diseño de soluciones que permitan obtener un mayor rendimiento de los datos mediante la fusión de datos de distintas fuentes o estudios. Con este fin se proponen como objetivos específicos de este proyecto de investigación dos nuevos modelos: - Un modelo de recuperación y procesamiento de datos para los estudios clínicos con dispositivos cardiacos implantables, que permita estructurar y estandarizar estos procedimientos, con el fin de reducir tiempos de desarrollo Modelos de Métrica para Sistemas Electrónicos de Adquisición de Datos y de Procesamiento para Investigación Clínica con Dispositivos Cardiacos Implantables de estas tareas, mejorar la calidad del resultado obtenido, disminuyendo en consecuencia los costes. - Un modelo de métrica integrado en un Sistema Electrónico de Adquisición de Datos (EDC) que permita analizar los resultados del proyecto de investigación y, particularmente del rendimiento obtenido del EDC, con el fin de perfeccionar estos sistemas y reducir tiempos y costes de desarrollo del proyecto y mejorar la calidad de los datos clínicos recopilados. Como resultado de esta investigación, el modelo de procesamiento propuesto ha permitido reducir el tiempo medio de procesamiento de los datos en más de un 90%, los costes derivados del mismo en más de un 85% y todo ello, gracias a la automatización de la extracción y almacenamiento de los datos, consiguiendo una mejora de la calidad de los mismos. Por otro lado, el modelo de métrica posibilita el análisis descriptivo detallado de distintos indicadores que caracterizan el rendimiento del proyecto de investigación clínica, haciendo factible además la comparación entre distintos estudios. La conclusión de esta tesis doctoral es que los resultados obtenidos han demostrado que la utilización en estudios clínicos reales de los dos modelos desarrollados ha conducido a una mejora en la eficiencia de los proyectos, reduciendo los costes globales de los mismos, disminuyendo los tiempos de ejecución, e incrementando la calidad de los datos recopilados. Las principales aportaciones de este trabajo de investigación al conocimiento científico son la implementación de un sistema de procesamiento inteligente de los datos almacenados por los dispositivos cardiacos implantables, la integración en el mismo de una base de datos global y optimizada para todos los modelos de dispositivos, la generación automatizada de un repositorio unificado de datos clínicos y datos de dispositivos cardiacos implantables, y el diseño de una métrica aplicada e integrable en los sistemas electrónicos de adquisición de datos para el análisis de resultados de rendimiento de los proyectos de investigación clínica. ABSTRACT Cardiovascular diseases are the main cause of death worldwide and it is expected to continue in the future, generating high costs for health care systems. Implantable cardiac devices have become one of the options for diagnosis and treatment of cardiac rhythm disorders. Clinical research with these devices has acquired great importance to fight against these diseases that affect so many people in our society. Both pharmaceutical and medical technology companies, and also investigators, are involved in an increasingly number of clinical research projects. The growth in volume and the increase in medical research complexity are contributing to raise the expenditure level associated with clinical investigation. This situation is driving health care sector companies to explore new solutions to reduce clinical trial costs. Information and Communication Technologies have facilitated clinical research, mainly in the last decade. Electronic systems and software applications have provided new possibilities in the acquisition, processing and analysis of clinical studies data. On the other hand, web technology contributed to the appearance of the first electronic data capture systems that have evolved during the last years. Nevertheless, improvement of these systems is still a key aspect for the progress of clinical research. On a different matter, the traditional way to develop clinical studies with implantable cardiac devices needed an improvement in the processing of the data stored by these devices, and also in the merging of these data with the data collected by investigators and patients. The rationale of this research is based on the need to improve the efficiency in clinical investigation with implantable cardiac devices, by means of reduction in costs and time of projects development, as well as improvement in the quality of information obtained from the studies and to obtain better performance of data through the merging of data from different sources or trials. The objective of this research project is to develop the next two models: • A model for the retrieval and processing of data for clinical studies with implantable cardiac devices, enabling structure and standardization of these procedures, in order to reduce the time of development of these tasks, to improve the quality of the results, diminish therefore costs. • A model of metric integrated in an Electronic Data Capture system (EDC) that allow to analyze the results of the research project, and particularly the EDC performance, in order to improve those systems and to reduce time and costs of the project, and to get a better quality of the collected clinical data. As a result of this work, the proposed processing model has led to a reduction of the average time for data processing by more than 90 per cent, of related costs by more than 85 per cent, and all of this, through automatic data retrieval and storage, achieving an improvement of quality of data. On the other hand, the model of metrics makes possible a detailed descriptive analysis of a set of indicators that characterize the performance of each research project, allowing inter‐studies comparison. This doctoral thesis results have demonstrated that the application of the two developed models in real clinical trials has led to an improvement in projects efficiency, reducing global costs, diminishing time in execution, and increasing quality of data collected. The main contributions to scientific knowledge of this research work are the implementation of an intelligent processing system for data stored by implantable cardiac devices, the integration in this system of a global and optimized database for all models of devices, the automatic creation of an unified repository of clinical data and data stored by medical devices, and the design of a metric to be applied and integrated in electronic data capture systems to analyze the performance results of clinical research projects.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este texto propone la incorporación de las ideas de sistemas como elemento indispensable en los currículos universitarios relacionados con computación. Con este objetivo,se presenta la experiencia acumulada en la Escuela Técnica Superior de Ingenieros de Telecomunicación de Madrid desde 1978. Más concretamente, se muestran los objetivos,metodología y resultados obtenidos dentro de una asignatura denominada Ingeniería de Sistemas, integrada en el último curso de una especialización en Ingeniería Telemática (Informática y Comunicaciones).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Durante el transcurso de esta Tesis Doctoral se ha realizado un estudio de la problemática asociada al desarrollo de sistemas de interacción hombre-máquina sensibles al contexto. Este problema se enmarca dentro de dos áreas de investigación: los sistemas interactivos y las fuentes de información contextual. Tradicionalmente la integración entre ambos campos se desarrollaba a través de soluciones verticales específicas, que abstraen a los sistemas interactivos de conocer los procedimientos de bajo nivel de acceso a la información contextual, pero limitan su interoperabilidad con otras aplicaciones y fuentes de información. Para solventar esta limitación se hace imprescindible potenciar soluciones interoperables que permitan acceder a la información del mundo real a través de procedimientos homogéneos. Esta problemática coincide perfectamente con los escenarios de \Computación Ubicua" e \Internet de las Cosas", donde se apunta a un futuro en el que los objetos que nos rodean serán capaces de obtener información del entorno y comunicarla a otros objetos y personas. Los sistemas interactivos, al ser capaces de obtener información de su entorno a través de la interacción con el usuario, pueden tomar un papel especial en este escenario tanto como consumidores como productores de información. En esta Tesis se ha abordado la integración de ambos campos teniendo en cuenta este escenario tecnológico. Para ello, en primer lugar se ha realizado un an álisis de las iniciativas más importantes para la definición y diseño de sistemas interactivos, y de las principales infraestructuras de suministro de información. Mediante este estudio se ha propuesto utilizar el lenguaje SCXML del W3C para el diseño de los sistemas interactivos y el procesamiento de los datos proporcionados por fuentes de contexto. Así, se ha reflejado cómo las capacidades del lenguaje SCXML para combinar información de diferentes modalidades pueden también utilizarse para procesar e integrar información contextual de diferentes fuentes heterogéneas, y por consiguiente diseñar sistemas de interacción sensibles al contexto. Del mismo modo se presenta a la iniciativa Sensor Web, y a su extensión semántica Semantic Sensor Web, como una iniciativa idónea para permitir un acceso y suministro homogéneo de la información a los sistemas interactivos sensibles al contexto. Posteriormente se han analizado los retos que plantea la integración de ambos tipos de iniciativas. Como resultado se ha conseguido establecer una serie de funcionalidades que son necesarias implementar para llevar a cabo esta integración. Utilizando tecnologías que aportan una gran flexibilidad al proceso de implementación y que se apoyan en recomendaciones y estándares actuales, se implementaron una serie de desarrollos experimentales que integraban las funcionalidades identificadas anteriormente. Finalmente, con el fin de validar nuestra propuesta, se realizaron un conjunto de experimentos sobre un entorno de experimentación que simula el escenario de la conducción. En este escenario un sistema interactivo se comunica con una extensión semántica de una plataforma basada en los estándares de la Sensor Web para poder obtener información y publicar las observaciones que el usuario realizaba al sistema. Los resultados obtenidos han demostrado la viabilidad de utilizar el lenguaje SCXML para el diseño de sistemas interactivos sensibles al contexto que requieren acceder a plataformas avanzadas de información para consumir y publicar información a la vez que interaccionan con el usuario. Del mismo modo, se ha demostrado cómo la utilización de tecnologías semánticas en los procesos de consulta y publicación de información puede facilitar la reutilización de la información publicada en infraestructuras Sensor Web por cualquier tipo de aplicación, y de este modo contribuir al futuro escenario de Internet de las Cosas. ABSTRACT In this Thesis, we have addressed the difficulties related to the development of context-aware human-machine interaction systems. This issue is part of two research fields: interactive systems and contextual information sources. Traditionally both fields have been integrated through domain-specific vertical solutions that allow interactive systems to access contextual information without having to deal with low-level procedures, but restricting their interoperability with other applications and heterogeneous data sources. Thus, it is essential to boost the research on interoperable solutions that provide access to real world information through homogeneous procedures. This issue perfectly matches with the scenarios of \Ubiquitous Computing" and \Internet of Things", which point toward a future in which many objects around us will be able to acquire meaningful information about the environment and communicate it to other objects and to people. Since interactive systems are able to get information from their environment through interaction with the user, they can play an important role in this scenario as they can both consume real-world data and produce enriched information. This Thesis deals with the integration of both fields considering this technological scenario. In order to do this, we first carried out an analysis of the most important initiatives for the definition and design of interactive systems, and the main infrastructures for providing information. Through this study the use of the W3C SCXML language is proposed for both the design of interactive systems and the processing of data provided by different context sources. Thus, this work has shown how the SCXML capabilities for combining information from different modalities can also be used to process and integrate contextual information from different heterogeneous sensor sources, and therefore to develope context-aware interaction systems. Similarly, we present the Sensor Web initiative, and its semantic extension Semantic Sensor Web, as an appropriate initiative to allow uniform access and delivery of information to the context-aware interactive systems. Subsequently we have analyzed the challenges of integrating both types of initiatives: SCXML and (Semantic) Sensor Web. As a result, we state a number of functionalities that are necessary to implement in order to perform this integration. By using technologies that provide exibility to the implementation process and are based on current recommendations and standards, we implemented a series of experimental developments that integrate the identified functionalities. Finally, in order to validate our approach, we conducted different experiments with a testing environment simulating a driving scenario. In this framework an interactive system can access a semantic extension of a Telco plataform, based on the standards of the Sensor Web, to acquire contextual information and publish observations that the user performed to the system. The results showed the feasibility of using the SCXML language for designing context-aware interactive systems that require access to advanced sensor platforms for consuming and publishing information while interacting with the user. In the same way, it was shown how the use of semantic technologies in the processes of querying and publication sensor data can assist in reusing and sharing the information published by any application in Sensor Web infrastructures, and thus contribute to realize the future scenario of \Internet of Things".

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Los sistemas de pago con móvil son una alternativa de pago a los medios de pago electrónicos tradicionales que están siendo cada vez más utilizados en nuestra sociedad. Son varios los factores que han llevado a la utilización de esta forma alternativa de pago. Los terminales móviles se han convertido en una herramienta casi vital para la sociedad, lo cual ha contribuido a una gran aceptación y desarrollo de los terminales móviles que cada vez cuentan con más funcionalidades. Gracias a esto, las comunicaciones móviles también están en constante evolución y ello ha influido notablemente para que se puedan desarrollar nuevos servicios e implementar nuevas funcionalidades en los terminales móviles. Por otro lado, la tendencia de los usuarios a usar cada día más los sistemas de pago electrónicos, intentando en la medida de lo posible prescindir del dinero en efectivo, también es un factor que ha permitido impulsar el desarrollo de este tipo de sistema de pagos emergentes. En el otro lado se encuentra el mundo empresarial, donde por un lado están las empresas de telecomunicaciones que no quieren dejar escapar esta oportunidad de negocio y están invirtiendo dinero para desarrollar nuevas infraestructuras que permitan el pago con móvil, y por otro lado se encuentran las entidades financieras que son necesarias para poder llevar a cabo los pagos a través del móvil, y por tanto tienen que formar parte de la solución llegando a los acuerdos necesarios con los proveedores de servicios. En este trabajo se realiza un análisis de las diferentes plataformas de pago por móvil existentes en la actualidad, prestando especial atención a los aspectos que tienen que ver con la seguridad y la disponibilidad y acceso de la información bancaria del usuario. Asimismo también se analiza la arquitectura de cada plataforma como su funcionamiento, aclarando la interacción y el papel que juegan las diferentes partes implicadas. Para ello hay un capítulo dedicado a la seguridad donde se presentan conceptos y protocolos que son aplicados en las soluciones de pagos electrónicos, y una descripción de los sistemas de pago electrónicos más usados actualmente, los cuales presentan muchas similitudes con los sistemas de pago con móvil. Por último se recogen diferentes experiencias llevadas a cabo en nuestro país de pagos con móvil, destacando la experiencia de los usuarios así como el método empleado. ABSTRACT. Mobile payment systems are payment methods alternative to traditional electronic payment ones that are being increasingly used in our society. Several factors have led to the use of this alternative form of payment. Mobile terminals have become almost a vital tool for society, which has contributed to a wide acceptance and development of mobile terminals that are getting more features all the time. As a result, mobile communications are also evolving and they have had such a great influence that they have developed new services and implemented new features in mobile terminals. What is more, the growing tendency among users to use electronic payment systems, trying to make their payments whithout cash as often as possible, is also a factor that has allowed the boost the development of such emerging payment systems. The other partner of these systems is the business world, where on one hand, the telecommunication companies that do not want to miss this business opportunity are investing funds to develop new infrastructures which enable the mobile payment, and on the other hand, the financial institutions that are necessary to carry out payments via mobile, and therefore need to be part of the solution reaching the necessary agreements with service providers, want their own saying and their own share of the potential profits. This report is an analysis of the different mobile payment platforms existing today, with particular attention to the aspects that have to do with security and the availability and acces of user’s bank information. Likewise, it also analyzes the architecture of each platform and its operation and interaction procedures, clarifying the role of the different parties involved. Previously there is a chapter that presents security concepts and protocols that are applied in electronic payment solutions, and a description of the electronic trade systems most widely used currently, which have many similarities with mobile payment systems. Finally, it shows different experiments carried out in our country of mobile payments, highlighting the experience of users as well as the method used.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En este artículo se presenta la aplicación del Método de los Elementos de Contorno a la determinación del campo de desplazamientos y tensiones de sistemas axisimétricos en régimen elástico. Desarrollando asimismo, un procedimiento para la determinación de los coeficientes de las matrices de influencia que aparecen en el tratamiento numérico del problema. El estudio del estado tensional del sistema axisimétrico es de obvio interés en Ingeniería, pudiendo citarse entre otras las siguientes aplicaciones: estudio de vasijas de todo tipo, y cobrando plena actualidad las vasijas de los reactores nucleares; efecto de grietas y entallas; efecto de la colocación de zunchos de pretensado en depósitos de hormigon armado, etc. El tratamiento numérico de este tipo de problemas se produce como consecuencia de la dificultad de encontrar soluciones cerradas para las ecuaciones de campo que definen el problema, ecuaciones que aunque establecidas hace tiempo, sólo han sido resueltas en casos particulares. La ventaja de la utilización del M.E.C.,frente a los métodos de dominio, se pone de manifiesto en el estudio de este tipo de sistemas ya que la consideración de una malla monodimensional es suficiente para representar la discretización del contorno, produciendose una considerable reducción del tiempo de cómputo.