133 resultados para Aplicaciones de las computadoras
Resumo:
RESUMEN Las aplicaciones de los Sistemas de Información Geográfica (SIG) a la Arqueología, u otra disciplina humanística no son una novedad. La evolución de los mismos hacia sistemas distribuidos e interoperables, y estructuras donde las políticas de uso, compartido y coordinado de los datos sí lo son, estando todos estos aspectos contemplados en la Infraestructura de Datos Espaciales. INSPIRE es el máximo exponente europeo en cuestiones de iniciativa y marco legal en estos aspectos. La metodología arqueológica recopila y genera gran cantidad de datos, y entre los atributos o características intrínsecas están la posición y el tiempo, aspectos que tradicionalmente explotan los SIG. Los datos se catalogan, organizan, mantienen, comparten y publican, y los potenciales consumidores comienzan a tenerlos disponibles. Toda esta información almacenada de forma tradicional en fichas y posteriormente en bases de datos relacionadas alfanuméricas pueden ser considerados «metadatos» en muchos casos por contener información útil para más usuarios en los procesos de descubrimiento, y explotación de los datos. Además estos datos también suelen ir acompañados de información sobre ellos mismos, que describe su especificaciones, calidad, etc. Cotidianamente usamos los metadatos: ficha bibliográfica del libro o especificaciones de un ordenador. Pudiéndose definir como: «información descriptiva sobre el contexto, calidad, condición y características de un recurso, dato u objeto que tiene la finalidad de facilitar su recuperación, identificación,evaluación, preservación y/o interoperabilidad». En España existe una iniciativa para estandarizar la descripción de los metadatos de los conjuntos de datos geoespaciales: Núcleo Español de Metadatos (NEM), los mismos contienen elementos para la descripción de las particularidades de los datos geográficos, que incluye todos los registros obligatorios de la Norma ISO19115 y del estudio de metadatos Dublin Core, tradicionalmente usado en contextos de Biblioteconomía. Conscientes de la necesidad de los metadatos, para optimizar la búsqueda y recuperación de los datos, se pretende formalizar la documentación de los datos arqueológicos a partir de la utilización del NEM, consiguiendo así la interoperabilidad de la información arqueológica. SUMMARY The application of Geographical Information Systems (GIS) to Archaeology and other social sciences is not new. Their evolution towards inter-operating, distributed systems, and structures in which policies for shared and coordinated data use are, and all these aspects are included in the Spatial Data Infrastructure (SDI). INSPIRE is the main European exponent in matters related to initiative and legal frame. Archaeological methodology gathers and creates a great amount of data, and position and time, aspects traditionally exploited by GIS, are among the attributes or intrinsic characteristics. Data are catalogued, organised, maintained, shared and published, and potential consumers begin to have them at their disposal. All this information, traditionally stored as cards and later in relational alphanumeric databases may be considered «metadata» in many cases, as they contain information that is useful for more users in the processes of discovery and exploitation of data. Moreover, this data are often accompanied by information about themselves, describing its especifications, quality, etc. We use metadata very often: in a book’s bibliographical card, or in the description of the characteristics of a computer. They may be defined as «descriptive information regarding the context, quality, condition and characteristics of a resource, data or object with the purpose of facilitating is recuperation, identification, evaluation, preservation and / interoperability.» There is an initiative in Spain to standardise the description of metadata in sets of geo-spatial data: the Núcleo Español de Metadatos (Spanish Metadata Nucleus), which contains elements for the description of the particular characteristics of geographical data, includes all the obligatory registers from the ISO Norm 19115 and from the metadata study Dublin Core, traditionally used in library management. Being aware of the need of metadata, to optimise the search and retrieval of data, the objective is to formalise the documentation of archaeological data from the Núcleo Español de Metadatos (Spanish Metadata Nucleus), thus obtaining the interoperability of the archaeological information.
Resumo:
Este trabajo aborda el problema de modelizar sistemas din´amicos reales a partir del estudio de sus series temporales, usando una formulaci´on est´andar que pretende ser una abstracci´on universal de los sistemas din´amicos, independientemente de su naturaleza determinista, estoc´astica o h´ıbrida. Se parte de modelizaciones separadas de sistemas deterministas por un lado y estoc´asticos por otro, para converger finalmente en un modelo h´ıbrido que permite estudiar sistemas gen´ericos mixtos, esto es, que presentan una combinaci´on de comportamiento determinista y aleatorio. Este modelo consta de dos componentes, uno determinista consistente en una ecuaci´on en diferencias, obtenida a partir de un estudio de autocorrelaci´on, y otro estoc´astico que modeliza el error cometido por el primero. El componente estoc´astico es un generador universal de distribuciones de probabilidad, basado en un proceso compuesto de variables aleatorias, uniformemente distribuidas en un intervalo variable en el tiempo. Este generador universal es deducido en la tesis a partir de una nueva teor´ıa sobre la oferta y la demanda de un recurso gen´erico. El modelo resultante puede formularse conceptualmente como una entidad con tres elementos fundamentales: un motor generador de din´amica determinista, una fuente interna de ruido generadora de incertidumbre y una exposici´on al entorno que representa las interacciones del sistema real con el mundo exterior. En las aplicaciones estos tres elementos se ajustan en base al hist´orico de las series temporales del sistema din´amico. Una vez ajustados sus componentes, el modelo se comporta de una forma adaptativa tomando como inputs los nuevos valores de las series temporales del sistema y calculando predicciones sobre su comportamiento futuro. Cada predicci´on se presenta como un intervalo dentro del cual cualquier valor es equipro- bable, teniendo probabilidad nula cualquier valor externo al intervalo. De esta forma el modelo computa el comportamiento futuro y su nivel de incertidumbre en base al estado actual del sistema. Se ha aplicado el modelo en esta tesis a sistemas muy diferentes mostrando ser muy flexible para afrontar el estudio de campos de naturaleza dispar. El intercambio de tr´afico telef´onico entre operadores de telefon´ıa, la evoluci´on de mercados financieros y el flujo de informaci´on entre servidores de Internet son estudiados en profundidad en la tesis. Todos estos sistemas son modelizados de forma exitosa con un mismo lenguaje, a pesar de tratarse de sistemas f´ısicos totalmente distintos. El estudio de las redes de telefon´ıa muestra que los patrones de tr´afico telef´onico presentan una fuerte pseudo-periodicidad semanal contaminada con una gran cantidad de ruido, sobre todo en el caso de llamadas internacionales. El estudio de los mercados financieros muestra por su parte que la naturaleza fundamental de ´estos es aleatoria con un rango de comportamiento relativamente acotado. Una parte de la tesis se dedica a explicar algunas de las manifestaciones emp´ıricas m´as importantes en los mercados financieros como son los “fat tails”, “power laws” y “volatility clustering”. Por ´ultimo se demuestra que la comunicaci´on entre servidores de Internet tiene, al igual que los mercados financieros, una componente subyacente totalmente estoc´astica pero de comportamiento bastante “d´ocil”, siendo esta docilidad m´as acusada a medida que aumenta la distancia entre servidores. Dos aspectos son destacables en el modelo, su adaptabilidad y su universalidad. El primero es debido a que, una vez ajustados los par´ametros generales, el modelo se “alimenta” de los valores observables del sistema y es capaz de calcular con ellos comportamientos futuros. A pesar de tener unos par´ametros fijos, la variabilidad en los observables que sirven de input al modelo llevan a una gran riqueza de ouputs posibles. El segundo aspecto se debe a la formulaci´on gen´erica del modelo h´ıbrido y a que sus par´ametros se ajustan en base a manifestaciones externas del sistema en estudio, y no en base a sus caracter´ısticas f´ısicas. Estos factores hacen que el modelo pueda utilizarse en gran variedad de campos. Por ´ultimo, la tesis propone en su parte final otros campos donde se han obtenido ´exitos preliminares muy prometedores como son la modelizaci´on del riesgo financiero, los algoritmos de routing en redes de telecomunicaci´on y el cambio clim´atico. Abstract This work faces the problem of modeling dynamical systems based on the study of its time series, by using a standard language that aims to be an universal abstraction of dynamical systems, irrespective of their deterministic, stochastic or hybrid nature. Deterministic and stochastic models are developed separately to be merged subsequently into a hybrid model, which allows the study of generic systems, that is to say, those having both deterministic and random behavior. This model is a combination of two different components. One of them is deterministic and consisting in an equation in differences derived from an auto-correlation study and the other is stochastic and models the errors made by the deterministic one. The stochastic component is an universal generator of probability distributions based on a process consisting in random variables distributed uniformly within an interval varying in time. This universal generator is derived in the thesis from a new theory of offer and demand for a generic resource. The resulting model can be visualized as an entity with three fundamental elements: an engine generating deterministic dynamics, an internal source of noise generating uncertainty and an exposure to the environment which depicts the interactions between the real system and the external world. In the applications these three elements are adjusted to the history of the time series from the dynamical system. Once its components have been adjusted, the model behaves in an adaptive way by using the new time series values from the system as inputs and calculating predictions about its future behavior. Every prediction is provided as an interval, where any inner value is equally probable while all outer ones have null probability. So, the model computes the future behavior and its level of uncertainty based on the current state of the system. The model is applied to quite different systems in this thesis, showing to be very flexible when facing the study of fields with diverse nature. The exchange of traffic between telephony operators, the evolution of financial markets and the flow of information between servers on the Internet are deeply studied in this thesis. All these systems are successfully modeled by using the same “language”, in spite the fact that they are systems physically radically different. The study of telephony networks shows that the traffic patterns are strongly weekly pseudo-periodic but mixed with a great amount of noise, specially in the case of international calls. It is proved that the underlying nature of financial markets is random with a moderate range of variability. A part of this thesis is devoted to explain some of the most important empirical observations in financial markets, such as “fat tails”, “power laws” and “volatility clustering”. Finally it is proved that the communication between two servers on the Internet has, as in the case of financial markets, an underlaying random dynamics but with a narrow range of variability, being this lack of variability more marked as the distance between servers is increased. Two aspects of the model stand out as being the most important: its adaptability and its universality. The first one is due to the fact that once the general parameters have been adjusted , the model is “fed” on the observable manifestations of the system in order to calculate its future behavior. Despite the fact that the model has fixed parameters the variability in the observable manifestations of the system, which are used as inputs of the model, lead to a great variability in the possible outputs. The second aspect is due to the general “language” used in the formulation of the hybrid model and to the fact that its parameters are adjusted based on external manifestations of the system under study instead of its physical characteristics. These factors made the model suitable to be used in great variety of fields. Lastly, this thesis proposes other fields in which preliminary and promising results have been obtained, such as the modeling of financial risk, the development of routing algorithms for telecommunication networks and the assessment of climate change.
Resumo:
La amplia difusión de los dispositivos móviles en el mercado actual ha puesto al alcance de la mano, altas capacidades de cómputo y diversidad de sensores. Esto ha posibilitado el auge de la Realidad Aumentada, lo cuál busca superponer información al mundo real con el fin de enriquecerlo para un fin determinado. Este trabajo presenta un estado de la cuestión sobre esta área de investigación y se centra específicamente en la Realidad Aumentada en espacios interiores. Uno de los principales problemas de este escenario es el de obtener la posición del usuario y utilizar esta información durante el proceso de Realidad Aumentada, este problema y las soluciones propuestas han sido descritas y evaluadas en el presente documento. Sin embargo, este trabajo da un paso fuera del ámbito teórico al construir un prototipo de Realidad Aumentada en Interiores, el cual implementa diversos aspectos tratados en el estado de la cuestión para un dominio de aplicación concreto, esta implementación permitió por una parte identificar las falencias de los elementos actualmente propuestos para posicionamiento en interiores y por otra parte detectar y afrontar otros problemas técnicos en el desarrollo de este tipo de aplicaciones. Toda esta experiencia es descrita en este documento con el fin que sirva de guía para futuros trabajos en el área.
Resumo:
Los Sistemas de SHM o de monitorización de la integridad estructural surgen ante la necesidad de mejorar los métodos de evaluación y de test no destructivos convencionales. De esta manera, se puede tener controlado todo tipo de estructuras en las cuales su correcto estado o funcionamiento suponga un factor crítico. Un Sistema SHM permite analizar una estructura concreta capturando de manera periódica el estado de la integridad estructural, que en este proyecto se ha aplicado a estructuras aeronáuticas. P.A.M.E.L.A. (Phase Array Monitoring for Enhanced Life Assessment) es la denominación utilizada para definir una serie de equipos electrónicos para Sistemas SHM desarrollados por AERNOVA y los Grupos de Diseño Electrónico de las universidades UPV/EHU y UPM. Los dispositivos P.A.M.E.L.A. originalmente no cuentan con tecnología Wi-Fi, por lo que incorporan un módulo hardware independiente que se encarga de las comunicaciones inalámbricas, a los que se les denomina Nodos. Estos Nodos poseen un Sistema Operativo propio y todo lo necesario para administrar y organizar la red Mallada Wi-Fi. De esta manera se obtiene una red mallada inalámbrica compuesta por Nodos que interconectan los Sistemas SHM y que se encargan de transmitir los datos a los equipos que procesan los resultados adquiridos por P.A.M.E.L.A. Los Nodos son dispositivos empotrados que llevan instalados un firmware basado en una distribución de Linux para Nodos (o Routers), llamado Openwrt. Que para disponer de una red mallada necesitan de un protocolo orientado a este tipo de redes. Entre las opciones de protocolo más destacadas se puede mencionar: DSDV (Destination Sequenced Distance Vector), OLSR (Optimized Link State Routing), B.A.T.M.A.N-Adv (Better Approach To Mobile Adhoc Networking Advance), BMX (una versión de B.A.T.M.A.N-Adv), AODV (Ad hoc On-Demand Distance Vector) y el DSR (Dynamic Source Routing). Además de la existencia de protocolos orientados a las redes malladas, también hay organizaciones que se dedican a desarrollar firmware que los utilizan, como es el caso del firmware llamado Nightwing que utiliza BMX, Freifunk que utiliza OLSR o Potato Mesh que utiliza B.A.T.M.A.N-Adv. La ventaja de estos tres firmwares mencionados es que las agrupaciones que las desarrollan proporcionan las imágenes precompiladas del sistema,listas para cargarlas en distintos modelos de Nodos. En este proyecto se han instalado las imágenes en los Nodos y se han probado los protocolos BMX, OLSR y B.A.T.M.A.N.-Adv. Concluyendo que la red gestionada por B.A.T.M.A.N.-Adv era la que mejor rendimiento obtenía en cuanto a estabilidad y ancho de banda. Después de haber definido el protocolo a usar, se procedió a desarrollar una distribución basada en Openwrt, que utilice B.A.T.M.A.N.-Adv para crear la red mallada, pero que se ajuste mejor a las necesidades del proyecto, ya que Nightwing, Freifunk y Potato Mesh no lo hacían. Además se implementan aplicaciones en lenguaje ANSI C y en LabVIEW para interactuar con los Nodos y los Sistemas SHM. También se procede a hacer alguna modificación en el Hardware de P.A.M.E.L.A. y del Nodo para obtener una mejor integración entre los dos dispositivos. Y por ultimo, se prueba la transferencia de datos de los Nodos en distintos escenarios. ABSTRACT. Structural Health Monitoring (SHM) systems arise from the need of improving assessment methods and conventional nondestructive tests. Critical structures can be monitored using SHM. A SHM system analyzes periodically a specific structure capturing the state of structural integrity. The aim of this project is to contribute in the implementation of Mesh network for SHM system in aircraft structures. P.A.M.E.L.A. (Phase Array Monitoring for Enhanced Life Assessment) is the name for electronic equipment developed by AERNOVA, the Electronic Design Groups of university UPV/EHU and the Instrumentation and Applied Acoustics research group from UPM. P.A.M.E.L.A. devices were not originally equipped with Wi-Fi interface. In this project a separate hardware module that handles wireless communications (nodes) has been added. The nodes include an operating system for manage the Wi-Fi Mesh Network and they form the wireless mesh network to link SHM systems with monitoring equipment. Nodes are embedded devices with an installed firmware based on special Linux distribution used in routers or nodes, called OpenWRT. They need a Mesh Protocol to stablish the network. The most common protocols options are: DSDV (Destination Sequenced Distance Vector), OLSR (Optimized Link State Routing), BATMAN-Adv (Better Approach To Mobile Ad-hoc Networking Advance), BMX (a version of BATMAN-Adv) AODV (Ad hoc on-Demand Distance Vector) and DSR (Dynamic Source Routing). In addition, there are organizations that are dedicated to develope firmware using these Mesh Protocols, for instance: Nightwing uses BMX, Freifunk use OLSR and Potato Mesh uses BATMAN-Adv. The advantage of these three firmwares is that these groups develop pre-compiled images of the system ready to be loaded in several models of Nodes. In this project the images were installed in the nodes. In this way, BMX, OLSR and BATMAN-Adv have been tested. We conclude that the protocol BATMAN-Adv has better performance in terms of stability and bandwidth. After choosing the protocol, the objective was to develop a distribution based on OpenWRT, using BATMAN-Adv to create the mesh network. This distribution is fitted to the requirements of this project. Besides, in this project it has been developed applications in C language and LabVIEW to interact with the Nodes and the SHM systems. The project also address some modifications to the PAMELA hardware and the Node, for better integration between both elements. Finally, data transfer tests among the different nodes in different scenarios has been carried out.
Resumo:
La siguiente investigación está centrada en establecer las diferencias en la reutilización, en los hormigones de consistencia seca, de dos tipos de caucho obtenidos en el proceso del reciclado del neumático, caucho reciclado del neumático (CRN): los tamaños del granulado (4-8 mm) de caucho reciclado de alta calidad (CR: Caucho Limpio) y el desecho del proceso del reciclado: fibra textil y de acero con trazas de caucho (desecho del caucho reciclado, IR: Caucho de impurezas). Ambos tipos fueron clasificados y añadidos como árido en sustitución del árido grueso (grava) desde el 20 al 100% del volumen. El comportamiento físico y mecánico del IR en los hormigones fue comparado con el hormigón de referencia y las series con el CR para el futuro uso en piezas de hormigón prefabricado. En ambos casos se aprecia una reducción de las resistencias mecánicas en proporción con las cantidades de caucho de sustitución, pero menos en series con IR con una combinación satisfactoria de fibra textil y metálica. El IR muestra mayores pérdidas en propiedades tales como trabajabilidad y densidad, pero también con un incremento de la porosidad. Estos hechos facilitan nuevas opciones para los desechos procedentes del CRN en los hormigones y por lo tanto menores gastos de energía, logrando una tasa de éxito en el proceso de reciclado cercano al 100%. The following research is focused on establishing the differences in the re-use as aggregate in dry consistency concretes of two types of rubber obtained in the process of tyre recycling, recycled rubber from tyres (RRT): granulated sizes (4–8 mm) of high quality recycled rubber (CR: Clean Rubber) and the waste of the recycling process: steel and textile fibers with rubber tracks (waste from recycled rubber, WRR). Both types were classified and added as aggregate in substitution of coarse aggregates from 20 to 100 % by volume. The physical and mechanical behavior of IR in concretes was compared with reference concrete and series with CR for a future use in precast concrete pieces. In both samples a reduction of mechanical resistance occurs in proportion with the amounts of rubber of substitution, but less in serials with IR with a successful combination of steel and textile fiber. IR shows furthermore a reduction in properties such as workability and density, but also an increment in porosity. These facts facilitate new options for waste from CRN in concretes and therefore lower energy costs, achieving a success rate in the recycling process close to 100 %.
Resumo:
La mejora de las tecnologías ha tenido un importante impacto en Internet, así como en el número de usuarios. Este crecimiento sigue en aumento y se estima que en 2020 se alcancen 50 billones de dispositivos conectados a Internet, este impulso es en parte gracias a la interconexión de las “máquinas” entre ellas y con Internet, el concepto denominado M2M. Esta conexión entre dispositivos ofrece la posibilidad de mejorar los servicios dados a los usuarios y crear nuevos. Existen importantes alicientes en la evolución de M2M, sobre todo guiada por la gran cantidad de posibilidades ofrecidas y los beneficios que conllevan, sin embargo la falta de estandarización y horizontalidad se presentan como un problema para el crecimiento e implantación de M2M debido a la gran variedad de “maquinas” conectadas. El objetivo de este Proyecto Fin de Carrera es diseñar una plataforma que sea capaz de abarcar las funcionalidades que den soporte a las distintas necesidades de varias aplicaciones M2M, consiguiendo una arquitectura software horizontal que reutilice al máximo las funcionalidades comunes entre las aplicaciones cubiertas. De esta manera se presenta una solución a la falta de horizontalidad en las plataformas M2M. Este Proyecto Fin de Carrera está dividido en varias partes. Se comenzará con una introducción que sitúa en el contexto tecnológico de M2M en forma de estudio de estado del arte, abarcando los principales temas y conceptos relacionados con Machine-to-Machine. Posteriormente se realiza una propuesta de una arquitectura software M2M que permite focalizar los esfuerzos de la misma en un concentrado grupo de sectores y aplicaciones. A continuación se estudian las necesidades de los sectores y aplicaciones seleccionadas y se desarrollan las funcionalidades que incluye la plataforma, de esta manera se alcanza un modelo de arquitectura horizontal que es capaz de cubrir varios sectores. Se estudian los distintos resultados obtenidos en el desarrollo de la plataforma,validando el modelo obtenido con los resultados esperados. Finalmente se enunciarán los próximos pasos a seguir para la implementación de la plataforma. ABSTRACT. The development of technology has had an important impact on Internet, as well as on the number of users. This growth is increasing and it is estimated to reach 50 billion remotely connected devices by 2020, this momentum is partially due to interconnection between "machines" and their connection with internet, this concept is called M2M. The connection between devices gives the possibility to improve the services offered to users and to create new services. There are important incentives in the M2M evolution, mainly driven by the big amount of benefits offered; however the lack of standardization and horizontalization is a problem for the M2M growth and deployment due to the big variety of connected "machines". The aim of this Degree Project is to design a platform that will be capable of including the functionalities that will give support to the different needs of several M2M applications, achieving a horizontal software architecture that reuses the common functionalities between the applications supported. This architecture will be presented as a solution to the lack of horizontalization in M2M. This Degree Project is divided in several parts. It starts with an introduction that will place the reader in state of the art of the M2M technology context, covering the main themes and related concepts. After this introduction, a proposal of a horizontal M2M software architecture will be presented, that will allow to focus the efforts on a group of selected sectors and applications. Then, the needs of sectors and applications will be studied, and the main functionalities will be developed, in this way a model for a horizontal architecture will be reached, that will be able to cover several sectors. The resulting platform will be studied, in order to validate the model obtained with the expected results. Finally, the next steps to implement the platform are described.
Resumo:
En los diseños y desarrollos de ingeniería, antes de comenzar la construcción e implementación de los objetivos de un proyecto, es necesario realizar una serie de análisis previos y simulaciones que corroboren las expectativas de la hipótesis inicial, con el fin de obtener una referencia empírica que satisfaga las condiciones de trabajo o funcionamiento de los objetivos de dicho proyecto. A menudo, los resultados que satisfacen las características deseadas se obtienen mediante la iteración de métodos de ensayo y error. Generalmente, éstos métodos utilizan el mismo procedimiento de análisis con la variación de una serie de parámetros que permiten adaptar una tecnología a la finalidad deseada. Hoy en día se dispone de computadoras potentes, así como algoritmos de resolución matemática que permiten resolver de forma veloz y eficiente diferentes tipos de problemas de cálculo. Resulta interesante el desarrollo de aplicaciones que permiten la resolución de éstos problemas de forma rápida y precisa en el análisis y síntesis de soluciones de ingeniería, especialmente cuando se tratan expresiones similares con variaciones de constantes, dado que se pueden desarrollar instrucciones de resolución con la capacidad de inserción de parámetros que definan el problema. Además, mediante la implementación de un código de acuerdo a la base teórica de una tecnología, se puede lograr un código válido para el estudio de cualquier problema relacionado con dicha tecnología. El desarrollo del presente proyecto pretende implementar la primera fase del simulador de dispositivos ópticos Slabsim, en cual se puede representar la distribución de la energía de una onda electromagnética en frecuencias ópticas guiada a través de una una guía dieléctrica plana, también conocida como slab. Este simulador esta constituido por una interfaz gráfica generada con el entorno de desarrollo de interfaces gráficas de usuario Matlab GUIDE, propiedad de Mathworks©, de forma que su manejo resulte sencillo e intuitivo para la ejecución de simulaciones con un bajo conocimiento de la base teórica de este tipo de estructuras por parte del usuario. De este modo se logra que el ingeniero requiera menor intervalo de tiempo para encontrar una solución que satisfaga los requisitos de un proyecto relacionado con las guías dieléctricas planas, e incluso utilizarlo para una amplia diversidad de objetivos basados en esta tecnología. Uno de los principales objetivos de este proyecto es la resolución de la base teórica de las guías slab a partir de métodos numéricos computacionales, cuyos procedimientos son extrapolables a otros problemas matemáticos y ofrecen al autor una contundente base conceptual de los mismos. Por este motivo, las resoluciones de las ecuaciones diferenciales y características que constituyen los problemas de este tipo de estructuras se realizan por estos medios de cálculo en el núcleo de la aplicación, dado que en algunos casos, no existe la alternativa de uso de expresiones analíticas útiles. ABSTRACT. The first step in engineering design and development is an analysis and simulation process which will successfully corroborate the initial hypothesis that was made and find solutions for a particular. In this way, it is possible to obtain empirical evidence which suitably substantiate the purposes of the project. Commonly, the characteristics to reach a particular target are found through iterative trial and error methods. These kinds of methods are based on the same theoretical analysis but with a variation of some parameters, with the objective to adapt the results for a particular aim. At present, powerful computers and mathematical algorithms are available to solve different kinds of calculation problems in a fast and efficient way. Computing application development is useful as it gives a high level of accurate results for engineering analysis and synthesis in short periods of time. This is more notable in cases where the mathematical expressions on a theoretical base are similar but with small variations of constant values. This is due to the ease of adaptation of the computer programming code into a parameter request system that defines a particular solution on each execution. Additionally, it is possible to code an application suitable to simulate any issue related to the studied technology. The aim of the present project consists of the construction of the first stage of an optoelectronics simulator named Slabsim. Slabism is capable of representing the energetic distribution of a light wave guided in the volume of a slab waveguide. The mentioned simulator is made through the graphic user interface development environment Matlab GUIDE, property of Mathworks©. It is designed for an easy and intuitive management by the user to execute simulations with a low knowledge of the technology theoretical bases. With this software it is possible to achieve several aims related to the slab waveguides by the user in low interval of time. One of the main purposes of this project is the mathematical solving of theoretical bases of slab structures through computing numerical analysis. This is due to the capability of adapting its criterion to other mathematical issues and provides a strong knowledge of its process. Based on these advantages, numerical solving methods are used in the core of the simulator to obtain differential and characteristic equations results that become represented on it.
Resumo:
La rápida evolución de tecnologías que mejoran la interacción con los ordenadores ha cambiado la forma de pensar de la sociedad actual. Una de las últimas alternativas se centra en el reconocimiento facial y de gestos, el cual ha dado muy buenos resultados, acercando ordenadores y humanos. El objetivo de este proyecto era desarrollar un prototipo que permita el reconocimiento de gestos mediante el dispositivo Kinect, el cual usa una de las tecnologías mencionadas anteriormente. Para la realización de este prototipo, fue necesario el estudio del funcionamiento de Kinect. Una vez realizado, el siguiente paso consistió en la búsqueda de librerías que facilitaran el reconocimiento de gestos, para compararlas y finalmente escoger una de ellas. Al ser una tecnología reciente, no existen demasiadas aplicaciones que utilicen Kinect y por lo tanto, la búsqueda de la librería era una parte fundamental del proyecto. Tras elegir la librería, se analizaron las características que debía tener el prototipo para realizar el diseño del mismo. Este diseño se realizó de forma iterativa y con numerosos cambios para otorgar al prototipo la mayor abstracción posible y una mayor orientación a objetos, para de esta manera, favorecer los posibles cambios que sean necesarios al ser una tecnología nueva y muy cambiante. Finalmente, el paso final fue la implementación del prototipo bajo el diseño propuesto, consiguiendo un prototipo funcional capaz de reconocer, almacenar, mostrar y definir diferentes gestos. Los resultados ofrecidos por Kinect son muy satisfactorios, con una gran precisión y eficiencia, demostrando el potencial de las nuevas tecnologías de interacción sin contacto, cuyo único defecto se encuentra en ser una tecnología poco madura y en evolución. ---------------------------------------------------------------------------------------------------------- The fast development of technologies that enhance interaction with computers has changed the mindset of the society. One of the latest alternatives focuses on face and gesture recognition, which has been very successful, bringing closer computers and humans. The purpose of this project was to develop a gesture recognition prototype with the Kinect device, which uses one of the technologies mentioned above. For the realization of this prototype, it was necessary to study how Kinect works. Once done, the next step was to search for libraries to facilitate the gesture recognition, to compare them and finally choose one of them. Because it is a recent technology, there are not many applications that use Kinect and therefore, the library search was an essential part of the project. After selecting the library, the characteristics that the prototype should have were analyzed for the design. This design was performed iteratively with numerous changes to give the prototype abstraction and object orientation, because as a new technology, it changes fast. Therefore, with this design it would be easier to deal with possible changes. Finally, the final step was the implementation of the prototype under the proposed design, getting a functional prototype able to recognize, store, display and define different gestures. The results offered by Kinect are very satisfactory, with high accuracy and efficiency, demonstrating the potential of the new interaction technologies without contact, whose only fault is to be a little mature technology and evolving.
Resumo:
Este trabajo discute la bondad de las técnicas numéricas p-autoadaptables, comparando el Método de los Elementos Finitos (MEF) y el Método de los Elementos de Contorno(MEC). Se presenta un breve resumen de las herramientas matemáticas necesarias para gobernar el proceso de refinamiento en ambos métodos. Finalmente, se presenta un ejemplo ilustrativo de relevancia práctica en ingeniería, el cual pone de manifiesto la potencia y versatilidad de las técnicas p-adaptables frente a situaciones reales.
Resumo:
Las bandas de las denominadas ondas milimétricas y submilimétricas están situadas en la región del espectro entre las microondas y el infrarrojo. La banda de milimétricas se sitúa entre 30 y 300 GHz, considerada normalmente como la banda EHF (Extremely High Frequency). El margen de frecuencias entre 300 y 3000 GHz es conocido como la banda de ondas submilimétricas o de terahercios (THz). Sin embargo, no toda la comunidad científica está de acuerdo acerca de las frecuencias que limitan la banda de THz. De hecho, 100 GHz y 10 THz son considerados comúnmente como los límites inferior y superior de dicha banda, respectivamente. Hasta hace relativamente pocos años, la banda de THz sólo había sido explotada para aplicaciones en los campos de la espectroscopía y la radioastronomía. Los avances tecnológicos en la electrónica de microondas y la óptica lastraron el desarrollo de la banda de THz. Sin embargo, investigaciones recientes han demostrado las ventajas asociadas a operar en estas longitudes de onda, lo que ha aumentado el interés y los esfuerzos dedicados a la tecnología de THz. A pesar de que han surgido un gran número de aplicaciones, una de las más prometedoras está en el campo de la vigilancia y la seguridad. Esta tesis está dedicada al desarrollo de radares de onda continua y frecuencia modulada (CW-LFM) de alta resolución en la banda de milimétricas, más concretamente, en las ventanas de atenuación situadas en 100 y 300 GHz. Trabajar en estas bandas de frecuencia presenta beneficios tales como la capacidad de las ondas de atravesar ciertos materiales como la ropa o el papel, opacos en el rango visible, y la posibilidad de usar grandes anchos de banda, obteniéndose así elevadas resoluciones en distancia. Los anchos de banda de 9 y 27 GHz seleccionados para los sistemas de 100 y 300 GHz, respectivamente, proporcionan resoluciones en distancia alrededor y por debajo del cm. Por otro lado, las aplicaciones objetivo se centran en la adquisición de imágenes a corto alcance. En el caso del prototipo a 300 GHz, su diseño se ha orientado a aplicaciones de detección a distancia en escenarios de vigilancia y seguridad. La naturaleza no ionizante de esta radiación supone una ventaja frente a las alternativas tradicionalmente usadas tales como los sistemas de rayos X. La presente tesis se centra en el proceso de diseño, implementación y caracterización de ambos sistemas así como de la validación de su funcionamiento. Se ha elegido una solución basada en componentes electrónicos, y no ópticos, debido a su alta fiabilidad, volumen reducido y amplia disponibilidad de componentes comerciales. Durante el proceso de diseño e implementación, se han tenido en cuenta varias directrices tales como la minimización del coste y la versatilidad de los sistemas desarrollados para hacer posible su aplicación para múltiples propósitos. Ambos sistemas se han utilizado en diferentes pruebas experimentales, obteniendo resultados satisfactorios. Aunque son sólo ejemplos dentro del amplio rango de posibles aplicaciones, la adquisición de imágenes ISAR de modelos de blancos a escala para detección automática así como la obtención de datos micro-Range/micro- Doppler para el análisis de patrones humanos han validado el funcionamiento del sistema a 100 GHz. Por otro lado, varios ejemplos de imágenes 3D obtenidas a 300 GHz han demostrado las capacidades del sistema para su uso en tareas de seguridad y detección a distancia. ABSTRACT The millimeter- and submillimeter-wave bands are the regions of the spectrum between the microwaves and the infrared (IR). The millimeter-wave band covers the range of the spectrum from 30 to 300 GHz, which is usually considered as the extremely high frequency (EHF) band. The range of frequencies between 300 and 3000 GHz is known as the submillimeter-wave or terahertz (THz) band. Nevertheless, the boundaries of the THz band are not accepted by the whole research community. In fact, 100 GHz and 10 THz are often considered by some authors as the lower and upper limit of this band, respectively. Until recently, the THz band had not been exploited for practical applications, with the exception of minor uses in the fields of spectroscopy and radio astronomy. The advancements on microwave electronics and optical technology left the well-known THz gap undeveloped. However, recent research has unveiled the advantages of working at these frequencies, which has motivated the increase in research effort devoted to THz technology. Even though the range of upcoming applications is wide, the most promising ones are in the field of security and surveillance. Particularly, this Ph.D. thesis deals with the development of high resolution continuouswave linear-frequency modulated (CW-LFM) radars in the millimeter-wave band, namely, in the attenuation windows located at 100 and 300 GHz. Working at these wavelengths presents several benefits such as the ability of radiation to penetrate certain materials, visibly opaque, and the great availability of bandwidth at these frequencies, which leads to high range resolution. The selected bandwidths of 9 and 27 GHz for these systems at 100 and 300 GHz, respectively, result in cm and sub-cm range resolution. On the other hand, the intended applications are in the field of short-range imaging. In particular, the design of the 300-GHz prototype is oriented to standoff detection for security and surveillance scenarios. The non-ionizing nature of this radiation allows safety concerns to be alleviated, in clear contrast to other traditional alternatives such as X-rays systems. This thesis is focused on the design, implementation and characterization process of both systems as well as the experimental assessment of their performances. An electronic approach has been selected instead of an optical solution so as to take advantage of its high reliability, reduced volume and the availability of commercial components. Through the whole design and implementation process, several guidelines such as low cost and hardware versatility have been also kept in mind. Taking advantage of that versatility, different applications can be carried out with the same hardware concept. Both radar systems have been used in several experimental trials with satisfactory results. Despite being mere examples within the wide range of fields of application, ISAR imaging of scaled model targets for automatic target recognition and micro-Range/micro-Doppler analysis of human patterns have validated the system performance at 100 GHz. In addition, 3D imaging examples at 300 GHz demonstrate the radar system’s capabilities for standoff detection and security tasks.
Resumo:
Una vez expuestos en un artículo previo, los principios físicos fundamentales en los que se basa el comportamiento de los dispositivos ópticos biestables, sólo resta ya dar una breve síntesis de cuales pueden ser las aplicaciones de los mismos que se preven para un futuro próximo. Es muy posible también que algunas realizaciones futuras no hayan sido aún previstas. Pero lo que sí es seguro es que, a pesar de todo, su estudio merece una especial atención. Ello se debe, en particular, a dos hechos fundamentales. Por una parte, el que desde un punto de vista práctico es más fundamental, es el de su posible empleo en campos como las comunicaciones ópticas o los ordenadores fotónicos, temas ambos que, en este artículo, merecerán una especial atención, y que constituyen objeto central de investigación y desarrollo en todo momento. El segundo es que la biestabilidad óptica es un terreno absolutamente favorable para el estudio de los fenómenos en sistemas fuera del equilibrio. Un tema en particular, el del caos, ha visto en los últimos dos años un renacido interés gracias al conjunto de nuevos datos que ha aportado la B.O. Aunque en este artículo este último tema no será tratado ya que necesitaría uno sólo para él, nos parece importante sacarle al menos la luz.
Resumo:
De los innumerables estudios realizados hasta hoy en torno a las relaciones de la tecnología con el entorno en el que se desarrolla, una de las conclusiones más generalmente aceptadas es la del grado de multiplicidad de sus resultados. Multiplicidad que afecta no sólo a sus polivalentes aplicaciones en muy dispares campos, sino también a su grado de factorización creadora. En cierta manera, la situación es equivalente a la del tablero de ajedrez en el que en la primera casilla se puso un grano de trigo, en el segundo, dos, en el tercero, cuatro... Si hace un siglo podían contarse con los dedos de una mano, y quizás a veces sobraban algunos, las innovaciones tecnológicas que surgían por año, en la actualidad no serían suficientes los veinte dedos del cuerpo para contar, quizás, las que surgen al cabo del día.
Resumo:
El libro comienza haciendo referencia a la seguridad en los sistemas estructurales, centrándose específicamente en las incertidumbres, la fiabilidad estructural y los métodos de comprobación de la seguridad. Posteriormente se tratan algunos métodos de nivel II utilizados para valorar la probabilidad de fallo; así, se hace referencia al índice de fiabilidad en general y, en particular al de Cornell y al de Hasofer y Lind; respecto a los métodos de cálculo del índice de fiabilidad, se estudia el método de los momentos de segundo orden y el método de las estimaciones puntuales. Del método de los momentos de segundo orden se analizan las funciones de fallo no lineales, esquema iterativo, las variables correlacionadas y la transformación de variables aleatorias. El capítulo destinado a las normas basadas en los conceptos de fiabilidad estructural analiza la relación entre los métodos de comprobación de la seguridad nivel I y nivel ll, la obtención de los coeficientes de ponderación mediante el método de los momentos de segundo orden y los formatos de cálculo en valores medios y valores característicos para terminar con la aplicación de a un caso práctico. Finalmente, se realiza un estudio de niveles de seguridad en túneles, para lo que se realiza una descripción física del problema, se plantea un modelo matemático de cálculo y se realiza un análisis de la seguridad así como la caracterización de variables.
Resumo:
Aunque los láseres de semiconductor constituyen la antítesis de lo que convencionalmente es la imagen de un láser, su uso y aplicaciones comienzan a estar tan extendidos que es seguro que dentro de muy pocos años el número de los que estarán en funcionamiento será superior al de todas las otras familias láser actualmente conocidas. La razón de lo anterior es que constituyen, como veremos, la base de los sistemas de comunicaciones ópticas que se están desarrollando en todo el mundo, así como de muchos sistemas de control y, posiblemente, de algunas fases de los computadores ópticos que puedan desarrollarse en el futuro. El láser de semiconductor no emite, por lo general, el típico haz casi perfectamente paralelo que se propaga en línea recta sin apenas divergencia, ni incluso puede llegar a verse, ya que, normalmente, va a trabajar en el infrarrojo. Pero a pesar de ello, o mejor dicho, gracias a ello, es la fuente luminosa idónea para trabajar en conjunción con las fibras ópticas. El desarrollo, por otra parte, de toda la tecnología microelectrónica que puede ser aplicada a él de manera inmediata, hace que no sea necesario desarrollar nuevas técnicas para obtener de él lo que se desee. Finalmente, su tamaño y consumo de potencia, hacen de él el elemento más asequible para poder ser introducido dentro de una serie de sistemas donde esos dos parámetros sean imprescindibles. Su estudio, su desarrollo y cómo utilizarlo constituyen en consecuencia, necesidades que pueden ser esenciales en múltiples ocasiones
Resumo:
El contenido del Proyecto Fin de Carrera está desarrollado para profundizar en el conocimiento de las aplicaciones para el procesado de datos LiDAR, si bien, puede ser utilizado también como guía o consulta por el personal docente y técnico interesado, en el desarrollo o explicación de otros trabajos de comparación de herramientas relacionadas con la topografía. Por último, se pretende con esta comparación que se pueda elegir con facilidad una u otra aplicación según las necesidades de los proyectos y las capacidades con las que se cuentan, teniendo en cuenta las limitaciones a la hora de disponer de todo lo necesario para su realización. Los objetivos que se quieren alcanzar son: • Obtención de datos geoespaciales de unas zonas para su posterior procesado. • Realizar un control de calidad general para comprobar que los datos son aptos para nuestro trabajo. • Elegir las aplicaciones informáticas y establecer unos criterios de comparación. Para después poder realizar la comparativa de las aplicaciones informáticas. La consecución de los objetivos generales es posible a partir del planteamiento de los siguientes objetivos específicos: • Presentar el vuelo de una zona y las características de este. • Realizar un control de calidad específico en altimetría y planimetría. • Justificar la elección de distintas zonas a editar. • Definir los criterios que se van a comparar. • Edición generada con las aplicaciones que se han elegido, las cuales son: FUSION, MDTopX, TerraScan, MARS y SCOP. • Y por último realizar una comparativa entre las aplicaciones según los criterios elegidos.