65 resultados para RED DE RELACIONES EN MARKETING


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo del Proyecto Fin de Carrera (PFC) es el de conocer, simular y crear una red VoIP sobre una red de datos en un entorno docente, más concretamente, en la asignatura Redes y Servicios de telecomunicación en Grado en Ingeniería de Telecomunicaciones en la Universidad Politécnica de Madrid (UPM). Una vez se adquieran los conocimientos necesarios, se propondrán una serie de prácticas para que los alumnos se vayan familiarizando con el software y hardware utilizados, de manera que, se irá subiendo el grado de dificultad hasta que puedan realizar una auténtica red VoIP por sí mismos. A parte de la realización de las prácticas, los alumnos deberán pasar una prueba de los conocimientos adquiridos al final de cada práctica mediante preguntas tipo test. Los sistemas elegidos para la implantación de una red VoIP en los módulos de laboratorio son: 3CX System Phone y Asteisk-Trixbox. Los cuales, son capaces de trabajar mediante gestores gráficos para simplificar el nivel de dificultad de la configuración. 3CX es una PBX que trabaja sobre Windows y se basa exclusivamente en el protocolo SIP. Esto facilita el manejo para usuarios que solo han usado Windows sin quitar funcionalidades que tienen otras centralitas en otros sistemas operativos. La versión demo activa todas las opciones para poder familiarizarse con este sistema. Por otro lado, Asterisk trabaja en todas las plataformas, aunque se ha seleccionado trabajar sobre Linux. Esta selección se ha realizado porque el resto de plataformas limitan la configuración de la IP PBX, esta es de código abierto y permite realizar todo tipo de configuraciones. Además, es un software gratuito, esto es una ventaja a la hora de configurar novedades o resolver problemas, ya que hay muchos especialistas que dan soporte y ayudan de forma gratuita. La voz sobre Internet es habitualmente conocida como VoIP (Voice Over IP), debido a que IP (Internet Protocol) es el protocolo de red de Internet. Como tecnología, la VoIP no es solo un paso más en el crecimiento de las comunicaciones por voz, sino que supone integrar las comunicaciones de datos y las de voz en una misma red, y en concreto, en la red con mayor cobertura mundial: Internet. La mayor importancia y motivación de este Proyecto Fin de Carrera es que el alumno sea capaz de llegar a un entorno laboral y pueda tener unos conocimientos capaces de afrontar esta tecnología que esta tan a la orden del día. La importancia que estas redes tienen y tendrán en un futuro muy próximo en el mundo de la informática y las comunicaciones. Cabe decir, que se observa que estas disciplinas tecnológicas evolucionan a pasos agigantados y se requieren conocimientos más sólidos. ABSTRACT. The objective of my final project during my studies in university was, to simulate and create a VoIP network over a data network in a teaching environment, more specifically on the subject of telecommunications networks and services in Telecommunication Engineering Degree in Polytechnic University of Madrid (UPM). Once acquiring the necessary knowledge a number of practices were proposed to the students to become familiar with the software and hardware used, so that it would rise to the level of difficulty that they could make a real VoIP network for themselves. Parts of the experimental practices were that students must pass a test of knowledge acquired at the end of each practice by choice questions. The systems chosen for the implementation of a VoIP network in the laboratory modules are: 3CX Phone System and Asteisk - Trixbox. Which were able to work with graphics operators to simplify the difficulty level of the configuration. 3CX is a PBX that works on Windows and is based solely on the SIP protocol. This facilitates handling for users who have only used Windows without removing functionality with other exchanges in other operating systems. Active demo version all options to get to grips with this system. Moreover, Asterisk works on all platforms, but has been selected to work on Linux. This selection was made because other platforms limit the IP PBX configuration, as this is open source and allows all kinds of configurations. Also, Linux is a free software and an advantage when configuring new or solve problems, as there are many specialists that support and help for free. Voice over Internet is commonly known as VoIP (Voice Over IP), because IP (Internet Protocol) is the Internet protocol network. As technology, VoIP is not just another step in the growth of voice communications, but communications of integrating data and voice on a single network, and in particular, in the network with the largest global coverage: Internet. The increased importance and motivation of this Thesis is that the student is able to reach a working environment and may have some knowledge to deal with these technologies that is so much the order of the day. The importances of these networks have and will be of essences in the very near future in the world of computing and communications. It must be said it is observed that these technological disciplines evolve by leaps and bounds stronger knowledge required.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En un mundo cada vez más poblado y complejo, el flujo de datos se incrementa a pasos gigantescos y la tecnología avanza en la profundización de temas cada día más concretos y específicos. A la vez, se ha entrado de lleno en la era digital, proporcionando infinitud de posibilidades de conectar campos de la ciencia, de la comunicación y del arte, que antes eran disciplinas independientes. Añadir la capa sonora en el ámbito arquitectónico intenta darle un significado más amplio al hecho de proyectar espacios. El sonido provee conjuntos de información cognitiva, tanto relacionados con los procesos mentales del conocimiento, la percepción, el razonamiento, la memoria, la opinión, como con los sentimientos y emociones. Al percibir el espacio, no somos conscientes del complejo proceso en el que se implican diversos sentidos, siendo el sentido de la audición un importante protagonista. El sonido, aun siendo parte del entorno en el que está inmerso, también afecta a este contexto y forma parte de los datos que adquirimos al leer entornos espaciales. Esta tesis investiga las relaciones en el marco de digitalización actual e implica la introducción de parámetros y datos vivos. Al mismo tiempo, y desde un punto de vista perceptivo, pone énfasis en la manera que el sonido puede ser un factor esencial como generador y conformador de espacios y analiza las distintas acciones sonoras que inciden en el cuerpo humano. El interés de ‘Espacios Sónicos’ se centra en que puede significar un aporte a los conocimientos arquitectónicos formulados hasta ahora únicamente desde fundamentos espaciales estáticos. Si entendemos la materia no sólo como un sólido, sino, como un compuesto de partículas en vibración constante; la arquitectura, que es el arte de componer la materia que nos rodea, también debería ser entendida como la composición de cuerpos vibrantes o cuerpos pulsantes. ABSTRACT In a more populated and complex world, data flow increases by leaps and bounds, and technological progress extends every day into more concrete and specific topics. Today's world is dramatically changing our soundscape. People live in new sound environments, very differently from the ones they used to. From a biological point of view, our ever-changing society is suffering neural mutations due to the irreversible inclusion of the technological layer in our lives. We have fully entered the digital age, providing infinitude of possibilities for connecting fields of science, arts and communication, previously being independent disciplines. Adding the sound layer to the architectural field attempts to give further real meaning to the act of designing spaces. Sound provides arrays of cognitive information: Whether related to mental processes of knowledge, reasoning, memory, opinion, perception, or to affects and emotions. When perceiving space, we’re not aware of the complex process through which we read it involving various senses, being the sense of hearing one important protagonist. Sound, being itself part of the surroundings in which it is immersed, also affects such context, being part of the data we acquire when reading spatial environments. This research investigates the relationship involving the inclusion of real-time data and specific parameters into an experimental sound-scan frame. It also emphasizes how sound can be essential as generator and activator of spaces and analyzes sound actions affecting the body. 'Sonic spaces' focuses in what it means to contribute to architectural knowledge, which is so far formulated only from static space fundamentals. If the matter must be understood not only as solid, but also as a compound of particles in constant vibration, architecture - which is the art of composing the matter that surrounds us - should also be understood as the composition of vibrating and pulsating bodies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El Master Plan de UNIMAK se presenta como una apuesta a futuro, no solo para la Universidad de Makeni, sino también para la propia ciudad de Makeni. Se pretende potencias la Universidad como una referencia a nivel regional y como desencadenante de la estructura de trazado de la ciudad. El proyecto plantea potencial la dualidad que existe entre la infraestructura viaria y la red verde , existente en la ciudad, introduciéndola en el nuevo desarrollo del campus universitario y dotándola de la importancia suficiente para que se convierta en un elemento vinculante de la ciudad. El nuevo sistema de infraestructura rodada que se plantea está ligado entre sí por medio de unos "nodos equipados" que actúan como nuevos espacios públicos de relación en la ciudad y que albergan servicios urbanos. Este sistema de nodos se distribuye por toda la ciudad de manera que cada uno de ellos dé servicio a las viviendas de un radio de 500m.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo presentado en este documento se centra en la temática de la transferencia inalámbrica de energía, concretamente en aplicaciones de campo lejano, para llevar a cabo dicho trabajo nos centraremos en el diseño, implementación y medición de una rectenna operando en la banda ISM concretamente a una frecuencia de 2.45GHz, el objetivo primordial de este trabajo será analizar que parámetros intervienen en la eficiencia de conversión en la etapa de RF-DC a fin de lograr la máxima eficiencia de conversión posible. Para llevar a cabo dicho análisis se emplearán herramientas informáticas, concretamente se hará uso del software AWR Microwave Office, a través del cual se realizarán simulaciones SourcePull a fin de determinar la impedancia óptima de entrada que se le debe presentar a la etapa rectificadora RF-DC para conseguir la máxima eficiencia de conversión, una vez realizadas dichas pruebas se implementará físicamente un circuito rectenna a través del cual realizar medidas de SourcePull mediante un Wide Matching Range Slide Screw Tuner de MAURY MICROWAVE para cotejar las posibles diferencias con los resultados obtenidos en las simulaciones. Tras la fase de pruebas SourcePull se extrapolará una red de entrada en base a los datos obtenidos en las mediciones anteriores y se diseñará y fabricará un circuito rectenna con máxima eficiencia de conversión para un conjunto de valores de potencia de entrada de RF y carga de DC, tras lo cual se analizará la eficiencia del circuito diseñado para diferentes valores de potencia de RF de entrada y carga de DC. Como elemento rectificador emplearemos en nuestro trabajo el diodo Schottky HSMS-2820, los diodos Schottky se caracterizan por tener tiempos de conmutación relativamente bajos y pérdidas en directa reducidas los cual será fundamental a la hora de trabajar con niveles reducidos de potencia de RF de entrada, para implementar el circuito se empleará un substrato FR4 con espesor de 0.8mm para disminuir en la mayor medida posible las pérdidas introducidas por el dieléctrico, se analizarán diferentes posibilidades a la hora de implementar el filtro de RF a la salida del diodo rectificador y finalmente se optará por el empleo de un stub radial ya que será este el que mejor ancho de banda nos proporcione. Los resultados simulados se compararán con los resultados medidos sobre el circuito rectenna para determinar la similitud entre ambos. ABSTRACT. The work presented in this paper focuses on the issue of wireless transfer of energy, particularly applied to far-field applications, to carry out this work we focus on the design, implementation and measurement of a rectenna operating in the ISM band specifically at a frequency of 2.45GHz, the primary objective of this study is to analyze any parameter involved in the RF-DC conversion efficiency in order to achieve the maximum conversion efficiency as possible. Computer analysis tools will be used, particularly AWR Microwave Office software, in order to carry out SourcePull simulations to determine the optimal input impedance which must be presented to the rectifier stage for maximum conversion efficiency, once obtained, a rectenna circuit will be implemented to compute SourcePull measurements, and finally simulated results will be compared to measured results. Once obtained the result, an input network impedance is extrapolated based on data from previous measurements to design and implement a rectenna circuit with high conversion efficiency for a set of RF input power and DC load values , after that, the designed circuit efficiency will be analyzed for different values of RF input power and DC load. In this work a HSMS-2820 Schottky diode will be used as the rectifier , Schottky diodes are characterized by relatively low switching times and reduced direct losses, that properties will be essential when working with low RF input power levels , to implement the circuit a FR4 substrate with 0.8mm thickness is used to reduce as much as possible the dielectric losses, different possibilities to implement the RF filter to the output of the rectifier diode will be analyzed, finally we will opt for the use of a radial stub as this will provide the best bandwidth possible. The simulated results are compared with the results measured on the rectenna circuit to determine the similarity between them.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El control del estado en el que se encuentran las estructuras ha experimentado un gran auge desde hace varias décadas, debido a que los costes de rehabilitación de estructuras tales como los oleoductos, los puentes, los edificios y otras más son muy elevados. En las últimas dos décadas, se han desarrollado una gran cantidad de métodos que permiten identificar el estado real de una estructura, basándose en modelos físicos y datos de ensayos. El ensayo modal es el más común; mediante el análisis modal experimental de una estructura se pueden determinar parámetros como la frecuencia, los modos de vibración y la amortiguación y también la función de respuesta en frecuencia de la estructura. Mediante estos parámetros se pueden implementar diferentes indicadores de daño. Sin embargo, para estructuras complejas y grandes, la implementación de metodologías basadas en la función de respuesta en frecuencia requeriría realizar hipótesis sobre la fuerza utilizada para excitar la estructura. Dado que el análisis modal operacional utiliza solamente las señales de respuesta del sistema para extraer los parámetros dinámicos estructurales y, por tanto, para evaluar el estado de una estructura, el uso de la transmisibilidad sería posible. En este sentido, dentro del análisis modal operacional, la transmisibilidad ha concentrado mucha atención en el mundo científico en la última década. Aunque se han publicado muchos trabajos sobre el tema, en esta Tesis se proponen diferentes técnicas para evaluar el estado de una estructura basándose exclusivamente en la transmisibilidad. En primer lugar, se propone un indicador de daño basado en un nuevo parámetro, la coherencia de transmisibilidad; El indicador se ha valido mediante resultados numéricos y experimentales obtenidos sobre un pórtico de tres pisos. En segundo lugar, la distancia de Mahalanobis se aplica sobre la transmisibilidad como procedimiento para detectar variaciones estructurales provocadas por el daño. Este método se ha validado con éxito sobre una viga libre-libre ensayada experimentalmente. En tercer lugar, se ha implementado una red neuronal basada en medidas de transmisibilidad como metodología de predicción de daño sobre una viga simulada numéricamente. ABSTRACT Structural health monitoring has experienced a huge development from several decades ago since the cost of rehabilitation of structures such as oil pipes, bridges and tall buildings is very high. In the last two decades, a lot of methods able to identify the real stage of a structure have been developed basing on both models and experimental data. Modal testing is the most common; by carrying out the experimental modal analysis of a structure, some parameters, such as frequency, mode shapes and damping, as well as the frequency response function of the structure can be obtained. From these parameters, different damage indicators have been proposed. However, for complex and large structures, any frequency domain approach that relies on frequency response function estimation would be of difficult application since an assumption of the input excitations to the system should be carried out. Operational modal analysis uses only output signals to extract the structural dynamic parameters and, therefore, to identify the structural stage. In this sense, within operational modal analysis, transmissibility has attracted a lot of attention in the scientific field in the last decade. In this work new damage detection approaches based on transmissibility are developed. Firstly, a new theory of transmissibility coherence is developed and it is tested with a three-floor-structure both in simulation and in experimental data analysis; secondly, Mahalanobis distance is taken into use with the transmissibility, and a free-free beam is used to test the approach performance; thirdly, neural networks are used in transmissibility for structural health monitoring; a simulated beam is used to validate the proposed method.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este póster es un resumen de mi tesis, que se ocupa del estudio de las intervenciones arquitectónicas que Antonio Palacios realizó para la Compañía Metropolitano Alfonso XIII entre los años 1917 y 1945. Los objetivos contemplados son: - Análisis de los espacios arquitectónicos, tanto subterráneos (estaciones, pasillos, vestíbulos), como exteriores (bocas y templetes, edificios auxiliares, subestaciones, cocheras...). -Estudio formal y constructivo de elementos característicos; materiales, sistemas, procedimientos. - Elementos estratégicos, decorativos, de diseño... empleados por Palacios en la configuración de la red del metropolitano; la constitución de una imagen corporativa. - Relación de la intervención de Palacios con actuaciones similares en otras ciudades europeas. - Repercusión urbana del tendido de la red de Metro en el momento en que trabaja Palacios; su relación con Otamendi, operaciones urbanas como la nueva avenida de Reina Victoria y la colonia Metropolitana. -Vinculación del arquitecto con la nueva escala metropolitana, reflejada ésta en singulares y, por lo general, "ideales", proyectos urbanos del autor. -Contribución, en definitiva, a un mejor conocimiento de la figura de Palacios, a través de su obra industrial construida.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los hipergrafos dirigidos se han empleado en problemas relacionados con lógica proposicional, bases de datos relacionales, linguística computacional y aprendizaje automático. Los hipergrafos dirigidos han sido también utilizados como alternativa a los grafos (bipartitos) dirigidos para facilitar el estudio de las interacciones entre componentes de sistemas complejos que no pueden ser fácilmente modelados usando exclusivamente relaciones binarias. En este contexto, este tipo de representación es conocida como hiper-redes. Un hipergrafo dirigido es una generalización de un grafo dirigido especialmente adecuado para la representación de relaciones de muchos a muchos. Mientras que una arista en un grafo dirigido define una relación entre dos de sus nodos, una hiperarista en un hipergrafo dirigido define una relación entre dos conjuntos de sus nodos. La conexión fuerte es una relación de equivalencia que divide el conjunto de nodos de un hipergrafo dirigido en particiones y cada partición define una clase de equivalencia conocida como componente fuertemente conexo. El estudio de los componentes fuertemente conexos de un hipergrafo dirigido puede ayudar a conseguir una mejor comprensión de la estructura de este tipo de hipergrafos cuando su tamaño es considerable. En el caso de grafo dirigidos, existen algoritmos muy eficientes para el cálculo de los componentes fuertemente conexos en grafos de gran tamaño. Gracias a estos algoritmos, se ha podido averiguar que la estructura de la WWW tiene forma de “pajarita”, donde más del 70% del los nodos están distribuidos en tres grandes conjuntos y uno de ellos es un componente fuertemente conexo. Este tipo de estructura ha sido también observada en redes complejas en otras áreas como la biología. Estudios de naturaleza similar no han podido ser realizados en hipergrafos dirigidos porque no existe algoritmos capaces de calcular los componentes fuertemente conexos de este tipo de hipergrafos. En esta tesis doctoral, hemos investigado como calcular los componentes fuertemente conexos de un hipergrafo dirigido. En concreto, hemos desarrollado dos algoritmos para este problema y hemos determinado que son correctos y cuál es su complejidad computacional. Ambos algoritmos han sido evaluados empíricamente para comparar sus tiempos de ejecución. Para la evaluación, hemos producido una selección de hipergrafos dirigidos generados de forma aleatoria inspirados en modelos muy conocidos de grafos aleatorios como Erdos-Renyi, Newman-Watts-Strogatz and Barabasi-Albert. Varias optimizaciones para ambos algoritmos han sido implementadas y analizadas en la tesis. En concreto, colapsar los componentes fuertemente conexos del grafo dirigido que se puede construir eliminando ciertas hiperaristas complejas del hipergrafo dirigido original, mejora notablemente los tiempos de ejecucion de los algoritmos para varios de los hipergrafos utilizados en la evaluación. Aparte de los ejemplos de aplicación mencionados anteriormente, los hipergrafos dirigidos han sido también empleados en el área de representación de conocimiento. En concreto, este tipo de hipergrafos se han usado para el cálculo de módulos de ontologías. Una ontología puede ser definida como un conjunto de axiomas que especifican formalmente un conjunto de símbolos y sus relaciones, mientras que un modulo puede ser entendido como un subconjunto de axiomas de la ontología que recoge todo el conocimiento que almacena la ontología sobre un conjunto especifico de símbolos y sus relaciones. En la tesis nos hemos centrado solamente en módulos que han sido calculados usando la técnica de localidad sintáctica. Debido a que las ontologías pueden ser muy grandes, el cálculo de módulos puede facilitar las tareas de re-utilización y mantenimiento de dichas ontologías. Sin embargo, analizar todos los posibles módulos de una ontología es, en general, muy costoso porque el numero de módulos crece de forma exponencial con respecto al número de símbolos y de axiomas de la ontología. Afortunadamente, los axiomas de una ontología pueden ser divididos en particiones conocidas como átomos. Cada átomo representa un conjunto máximo de axiomas que siempre aparecen juntos en un modulo. La decomposición atómica de una ontología es definida como un grafo dirigido de tal forma que cada nodo del grafo corresponde con un átomo y cada arista define una dependencia entre una pareja de átomos. En esta tesis introducimos el concepto de“axiom dependency hypergraph” que generaliza el concepto de descomposición atómica de una ontología. Un modulo en una ontología correspondería con un componente conexo en este tipo de hipergrafos y un átomo de una ontología con un componente fuertemente conexo. Hemos adaptado la implementación de nuestros algoritmos para que funcionen también con axiom dependency hypergraphs y poder de esa forma calcular los átomos de una ontología. Para demostrar la viabilidad de esta idea, hemos incorporado nuestros algoritmos en una aplicación que hemos desarrollado para la extracción de módulos y la descomposición atómica de ontologías. A la aplicación la hemos llamado HyS y hemos estudiado sus tiempos de ejecución usando una selección de ontologías muy conocidas del área biomédica, la mayoría disponibles en el portal de Internet NCBO. Los resultados de la evaluación muestran que los tiempos de ejecución de HyS son mucho mejores que las aplicaciones más rápidas conocidas. ABSTRACT Directed hypergraphs are an intuitive modelling formalism that have been used in problems related to propositional logic, relational databases, computational linguistic and machine learning. Directed hypergraphs are also presented as an alternative to directed (bipartite) graphs to facilitate the study of the interactions between components of complex systems that cannot naturally be modelled as binary relations. In this context, they are known as hyper-networks. A directed hypergraph is a generalization of a directed graph suitable for representing many-to-many relationships. While an edge in a directed graph defines a relation between two nodes of the graph, a hyperedge in a directed hypergraph defines a relation between two sets of nodes. Strong-connectivity is an equivalence relation that induces a partition of the set of nodes of a directed hypergraph into strongly-connected components. These components can be collapsed into single nodes. As result, the size of the original hypergraph can significantly be reduced if the strongly-connected components have many nodes. This approach might contribute to better understand how the nodes of a hypergraph are connected, in particular when the hypergraphs are large. In the case of directed graphs, there are efficient algorithms that can be used to compute the strongly-connected components of large graphs. For instance, it has been shown that the macroscopic structure of the World Wide Web can be represented as a “bow-tie” diagram where more than 70% of the nodes are distributed into three large sets and one of these sets is a large strongly-connected component. This particular structure has been also observed in complex networks in other fields such as, e.g., biology. Similar studies cannot be conducted in a directed hypergraph because there does not exist any algorithm for computing the strongly-connected components of the hypergraph. In this thesis, we investigate ways to compute the strongly-connected components of directed hypergraphs. We present two new algorithms and we show their correctness and computational complexity. One of these algorithms is inspired by Tarjan’s algorithm for directed graphs. The second algorithm follows a simple approach to compute the stronglyconnected components. This approach is based on the fact that two nodes of a graph that are strongly-connected can also reach the same nodes. In other words, the connected component of each node is the same. Both algorithms are empirically evaluated to compare their performances. To this end, we have produced a selection of random directed hypergraphs inspired by existent and well-known random graphs models like Erd˝os-Renyi and Newman-Watts-Strogatz. Besides the application examples that we mentioned earlier, directed hypergraphs have also been employed in the field of knowledge representation. In particular, they have been used to compute the modules of an ontology. An ontology is defined as a collection of axioms that provides a formal specification of a set of terms and their relationships; and a module is a subset of an ontology that completely captures the meaning of certain terms as defined in the ontology. In particular, we focus on the modules computed using the notion of syntactic locality. As ontologies can be very large, the computation of modules facilitates the reuse and maintenance of these ontologies. Analysing all modules of an ontology, however, is in general not feasible as the number of modules grows exponentially in the number of terms and axioms of the ontology. Nevertheless, the modules can succinctly be represented using the Atomic Decomposition of an ontology. Using this representation, an ontology can be partitioned into atoms, which are maximal sets of axioms that co-occur in every module. The Atomic Decomposition is then defined as a directed graph such that each node correspond to an atom and each edge represents a dependency relation between two atoms. In this thesis, we introduce the notion of an axiom dependency hypergraph which is a generalization of the atomic decomposition of an ontology. A module in the ontology corresponds to a connected component in the hypergraph, and the atoms of the ontology to the strongly-connected components. We apply our algorithms for directed hypergraphs to axiom dependency hypergraphs and in this manner, we compute the atoms of an ontology. To demonstrate the viability of this approach, we have implemented the algorithms in the application HyS which computes the modules of ontologies and calculate their atomic decomposition. In the thesis, we provide an experimental evaluation of HyS with a selection of large and prominent biomedical ontologies, most of which are available in the NCBO Bioportal. HyS outperforms state-of-the-art implementations in the tasks of extracting modules and computing the atomic decomposition of these ontologies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se desarrolla dentro del marco de las comunicaciones satelitales en el innovador campo de los pequeños satélites también llamados nanosatélites o cubesats, llamados así por su forma cubica. Estos nanosatélites se caracterizan por su bajo costo debido a que usan componentes comerciales llamados COTS (commercial off-the-shelf) y su pequeño tamaño como los Cubesats 1U (10cm*10 cm*10 cm) con masa aproximada a 1 kg. Este trabajo de tesis tiene como base una iniciativa propuesta por el autor de la tesis para poner en órbita el primer satélite peruano en mi país llamado chasqui I, actualmente puesto en órbita desde la Estación Espacial Internacional. La experiencia de este trabajo de investigación me llevo a proponer una constelación de pequeños satélites llamada Waposat para dar servicio de monitoreo de sensores de calidad de agua a nivel global, escenario que es usado en esta tesis. Es ente entorno y dadas las características limitadas de los pequeños satélites, tanto en potencia como en velocidad de datos, es que propongo investigar una nueva arquitectura de comunicaciones que permita resolver en forma óptima la problemática planteada por los nanosatélites en órbita LEO debido a su carácter disruptivo en sus comunicaciones poniendo énfasis en las capas de enlace y aplicación. Esta tesis presenta y evalúa una nueva arquitectura de comunicaciones para proveer servicio a una red de sensores terrestres usando una solución basada en DTN (Delay/Disruption Tolerant Networking) para comunicaciones espaciales. Adicionalmente, propongo un nuevo protocolo de acceso múltiple que usa una extensión del protocolo ALOHA no ranurado, el cual toma en cuenta la prioridad del trafico del Gateway (ALOHAGP) con un mecanismo de contienda adaptativo. Utiliza la realimentación del satélite para implementar el control de la congestión y adapta dinámicamente el rendimiento efectivo del canal de una manera óptima. Asumimos un modelo de población de sensores finito y una condición de tráfico saturado en el que cada sensor tiene siempre tramas que transmitir. El desempeño de la red se evaluó en términos de rendimiento efectivo, retardo y la equidad del sistema. Además, se ha definido una capa de convergencia DTN (ALOHAGP-CL) como un subconjunto del estándar TCP-CL (Transmission Control Protocol-Convergency Layer). Esta tesis muestra que ALOHAGP/CL soporta adecuadamente el escenario DTN propuesto, sobre todo cuando se utiliza la fragmentación reactiva. Finalmente, esta tesis investiga una transferencia óptima de mensajes DTN (Bundles) utilizando estrategias de fragmentación proactivas para dar servicio a una red de sensores terrestres utilizando un enlace de comunicaciones satelitales que utiliza el mecanismo de acceso múltiple con prioridad en el tráfico de enlace descendente (ALOHAGP). El rendimiento efectivo ha sido optimizado mediante la adaptación de los parámetros del protocolo como una función del número actual de los sensores activos recibidos desde el satélite. También, actualmente no existe un método para advertir o negociar el tamaño máximo de un “bundle” que puede ser aceptado por un agente DTN “bundle” en las comunicaciones por satélite tanto para el almacenamiento y la entrega, por lo que los “bundles” que son demasiado grandes son eliminados o demasiado pequeños son ineficientes. He caracterizado este tipo de escenario obteniendo una distribución de probabilidad de la llegada de tramas al nanosatélite así como una distribución de probabilidad del tiempo de visibilidad del nanosatélite, los cuales proveen una fragmentación proactiva óptima de los DTN “bundles”. He encontrado que el rendimiento efectivo (goodput) de la fragmentación proactiva alcanza un valor ligeramente inferior al de la fragmentación reactiva. Esta contribución permite utilizar la fragmentación activa de forma óptima con todas sus ventajas tales como permitir implantar el modelo de seguridad de DTN y la simplicidad al implementarlo en equipos con muchas limitaciones de CPU y memoria. La implementación de estas contribuciones se han contemplado inicialmente como parte de la carga útil del nanosatélite QBito, que forma parte de la constelación de 50 nanosatélites que se está llevando a cabo dentro del proyecto QB50. ABSTRACT This thesis is developed within the framework of satellite communications in the innovative field of small satellites also known as nanosatellites (<10 kg) or CubeSats, so called from their cubic form. These nanosatellites are characterized by their low cost because they use commercial components called COTS (commercial off-the-shelf), and their small size and mass, such as 1U Cubesats (10cm * 10cm * 10cm) with approximately 1 kg mass. This thesis is based on a proposal made by the author of the thesis to put into orbit the first Peruvian satellite in his country called Chasqui I, which was successfully launched into orbit from the International Space Station in 2014. The experience of this research work led me to propose a constellation of small satellites named Waposat to provide water quality monitoring sensors worldwide, scenario that is used in this thesis. In this scenario and given the limited features of nanosatellites, both power and data rate, I propose to investigate a new communications architecture that allows solving in an optimal manner the problems of nanosatellites in orbit LEO due to the disruptive nature of their communications by putting emphasis on the link and application layers. This thesis presents and evaluates a new communications architecture to provide services to terrestrial sensor networks using a space Delay/Disruption Tolerant Networking (DTN) based solution. In addition, I propose a new multiple access mechanism protocol based on extended unslotted ALOHA that takes into account the priority of gateway traffic, which we call ALOHA multiple access with gateway priority (ALOHAGP) with an adaptive contention mechanism. It uses satellite feedback to implement the congestion control, and to dynamically adapt the channel effective throughput in an optimal way. We assume a finite sensor population model and a saturated traffic condition where every sensor always has frames to transmit. The performance was evaluated in terms of effective throughput, delay and system fairness. In addition, a DTN convergence layer (ALOHAGP-CL) has been defined as a subset of the standard TCP-CL (Transmission Control Protocol-Convergence Layer). This thesis reveals that ALOHAGP/CL adequately supports the proposed DTN scenario, mainly when reactive fragmentation is used. Finally, this thesis investigates an optimal DTN message (bundles) transfer using proactive fragmentation strategies to give service to a ground sensor network using a nanosatellite communications link which uses a multi-access mechanism with priority in downlink traffic (ALOHAGP). The effective throughput has been optimized by adapting the protocol parameters as a function of the current number of active sensors received from satellite. Also, there is currently no method for advertising or negotiating the maximum size of a bundle which can be accepted by a bundle agent in satellite communications for storage and delivery, so that bundles which are too large can be dropped or which are too small are inefficient. We have characterized this kind of scenario obtaining a probability distribution for frame arrivals to nanosatellite and visibility time distribution that provide an optimal proactive fragmentation of DTN bundles. We have found that the proactive effective throughput (goodput) reaches a value slightly lower than reactive fragmentation approach. This contribution allows to use the proactive fragmentation optimally with all its advantages such as the incorporation of the security model of DTN and simplicity in protocol implementation for computers with many CPU and memory limitations. The implementation of these contributions was initially contemplated as part of the payload of the nanosatellite QBito, which is part of the constellation of 50 nanosatellites envisaged under the QB50 project.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente estudio se enmarca en el proyecto GreenMVC en el que colabora el CIEMAT (Centro de Investigaciones Energéticas Medioambientales y Tecnológicas). Este proyecto tiene como objetivo el análisis y optimización de la tecnología de desalación de compresión mecánica de vapor (MVC), para ser alimentado mediante fuentes de energía renovables. El empleo de fuentes de energía renovables para la alimentación de procesos de desalación es una opción prometedora especialmente en áreas remotas y regiones áridas donde las fuentes de energía convencionales son excesivamente caras o no están disponibles. En este proyecto se analiza la viabilidad tanto técnica como económica de un sistema de desalación de agua mediante compresión mecánica de vapor (MVC) activado por energía eólica, como una alternativa para el abastecimiento de agua limpia respetuosa con el medioambiente. Una de las principales dificultades del accionamiento de la desaladora MVC mediante energía eólica, y en lo que principalmente se centra este proyecto, es la caracterización de su funcionamiento ante las variaciones de potencia subministrada debido a la naturaleza variable del recurso eólico. Generalmente, estos sistemas de desalación están conectados a la red, trabajando constantemente en su punto de funcionamiento nominal. Para poder obtener la relación entre la potencia suministrada y el caudal obtenido para una desaladora, previamente, se ha realizado un modelo termodinámico de la desaladora y, a partir de éste, se han analizado los principios de funcionamiento de este proceso de desalación. Modelando también la energía eólica, finalmente se crea un modelo único del conjunto conformado por la desaladora MVC y el aerogenerador capaz de caracterizar el funcionamiento a régimen variable y predecir la producción, de modo que se pueda determinar la viabilidad técnica del proyecto. Otro de los objetivos principales, era analizar la viabilidad económica. Para ello, también empleando el modelo realizado, se ha estudiado el coste de la desalación MVC yde la generación de energía eléctrica mediante energía eólica. Consiguiendo, finalmente,estimar el coste de desalación en función de el diseño de la desaladora empleada, el tamaño del aerogenerador, y del recurso eólico del emplazamiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dada la amplia información que rodea el dominio de programas de estudios superiores, específicamente los estudios de grado, este trabajo fin de grado propone la construcción de un modelo para representar dicha información mediante la construcción de una red de ontologías, proporcionando una definición común de conceptos importantes, y que posteriormente puede ser reutilizada para la construcción de aplicaciones que ayuden a las partes interesadas, como, estudiantes, personal académico y administrativo, a la búsqueda y acceso de información oportuna. Para la construcción de esta red de ontologías, se siguen las recomendaciones y pautas propuestas por la metodología NeOn [1a] [1b], que sigue un paradigma basado en la reutilización de recursos de conocimiento. Por otra parte, se realiza una populación de dicha red de ontologías mediante datos específicos del grado en Ingeniería Informática de la Universidad Politécnica de Madrid. La construcción de una red de ontologías siguiendo las directrices de la metodología NeOn requiere la realización de distintas actividades y tareas, como el estudio del dominio, estudio de la viabilidad, especificación de requisitos, conceptualización, formalización, implementación y mantenimiento. Se realizan también muchas otras actividades y tareas dependiendo del contexto en el que se construye la ontología. En este proyecto se hace un especial énfasis en las actividades de especificación de requisitos, conceptualización e implementación, además de la actividad de búsqueda de recursos ontológicos para su posterior reutilización. Se ha construido una red de ontologías llamada: European Bachelor Degree Ontology (EBDO) que incluye términos y conceptos importantes que se han detectado en la etapa de especificación de requisitos y que las ontologías a reutilizar no contemplan. Las decisiones de diseño para la construcción de esta nueva red de ontologías y su alineamiento con las ontologías a reutilizar se han basado en la especificación de requisitos ontológicos. Una vez definidos los conceptos relevantes de la red de ontologías, se ha implementado la red de ontologías en un lenguaje computable. Una vez que la red de ontologías se ha implementado se han realizado tareas de evaluación para corregir posible errores. Finalmente, cuando se ha obtenido una versión estable de la ontología, se ha realizado la instanciación de individuos del plan de estudios del grado en Ingeniería Informática de la Universidad Politécnica de Madrid.---ABSTRACT---Given the extensive information surrounding the domain of higher education programs, specifically bachelor degree studies, this bachelor degree project proposes the construction of a model to represent this information by building an ontology network, providing a common definition of important concepts. This network can be reused to build semantic applications that help stakeholders, such as, students, academic and organisational staff, to search and access to timely information. For the construction of this network of ontologies, guidelines and recommendations proposed by the NeOn Methodology [1a] [1b] have been followed. This methodology follows a paradigm based on the reuse of knowledge resources. Moreover, a population of this ontology network is performed with specific data of the Computer Science Degree from Universidad Politécnica de Madrid Building a network of ontologies following the guidelines of the NeOn Methodology requires the completion of various activities and tasks such as, the study of the domain, study of the feasibility, requirements specification, conceptualization, formalization, implementation and maintenance. Many other activities and tasks are also performed depending on the context in which the ontology is built. In this project a special emphasis is made on the activities of requirements specification, conceptualization and search of ontological resources for reuse and implementation. A new network of ontologies, named European Bachelor Degree Ontology (EBDO), has been built. This network includes terms and concepts that have been detected at the stage of requirements specification and that the reused ontologies have not contemplated. Design principles for the construction of this new network of ontologies and for the reused ontologies alignment have been based on the ontological specification requirements. Once the relevant concepts of the ontology network are defined, the network has been implemented in a computable ontology language. Once the network ontology is implemented, the evaluation activity has been conducted to correct the errors that the network presented. Finally, when a stable version of the ontology has been obtained, the instantiation of individuals of the study program of the Bachelor Degree in Computer Science from Universidad Politécnica de Madrid has been performed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Until a few years ago, most of the network communications were based in the wire as the physical media, but due to the advances and the maturity of the wireless communications, this is changing. Nowadays wireless communications offers fast, secure, efficient and reliable connections. Mobile communications are in expansion, clearly driven by the use of smart phones and other mobile devices, the use of laptops, etc… Besides that point, the inversion in the installation and maintenance of the physical medium is much lower than in wired communications, not only because the air has no cost, but because the installation and maintenance of the wire require a high economic cost. Besides the economic cost we find that wire is a more vulnerable medium to external threats such as noise, sabotages, etc… There are two different types of wireless networks: those which the structure is part of the network itself and those which have a lack of structure or any centralization, in a way that the devices that form part of the network can connect themselves in a dynamic and random way, handling also the routing of every control and information messages, this kind of networks is known as Ad-hoc. In the present work we will proceed to study one of the multiple wireless protocols that allows mobile communications, it is Optimized Link State Routing, from now on, OLSR, it is an pro-active routing, standard mechanism that works in a distributed in order to stablish the connections among the different nodes that belong to a wireless network. Thanks to this protocol it is possible to get all the routing tables in all the devices correctly updated every moment through the periodical transmission of control messages and on this way allow a complete connectivity among the devices that are part of the network and also, allow access to other external networks such as virtual private networks o Internet. This protocol could be perfectly used in environments such as airports, malls, etc… The update of the routing tables in all the devices is got thanks to the periodical transmission of control messages and finally it will offer connectivity among all the devices and the corresponding external networks. For the study of OLSR protocol we will have the help of the network simulator “Network Simulator 2”, a freeware network simulator programmed in C++ based in discrete events. This simulator is used mainly in educational and research environments and allows a very extensive range of protocols, both, wired networks protocols and wireless network protocols, what is going to be really useful to proceed to the simulation of different configurations of networks and protocols. In the present work we will also study different simulations with Network Simulator 2, in different scenarios with different configurations, wired networks, and Ad-hoc networks, where we will study OLSR Protocol. RESUMEN. Hasta hace pocos años, la mayoría de las comunicaciones de red estaban basadas en el cable como medio físico pero debido al avance y madurez alcanzados en el campo de las comunicaciones inalámbricas esto está cambiando. Hoy día las comunicaciones inalámbricas nos ofrecen conexiones veloces, seguras, eficientes y fiables. Las comunicaciones móviles se encuentran en su momento de máxima expansión, claramente impulsadas por el uso de teléfonos y demás dispositivos móviles, el uso de portátiles, etc… Además la inversión a realizar en la instalación y el mantenimiento del medio físico en las comunicaciones móviles es muchísimo menor que en comunicaciones por cable, ya no sólo porque el aire no tenga coste alguno, sino porque la instalación y mantenimiento del cable precisan de un elevado coste económico por norma. Además del coste económico nos encontramos con que es un medio más vulnerable a amenazas externas tales como el ruido, escuchas no autorizadas, sabotajes, etc… Existen dos tipos de redes inalámbricas: las constituidas por una infraestructura que forma parte más o menos de la misma y las que carecen de estructura o centralización alguna, de modo que los dispositivos que forman parte de ella pueden conectarse de manera dinámica y arbitraria entre ellos, encargándose además del encaminamiento de todos los mensajes de control e información, a este tipo de redes se las conoce como redes Ad-hoc. En el presente Proyecto de Fin de Carrera se procederá al estudio de uno de los múltiples protocolos inalámbricos que permiten comunicaciones móviles, se trata del protocolo inalámbrico Optimized Link State Routing, de ahora en adelante OLSR, un mecanismo estándar de enrutamiento pro-activo, que trabaja de manera distribuida para establecer las conexiones entre los nodos que formen parte de las redes inalámbricas Ad-hoc, las cuales carecen de un nodo central y de una infraestructura pre-existente. Gracias a este protocolo es posible conseguir que todos los equipos mantengan en todo momento las tablas de ruta actualizadas correctamente mediante la transmisión periódica de mensajes de control y así permitir una completa conectividad entre todos los equipos que formen parte de la red y, a su vez, también permitir el acceso a otras redes externas tales como redes privadas virtuales o Internet. Este protocolo sería usado en entornos tales como aeropuertos La actualización de las tablas de enrutamiento de todos los equipos se conseguirá mediante la transmisión periódica de mensajes de control y así finalmente se podrá permitir conectividad entre todos los equipos y con las correspondientes redes externas. Para el estudio del protocolo OLSR contaremos con el simulador de redes Network Simulator 2, un simulador de redes freeware programado en C++ basado en eventos discretos. Este simulador es usado principalmente en ambientes educativos y de investigación y permite la simulación tanto de protocolos unicast como multicast. El campo donde más se utiliza es precisamente en el de la investigación de redes móviles Ad-hoc. El simulador Network Simulator 2 no sólo implementa el protocolo OLSR, sino que éste implementa una amplia gama de protocolos, tanto de redes cableadas como de redes inalámbricas, lo cual va a sernos de gran utilidad para proceder a la simulación de distintas configuraciones de redes y protocolos. En el presente Proyecto de Fin de Carrera se estudiarán también diversas simulaciones con el simulador NS2 en diferentes escenarios con diversas configuraciones; redes cableadas, redes inalámbricas Ad-hoc, donde se estudiará el protocolo antes mencionado: OLSR. Este Proyecto de Fin de Carrera consta de cuatro apartados distintos: Primeramente se realizará el estudio completo del protocolo OLSR, se verán los beneficios y contrapartidas que ofrece este protocolo inalámbrico. También se verán los distintos tipos de mensajes existentes en este protocolo y unos pequeños ejemplos del funcionamiento del protocolo OLSR. Seguidamente se hará una pequeña introducción al simulador de redes Network Simulator 2, veremos la historia de este simulador, y también se hará referencia a la herramienta extra NAM, la cual nos permitirá visualizar el intercambio de paquetes que se produce entre los diferentes dispositivos de nuestras simulaciones de forma intuitiva y amigable. Se hará mención a la plataforma MASIMUM, encargada de facilitar en un entorno académico software y documentación a sus alumnos con el fin de facilitarles la investigación y la simulación de redes y sensores Ad-hoc. Finalmente se verán dos ejemplos, uno en el que se realizará una simulación entre dos PCs en un entorno Ethernet y otro ejemplo en el que se realizará una simulación inalámbrica entre cinco dispositivos móviles mediante el protocolo a estudiar, OLSR.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Esta tesis examina el papel de la red viaria y el planeamiento urbanístico en la localización de las actividades terciarias. A partir de los años sesenta se produce una modificación de los patrones de comportamiento espacial de las actividades productivas. En la raíz de estos cambios está los procesos de globalización e internacionalización de la economía y un importante aumento de la utilización vehículos privados. Todo ello da lugar a una preocupación entre los profesionales por la identificación de variables en esa organización espacial, y por la búsqueda de modelos que mejorasen las condiciones de competitividad en el entramado urbano, reclamado también la formulación de conceptos diferentes, capaces de entender los cambios territoriales de la reestructuración permanente en que viven las economías capitalistas avanzadas. En este marco, hay un aumento importante de las actividades terciarias o proceso de terciarización; que es el principio basilar para la suburbanización de este sector. Consiste, en buena medida, en unas necesidades de descentralización y dispersión de las actividades terciarias por todo el territorio, con demandas de nuevos espacios para todo tipo de actividades empresariales. Se va así generando un espacio urbano complejo, con nuevas actividades, distintas de la residencial, y con tipologías edificatorias diferentes: centros comerciales, hipermercados, zocos o edificios de empresas dedicadas a servicios avanzados y altamente cualificados. Adquiere, por tanto, un fuerte protagonismo los espacios periféricos de las grandes ciudades. En la transformación de este territorio interviene el planeamiento urbanístico porque prevé la ocupación del suelo y la forma de uso. Y también la carretera considerada clave en el desarrollo histórico de la ciudad. Consecuentemente, se impulsan una plétora de nuevas líneas de investigación y nuevas formas de aproximación al estudio de las relaciones entre las infraestructuras viarias y los usos del suelo. El interés del proyecto de investigación es, por todo ello, estudiar en que medida la localización del terciario depende del planeamiento urbano y de las variaciones en la red viaria. Es decir, la hipótesis de este trabajo se puede enunciar diciendo que: en la aparición del terciario inciden dos variables, el planeamiento urbanístico y la red viaria; lógicamente siendo consciente de la dificultad intrínseca de separar algún parámetro y sus relaciones de un sistema funcional urbano. Centrando este enfoque sobre el caso particular del corredor de la carretera de La Coruña (N-VI) situado en el oeste de la Comunidad de Madrid. Es un ámbito suburbano que comprende los términos municipales de Las Rozas y Majadahonda, un segmento del municipio de Madrid (abarca los barrios de Aravaca, el Plantío y Valdemarín, y una pequeña superficie de la Casa de Campo, Ciudad Universitaria y El Pardo), y la mitad septentrional del municipio de Pozuelo de Alarcón. La conclusión general a la que se ha llegado es que se trata de un fenómeno complejo, en el que se detecta que: A) La aprobación de un nuevo Plan Urbanístico no supone un cambio inmediato en la evolución cuantitativa de la implantación de actividades terciarias en edificio exclusivo en el área de estudio. B) Se evidencia una relación directa entre la implantación de una nueva infraestructura de transporte o modificación de algún elemento importante y el crecimiento de la localización de actividades terciarias. C) Resulta difícil verificar que cuando confluyen mejoras o nuevas construcciones en la red viaria y una estrategia en el planeamiento dirigida a la ordenación e intervención del espacio terciario, el número de edificios terciarios aumente. ABSTRACT This thesis examines the role of road networks and urban planning in the location of tertiary activities. Since the sixties there is a modification of spatial behavior patterns of production activities. At the root of these changes is the process of globalization and internationalization of the economy and a significant increase in private car use. This leads to a concern among professionals in the identification of variables in the spatial organization, and the search for models that would improve the competitive conditions in the urban framework, also called for the formulation of different concepts, able to understand the changes territorial restructuring that live permanently in the advanced capitalist economies. In this context, there is a significant increase in tertiary activities or process outsourcing, which is the beginning basilar to the suburbanization of the sector. It consists, in large part, on the Needs of decentralization and dispersal of tertiary activities throughout the territory, demands for new spaces for all types of business activities. It is thus generating a complex urban area, with new activities, other than residential and with different building typologies: shopping malls, hypermarkets, souks and buildings of companies engaged in advanced and highly skilled services. Thus takes strong role peripheral areas of big cities. In the transformation of this region is involved in providing for urban planning land use and how to use. And the road is considered key in the historical development of the city. Consequently, they are promoting a plethora of new research and new ways of approaching the study of the relationship between road infrastructure and land use. The interest of the research project is, for all that, consider to what extent depends on the location of tertiary urban planning and changes in the road network. That is, the hypothesis of this work can be stated by saying that: the emergence of two variables affecting tertiary, urban planning and road network, of course being aware of the inherent difficulty of separating any parameters and functional relationships of an urban. Approach focusing on the particular case of the road corridor from La Coruña (N-VI) located in the west of Madrid. It is a suburban area comprising the municipalities of Las Rozas and Majadahonda, a segment of the city of Madrid (covering the districts of Aravaca, the planting and Valdemarín, and a small area of the Casa de Campo, Ciudad Universitaria and El Pardo) , and the northern half of the town of Pozuelo de Alarcón. The general conclusion has been reached is that this is a complex phenomenon, which is detected: A) The approval of a new Urban Plan is not an immediate change in the quantitative evolution of the implementation of tertiary activities in exclusive building in the study area. B) It shows a direct relationship between the introduction of a new transport infrastructure or amendment to an important and growing element of the location of tertiary activities. C) It is difficult to verify that when improvements or new construction come together in the road network and planning a strategy aimed at the management and intervention of third space, the number of commercial buildings increases.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Para introducir y contextualizar los diferentes artículos de este Dossier hace falta recordar los elementos relevantes que justifican su necesidad y urgencia: la revolución en el diseño y comercialización de dispositivos móviles provocada por la aparición del iPhone; la explotación de la información vertida en la Red por un usuario consumidor-productor; la evolución de un sector que, bajo la etiqueta de Mobile 2.0, está provocando cambios radicales en todos los ámbitos, en la gestión de nuestra propia identidad, en nuestro aprendizaje, nuestras relaciones, nuestro quehacer profesional