571 resultados para móvil


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante la actividad diaria, la sociedad actual interactúa constantemente por medio de dispositivos electrónicos y servicios de telecomunicaciones, tales como el teléfono, correo electrónico, transacciones bancarias o redes sociales de Internet. Sin saberlo, masivamente dejamos rastros de nuestra actividad en las bases de datos de empresas proveedoras de servicios. Estas nuevas fuentes de datos tienen las dimensiones necesarias para que se puedan observar patrones de comportamiento humano a grandes escalas. Como resultado, ha surgido una reciente explosión sin precedentes de estudios de sistemas sociales, dirigidos por el análisis de datos y procesos computacionales. En esta tesis desarrollamos métodos computacionales y matemáticos para analizar sistemas sociales por medio del estudio combinado de datos derivados de la actividad humana y la teoría de redes complejas. Nuestro objetivo es caracterizar y entender los sistemas emergentes de interacciones sociales en los nuevos espacios tecnológicos, tales como la red social Twitter y la telefonía móvil. Analizamos los sistemas por medio de la construcción de redes complejas y series temporales, estudiando su estructura, funcionamiento y evolución en el tiempo. También, investigamos la naturaleza de los patrones observados por medio de los mecanismos que rigen las interacciones entre individuos, así como medimos el impacto de eventos críticos en el comportamiento del sistema. Para ello, hemos propuesto modelos que explican las estructuras globales y la dinámica emergente con que fluye la información en el sistema. Para los estudios de la red social Twitter, hemos basado nuestros análisis en conversaciones puntuales, tales como protestas políticas, grandes acontecimientos o procesos electorales. A partir de los mensajes de las conversaciones, identificamos a los usuarios que participan y construimos redes de interacciones entre los mismos. Específicamente, construimos una red para representar quién recibe los mensajes de quién y otra red para representar quién propaga los mensajes de quién. En general, hemos encontrado que estas estructuras tienen propiedades complejas, tales como crecimiento explosivo y distribuciones de grado libres de escala. En base a la topología de estas redes, hemos indentificado tres tipos de usuarios que determinan el flujo de información según su actividad e influencia. Para medir la influencia de los usuarios en las conversaciones, hemos introducido una nueva medida llamada eficiencia de usuario. La eficiencia se define como el número de retransmisiones obtenidas por mensaje enviado, y mide los efectos que tienen los esfuerzos individuales sobre la reacción colectiva. Hemos observado que la distribución de esta propiedad es ubicua en varias conversaciones de Twitter, sin importar sus dimensiones ni contextos. Con lo cual, sugerimos que existe universalidad en la relación entre esfuerzos individuales y reacciones colectivas en Twitter. Para explicar los factores que determinan la emergencia de la distribución de eficiencia, hemos desarrollado un modelo computacional que simula la propagación de mensajes en la red social de Twitter, basado en el mecanismo de cascadas independientes. Este modelo nos permite medir el efecto que tienen sobre la distribución de eficiencia, tanto la topología de la red social subyacente, como la forma en que los usuarios envían mensajes. Los resultados indican que la emergencia de un grupo selecto de usuarios altamente eficientes depende de la heterogeneidad de la red subyacente y no del comportamiento individual. Por otro lado, hemos desarrollado técnicas para inferir el grado de polarización política en redes sociales. Proponemos una metodología para estimar opiniones en redes sociales y medir el grado de polarización en las opiniones obtenidas. Hemos diseñado un modelo donde estudiamos el efecto que tiene la opinión de un pequeño grupo de usuarios influyentes, llamado élite, sobre las opiniones de la mayoría de usuarios. El modelo da como resultado una distribución de opiniones sobre la cual medimos el grado de polarización. Aplicamos nuestra metodología para medir la polarización en redes de difusión de mensajes, durante una conversación en Twitter de una sociedad políticamente polarizada. Los resultados obtenidos presentan una alta correspondencia con los datos offline. Con este estudio, hemos demostrado que la metodología propuesta es capaz de determinar diferentes grados de polarización dependiendo de la estructura de la red. Finalmente, hemos estudiado el comportamiento humano a partir de datos de telefonía móvil. Por una parte, hemos caracterizado el impacto que tienen desastres naturales, como innundaciones, sobre el comportamiento colectivo. Encontramos que los patrones de comunicación se alteran de forma abrupta en las áreas afectadas por la catástofre. Con lo cual, demostramos que se podría medir el impacto en la región casi en tiempo real y sin necesidad de desplegar esfuerzos en el terreno. Por otra parte, hemos estudiado los patrones de actividad y movilidad humana para caracterizar las interacciones entre regiones de un país en desarrollo. Encontramos que las redes de llamadas y trayectorias humanas tienen estructuras de comunidades asociadas a regiones y centros urbanos. En resumen, hemos mostrado que es posible entender procesos sociales complejos por medio del análisis de datos de actividad humana y la teoría de redes complejas. A lo largo de la tesis, hemos comprobado que fenómenos sociales como la influencia, polarización política o reacción a eventos críticos quedan reflejados en los patrones estructurales y dinámicos que presentan la redes construidas a partir de datos de conversaciones en redes sociales de Internet o telefonía móvil. ABSTRACT During daily routines, we are constantly interacting with electronic devices and telecommunication services. Unconsciously, we are massively leaving traces of our activity in the service providers’ databases. These new data sources have the dimensions required to enable the observation of human behavioral patterns at large scales. As a result, there has been an unprecedented explosion of data-driven social research. In this thesis, we develop computational and mathematical methods to analyze social systems by means of the combined study of human activity data and the theory of complex networks. Our goal is to characterize and understand the emergent systems from human interactions on the new technological spaces, such as the online social network Twitter and mobile phones. We analyze systems by means of the construction of complex networks and temporal series, studying their structure, functioning and temporal evolution. We also investigate on the nature of the observed patterns, by means of the mechanisms that rule the interactions among individuals, as well as on the impact of critical events on the system’s behavior. For this purpose, we have proposed models that explain the global structures and the emergent dynamics of information flow in the system. In the studies of the online social network Twitter, we have based our analysis on specific conversations, such as political protests, important announcements and electoral processes. From the messages related to the conversations, we identify the participant users and build networks of interactions with them. We specifically build one network to represent whoreceives- whose-messages and another to represent who-propagates-whose-messages. In general, we have found that these structures have complex properties, such as explosive growth and scale-free degree distributions. Based on the topological properties of these networks, we have identified three types of user behavior that determine the information flow dynamics due to their influence. In order to measure the users’ influence on the conversations, we have introduced a new measure called user efficiency. It is defined as the number of retransmissions obtained by message posted, and it measures the effects of the individual activity on the collective reacixtions. We have observed that the probability distribution of this property is ubiquitous across several Twitter conversation, regardlessly of their dimension or social context. Therefore, we suggest that there is a universal behavior in the relationship between individual efforts and collective reactions on Twitter. In order to explain the different factors that determine the user efficiency distribution, we have developed a computational model to simulate the diffusion of messages on Twitter, based on the mechanism of independent cascades. This model, allows us to measure the impact on the emergent efficiency distribution of the underlying network topology, as well as the way that users post messages. The results indicate that the emergence of an exclusive group of highly efficient users depends upon the heterogeneity of the underlying network instead of the individual behavior. Moreover, we have also developed techniques to infer the degree of polarization in social networks. We propose a methodology to estimate opinions in social networks and to measure the degree of polarization in the obtained opinions. We have designed a model to study the effects of the opinions of a small group of influential users, called elite, on the opinions of the majority of users. The model results in an opinions distribution to which we measure the degree of polarization. We apply our methodology to measure the polarization on graphs from the messages diffusion process, during a conversation on Twitter from a polarized society. The results are in very good agreement with offline and contextual data. With this study, we have shown that our methodology is capable of detecting several degrees of polarization depending on the structure of the networks. Finally, we have also inferred the human behavior from mobile phones’ data. On the one hand, we have characterized the impact of natural disasters, like flooding, on the collective behavior. We found that the communication patterns are abruptly altered in the areas affected by the catastrophe. Therefore, we demonstrate that we could measure the impact of the disaster on the region, almost in real-time and without needing to deploy further efforts. On the other hand, we have studied human activity and mobility patterns in order to characterize regional interactions on a developing country. We found that the calls and trajectories networks present community structure associated to regional and urban areas. In summary, we have shown that it is possible to understand complex social processes by means of analyzing human activity data and the theory of complex networks. Along the thesis, we have demonstrated that social phenomena, like influence, polarization and reaction to critical events, are reflected in the structural and dynamical patterns of the networks constructed from data regarding conversations on online social networks and mobile phones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto propone la utilización de un protocolo de obtención y gestión de certificados llamado SCEP (Simple Certificate Enrollment Protocol), utilizado inicialmente para el aprovisionamiento automático de certificados en routers y switches de la marca Cisco Networks, para su uso en dispositivos personales o corporativos dentro del ámbito laboral. En la actualidad, se están aplicando nuevas técnicas más eficientes de control del uso de los dispositivos corporativos por parte de los empleados de determinadas empresas. Estas empresas son las encargadas de proporcionar a sus empleados dichos dispositivos, que en muchos casos son un ordenador personal y un teléfono móvil. En las empresas del sector de las TIC, el uso de esos dispositivos es la principal herramienta de sus empleados, con lo que la seguridad y control son mecanismos fundamentales que deben estar presentes y garantizados. Además, nuevas tendencias como el BYOD (Bring Your Own Device o el teletrabajo, permiten a los empleados tanto el uso de los dispositivos corporativos lejos del ámbito laboral (en su domicilio, por ejemplo), como el uso de dispositivos no preparados de antemano por la empresa. A priori, estas técnicas suponen un avance en comodidad para los empleados; pero puede significar todo lo contrario cuando se habla del mantenimiento de la seguridad y el control de acceso a los recursos de la empresa desde dichos dispositivos (obtención de certificados para acceder a recursos internos, envío de información cifrada entre individuos de la misma empresa, etc). Es aquí donde cobra sentido la idea de utilizar un protocolo de aprovisionamiento y gestión automatizada de certificados para garantizar la seguridad y control de acceso en la PKI (Public Key Infrastructure) corporativa, permitiendo el uso de dispositivos personales, y evitando la acumulación de trámites burocráticos incómodos tanto para el empleado como para la empresa. Este proyecto plantea la utilización del protocolo SCEP como mecanismo para la realización de la gestión automatizada de certificados ampliando su utilización a dispositivos de escritorio Windows y móviles Android.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde el establecimiento de la Agenda digital para Europa, los Estados sujetos a dicha regulación se han visto ante el reto de desarrollar la mejor estrategia para su cumplimiento. Pese a no ser dicha normativa de carácter obligatorio, España ha hecho de ésta, iniciativa clave en su estrategia nacional de banda ancha. El primer paso fue el establecimiento del Servicio Universal (SU) de banda ancha en 2011. Desde entonces, todo el país se encuentra totalmente cubierto. Respecto al objetivo de al menos 50% de hogares conectados a banda ancha de 100 Mbps en 2020, se asume que se alcanzará a través de redes de acceso de nueva generación (NGA) fijas. Sin embargo, existen ciertas dudas acerca del cumplimiento del objetivo de cobertura universal con 30 Mbps, especialmente en las zonas rurales. Debido a la cobertura casi nacional de redes móviles, se cree que LTE podría ser la solución más eficiente en costes para alcanzar dicho objetivo. Esta tesis estudia el coste de provisionar banda ancha de al menos 30 Mbps a los municipios en los cuales se encuentra el tercio final de la población española, los cuales se clasifican en geotipos. Se comparan tecnologías móviles y fijas a fin de determinar la tecnología más eficiente en costes en cada caso. Asimismo, se discute el límite demográfico para las redes fijas (fibra óptica, cable o cobre). De igual manera, se evalúa si es viable para un operador proveer banda ancha móvil de 30 Mbps en la zona rural española, y de no ser posible, si la compartición pasiva de infraestructuras podría brindar la viabilidad requerida para fomentar la inversión. La investigación se realiza a través de un análisis tecno-económico en un escenario competición basada en infraestructuras. Se emplea un método de flujo de caja descontado, para determinar el coste total del despliegue y el mínimo ingreso por usuario (ARPU) requerido para recuperar la inversión en dos enfoques de red: compartición pasiva y sin compartición. Por otra parte, se construyen tres escenarios de demanda, basados en previsiones de banda ancha para el año 2020, a fin de estimar la adopción por red y el ARPU en el área estudiada. Los resultados confirman que LTE es la tecnología más eficiente en costes para el tercio final de la población. No obstante, VDSL capaz de proveer hasta 50 Mbps en viabilidad del 75% al 90% de la población española. Para esta franja de población, debe fomentarse la competición entre las plataformas LTE y VDSL. Respecto a los municipios en los cuales se encuentran del 90% al 98,5% de la población, la plataforma móvil LTE es la más apropiada. Además, ha quedado de manifiesto que no es posible proveer de manera viable 30 Mbps al 1,5% final de la población, debido a la escasa densidad de población y las previsiones de adopción nada optimistas. Los resultados también indican que las características socioeconómicas del área estudiada, la alta sensibilidad de la población al precio y la existencia de otros productos de banda ancha, obligan al operador a reducir sus ingresos. A consecuencia de lo anterior, únicamente niveles muy altos de adopción a la red podrían brindar la viabilidad requerida al despliegue. La investigación muestra que la compartición pasiva de infraestructuras, en sí misma, no constituye una solución; mientras que un despliegue de red único podría resolver el problema de la universalización de la banda ancha de 30 Mbps en las zonas rurales de España.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente las redes sociales son muy utilizadas en todo el mundo, existen diferentes tipos de redes sociales con las que podemos conectar con amigos, ampliar nuestra red de contactos profesionales, aprender cosas nuevas, etc. Su elevado uso las ha convertido en uno de los negocios más rentables en internet generando fortunas para sus creadores, principalmente, a través de la publicidad. Muchas redes sociales son creadas por empresas que cuentan con un equipo experto, pero otras muchas han sido creadas por personas comunes, con bajos conocimientos informáticos, muchos motivados en sus aficiones o carreras profesionales, que al no encontrar nada en la red que les resulte útil, han decidido desarrollar ellos mismos sus propias redes sociales con la ayuda de herramientas informáticas. Una de esas herramientas son los sistemas de gestión de contenidos (CMS), con los cuales ahorraremos mucho tiempo de desarrollo y no necesitaremos invertir grandes cantidades de dinero. Este proyecto trata, principalmente, de cómo crear redes sociales haciendo uso de estas herramientas y tiene el objetivo de ser lo suficientemente claro para que cualquier persona, sin importar su nivel de conocimientos técnicos, sea capaz de desarrollar sus ideas. En la primera parte del proyecto se habla sobre las redes sociales en general y el impacto de éstas en la sociedad actual, donde se ve que, actualmente, debido a la cantidad de redes sociales y a la accesibilidad móvil, el uso de las redes sociales es una cotidianidad. También se explican algunos métodos para obtener beneficios económicos de una red social y las ventajas que presentan las redes sociales específicas frente a las generalistas, concluyendo que las redes sociales específicas van ganando mayor protagonismo con el paso del tiempo. Además, se habla sobre la crítica de las redes sociales desde el punto de vista del usuario de la red, donde se resalta el tema de la administración de la publicidad y la privatización que han supuesto las redes sociales. Posteriormente se presenta una base teórica sobre las herramientas antes mencionadas, los CMS. Se explica su funcionamiento, clasificación y las ventajas que obtenemos con el uso de este software en nuestros proyectos, de los cuales destacan el corto tiempo de desarrollo y el bajo coste. Al final se eligen los CMS de estudio en este proyecto principalmente en base a tres criterios: licencia, cuota de uso y características de red social. En la segunda parte del proyecto se habla acerca de los CMS elegidos: WordPress con su plugin BuddyPress, Elgg, y Joomla con su plugin JomSocial. Se explican las características de cada uno de ellos y se muestran ejemplos de redes sociales reales hechas con estos CMS. En esta parte del proyecto se hace un uso práctico de estos CMS y se detalla paso a paso todo el proceso de creación de una red social (instalación, configuración y personalización de la red social) para cada CMS. El resultado son tres redes sociales hechas con distintos CMS, de los cuales se hace una valoración en base a la experiencia obtenida con el uso de los mismos, concluyéndose que JomSocial es una buena opción para redes sociales de uso generalista, pero para redes específicas son mejores tanto Elgg como BuddyPress, presentando este último una ligera ventaja por tener una gran comunidad en español. ABSTRACT. Nowadays social networks are widely used throughout the world, there are different types of social networks where you can connect with friends, expand your network of professional contacts, learn new things, etc. Its high usage has turned them into one of the most profitable businesses on Internet generating fortunes to its developers, mainly through advertising. Many social networks are developed by companies that count on an expert team, but many others have been created by ordinary people, with low computer skills, many of them motivated in their hobbies or careers, that did not find anything useful on Internet and decide to develop their own social networks with the help of software tools. One of those tools is a content management system (CMS), which will help us to save a lot of development time and we will not need to invest large amounts of money. This project is, mainly, about how to create social networks using these tools and aims to be clear enough to help anyone, regardless of their computer skills, to develop their ideas. The first part of the project is about social networks in general and the impact on today's society, where we can see that, due to the number of social networks and mobile accessibility, the use of social networks is daily. Also it explains some ways to obtain economic benefits from a social network and the advantages of specific social networks against generalist social networks, concluding that specific social networks are gaining more prominence with the passage of time. In addition, it refers on social networks critique from the point of view of social network users, where it highlights the issue of the advertising administration and privatization which have brought social networks. Subsequently, it presents a theoretical base of the above mentioned tools, CMS. Explains their operation, classification and the advantages we get with the use of this software in our projects, where the short development time and lower cost are highlighted. At the end the CMS studied in this project are chosen mainly based on three criteria: license, community size and social network features. The second part of the project is about the chosen CMS: WordPress with its plugin BuddyPress, Elgg, and Joomla with its plugin JomSocial. It explains features of all of them and shows examples of real social networks developed with these CMS. This part of the project is a practical use of these CMS and detailed step by step throughout the process of creating a social network (installation, configuration and customization of the social network) for each CMS. The result are three social networks made with different CMS, from which is made an assessment on the basis of the experience gained with the use of these software, concluding that JomSocial is a good choice to develop generalist social networks, but for specific social networks are better Elgg and BuddyPress, presenting the latter a slight advantage by having a large community in Spanish.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos tiempos, el tráfico generado por los usuarios de redes móviles ha crecido de manera muy notable, y se prevé que dicho crecimiento se mantenga de manera continuada a lo largo de los próximos años. El tráfico gestionado por redes móviles se ha multiplicado por cinco entre los años 2010 y 2013, y las predicciones señalan un aumento de diez veces entre 2013 y 2019. De este tráfico que deben gestionar las redes móviles, una gran parte se genera en el interior de edificios. En la actualidad, éste oscila entre el 70% y el 80% del tráfico móvil total, y este porcentaje se prevé que aumente hasta cerca del 95% en los próximos años. En esta situación, con el tráfico móvil aumentando de manera exponencial, especialmente en interiores, el despliegue de soluciones específicas para estos entornos se antoja imprescindible para evitar situaciones de saturación constante de las redes móviles. Desde el punto de vista de los operadores móviles, estas soluciones permitirán limitar los problemas de cobertura, mejorar la eficiencia del uso de recursos radio y reducir el coste de las infraestructuras. Asimismo, desde el punto de vista de los usuarios, estos despliegues específicos en interiores permitirán suministrar de manera continua altas tasas de transferencia y satisfacer los altos requisitos de calidad de servicio que demandan los servicios en tiempo real. La complejidad de las actuaciones a realizar para llevar a cabo el despliegue de soluciones específicas en interiores varía considerablemente según el tipo de entorno al que están destinadas. Por un lado, las soluciones en escenarios de tipo residencial se caracterizan por despliegues masivos de transmisores realizados por los propios usuarios. De esta manera, no hay posibilidad de realizar ningún tipo de planificación previa que permita la optimización del rendimiento y solo se puede recurrir, para la mejora de éste, a métodos de autoconfiguración y autooptimización. Por otro lado, las soluciones en entornos empresariales se caracterizan por la necesidad de realizar una labor de diseño y planificación previa, cuya dificultad estará asociada a las dimensiones del escenario de despliegue y al número de transmisores necesarias. De esta labor de diseño y de la configuración de los elementos involucrados en la solución desplegada dependerá el funcionamiento adecuado de la red, el rendimiento conseguido y la calidad del servicio que se podrá suministrar a través de ésta. En esta Tesis Doctoral se abordan dos de los problemas principales en el ámbito del despliegue de soluciones específicas de interiores. El primero de ellos es la dificultad para estimar la capacidad y el rendimiento que puede garantizarse mediante soluciones autodesplegadas, y el segundo es la complejidad de diseñar y configurar despliegues de soluciones específicas de interiores en entornos empresariales que requieran un número de transmisores considerable. En el ámbito de los autodespliegues en escenarios residenciales, las principales contribuciones originales de esta Tesis Doctoral se centran en el diseño, desarrollo e implementación de procedimientos que permitan de manera sencilla y precisa la estimación de la capacidad y el rendimiento en autodespliegues. Por otro lado, en el ámbito de los despliegues en escenarios empresariales, las aportaciones originales de esta Tesis consisten en el desarrollo de nuevas técnicas que permitan el diseño automático de soluciones específicas de interiores en estos entornos. Los resultados obtenidos han permitido la creación de herramientas específicas para el análisis del rendimiento de autodespliegues en escenarios residenciales reales y para el diseño y configuración de despliegues en escenarios empresariales. Estas herramientas permiten sistematizar la aplicación práctica de las contribuciones de la presente Tesis Doctoral. ABSTRACT In recent times, the traffic generated by users of mobile networks has grown very significantly, and this increase is expected to continue steadily over the next few years. Traffic carried by mobile networks has increased fivefold between 2010 and 2013, and forecasts indicate a tenfold increase between 2013 and 2019. Furthermore, a great part of this traffic is generated inside buildings. Currently, between 70% and 80% of mobile traffic occurs inside buildings, and this percentage is expected to increase to about 95% in the coming years. In this situation, with mobile traffic growing exponentially, especially indoors, the deployment of specific solutions for these environments can be essential to avoid a constant saturation of mobile networks. On the one hand, from the point of view of mobile operators, these solutions will help to reduce the problems of coverage, improve the efficiency of radio resource usage and reduce the cost of infrastructures. Also, from the point of view of users, these specific indoor deployments can both guarantee high data transfer rates and meet the high quality of service requirements associated with real-time services. The complexity of the actions required to carry out the deployment of specific solutions indoors varies considerably depending on the type of scenario they are conceived to. On the one hand, residential scenarios are characterized by massive deployments of base stations made by the user, so there is no possibility of any prior planning. In this case only self-configuration, selfoptimization and self-healing methods can be considered for performance optimization. On the other hand, specific in-building solutions in enterprise environments requires a previous design and planning phase, whose difficulty is closely associated with the size of the deployment scenario and the number of base stations required. The design and configuration of the elements included in the solution will determine its performance and the quality of service that can be guaranteed. The objective of the present Thesis is to address two of the main issues related to specific indoor solutions, such as the difficulty of assessing the capacity and the performance which can be guaranteed by means of self-deployments and the complexity of the design and configuration of deployments in enterprise environments requiring a large number of base stations. The main contribution of this thesis consists of the development of techniques and simple tools for design and performance analysis of indoor wireless networks deployments. The main results include the development of procedures for assessing the capacity and performance of self-deployments in residential scenarios, the performance analysis of real residential self-deployments using the proposed procedures and the development of techniques for the automatic design of wireless networks in enterprise environments. The results obtained have allowed the creation of specific software tools for both the performance analysis of self-deployments and the design and deployment of in-building solutions in enterprise scenarios. These software tools are conceived to systematize the practical application of the contributions of this Thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el proyecto se lleva a cabo un estudio práctico sobre dos escenarios donde intervienen dispositivos relacionados con el Internet de las cosas. También se puede situar como una solución de comunicación M2M. Comunicación máquina a máquina implica un sistema central que es capaz de conectarse con otros sistemas en varios lugares. La conexión permite que el sistema central recoja o envíe datos a cada lugar remoto para su procesamiento. El primer escenario consta de la configuración y montaje de un microcontrolador conocido como Waspmote que se encarga de recoger variables atmosféricas gracias a un conjunto de sensores y enviar los datos a un router multiprotocolo Meshlium mediante tecnología Zigbee, un tipo de red orientada a redes de sensores. Este montaje tiene como fin instalar una estación meteorológica en el campus de la universidad y poder almacenar y administrar sus datos. La segunda parte dos dispositivos de hardware libre como son un Arduino con capacidad GPRS y una RaspberryPi conectada a la red cableada enviaran datos por ejemplo de temperatura y luminosidad a una red social de sensores conocida como Xively, gestionaremos nuestros dispositivos sobre esta plataforma gratuita, que nos permite dar de alta dispositivos, almacenar y representar los datos en tiempo real y consultarlos vía Web o mediante una aplicación móvil realizada para este caso por medio de funciones ofrecidas por Xively. He diseñado una aplicación Android que permite la consulta de datos y administración de sensores por un usuario, intenta abstraer al usuario de la complejidad técnica y acercar los objetos conectados, en este caso sensores. Se han detallado las configuraciones y el proceso de instalación de todos los dispositivos. Se explican conceptos para entender las tecnologías de comunicación, Zigbee y Http, este protocolo participara a nivel de aplicación realizando peticiones o enviando datos, administrando la capacidad y por tanto ahorro. ABSTRACT. The project takes a practical study on two scenarios which involved related to the Internet of Things devices. It can also be placed as a M2M communication solution. Machine to machine communication involves a central system that is able to connect with other systems in several places. The connection allows the central system to collect or send data to each remote location for processing. The first stage consists of the configuration and setup of a microcontroller known as Waspmote which is responsible to collect atmospheric variables by a set of sensors and send the data to a multiprotocol router Meshlium by Zigbee technology, a type of sensor networks oriented network. This assembly aims to set up a weather station on the campus of the university and to store and manage their data. The second part two devices free hardware like Arduino with GPRS capacity and RaspberryPi connected to the wired network send data, temperature and luminosity to a social network of sensors known as Xively, manage our devices on this free platform, which allows us to register devices, store and display data in real time and consult the web or through a mobile application on this case by means of functions offered by Xively. I have designed an Android application that allows data consultation and management of sensors by a user, the user tries to abstract the technical complexity and bring the connected objects, in this case sensors. Were detailed settings and the installation of all devices. Concepts are explained to understand communication technologies, Zigbee and Http, this protocol participate performing application-level requests or sending data, managing capacity and therefore savings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los dispositivos móviles modernos disponen cada vez de más funcionalidad debido al rápido avance de las tecnologías de las comunicaciones y computaciones móviles. Sin embargo, la capacidad de la batería no ha experimentado un aumento equivalente. Por ello, la experiencia de usuario en los sistemas móviles modernos se ve muy afectada por la vida de la batería, que es un factor inestable de difícil de control. Para abordar este problema, investigaciones anteriores han propuesto un esquema de gestion del consumo (PM) centrada en la energía y que proporciona una garantía sobre la vida operativa de la batería mediante la gestión de la energía como un recurso de primera clase en el sistema. Como el planificador juega un papel fundamental en la administración del consumo de energía y en la garantía del rendimiento de las aplicaciones, esta tesis explora la optimización de la experiencia de usuario para sistemas móviles con energía limitada desde la perspectiva de un planificador que tiene en cuenta el consumo de energía en un contexto en el que ésta es un recurso de primera clase. En esta tesis se analiza en primer lugar los factores que contribuyen de forma general a la experiencia de usuario en un sistema móvil. Después se determinan los requisitos esenciales que afectan a la experiencia de usuario en la planificación centrada en el consumo de energía, que son el reparto proporcional de la potencia, el cumplimiento de las restricciones temporales, y cuando sea necesario, el compromiso entre la cuota de potencia y las restricciones temporales. Para cumplir con los requisitos, el algoritmo clásico de fair queueing y su modelo de referencia se extienden desde los dominios de las comunicaciones y ancho de banda de CPU hacia el dominio de la energía, y en base a ésto, se propone el algoritmo energy-based fair queueing (EFQ) para proporcionar una planificación basada en la energía. El algoritmo EFQ está diseñado para compartir la potencia consumida entre las tareas mediante su planificación en función de la energía consumida y de la cuota reservada. La cuota de consumo de cada tarea con restricciones temporales está protegida frente a diversos cambios que puedan ocurrir en el sistema. Además, para dar mejor soporte a las tareas en tiempo real y multimedia, se propone un mecanismo para combinar con el algoritmo EFQ para dar preferencia en la planificación durante breves intervalos de tiempo a las tareas más urgentes con restricciones temporales.Las propiedades del algoritmo EFQ se evaluan a través del modelado de alto nivel y la simulación. Los resultados de las simulaciones indican que los requisitos esenciales de la planificación centrada en la energía pueden lograrse. El algoritmo EFQ se implementa más tarde en el kernel de Linux. Para evaluar las propiedades del planificador EFQ basado en Linux, se desarrolló un banco de pruebas experimental basado en una sitema empotrado, un programa de banco de pruebas multihilo, y un conjunto de pruebas de código abierto. A través de experimentos específicamente diseñados, esta tesis verifica primero las propiedades de EFQ en la gestión de la cuota de consumo de potencia y la planificación en tiempo real y, a continuación, explora los beneficios potenciales de emplear la planificación EFQ en la optimización de la experiencia de usuario para sistemas móviles con energía limitada. Los resultados experimentales sobre la gestión de la cuota de energía muestran que EFQ es más eficaz que el planificador de Linux-CFS en la gestión de energía, logrando un reparto proporcional de la energía del sistema independientemente de en qué dispositivo se consume la energía. Los resultados experimentales en la planificación en tiempo real demuestran que EFQ puede lograr de forma eficaz, flexible y robusta el cumplimiento de las restricciones temporales aunque se dé el caso de aumento del el número de tareas o del error en la estimación de energía. Por último, un análisis comparativo de los resultados experimentales sobre la optimización de la experiencia del usuario demuestra que, primero, EFQ es más eficaz y flexible que los algoritmos tradicionales de planificación del procesador, como el que se encuentra por defecto en el planificador de Linux y, segundo, que proporciona la posibilidad de optimizar y preservar la experiencia de usuario para los sistemas móviles con energía limitada. Abstract Modern mobiledevices have been becoming increasingly powerful in functionality and entertainment as the next-generation mobile computing and communication technologies are rapidly advanced. However, the battery capacity has not experienced anequivalent increase. The user experience of modern mobile systems is therefore greatly affected by the battery lifetime,which is an unstable factor that is hard to control. To address this problem, previous works proposed energy-centric power management (PM) schemes to provide strong guarantee on the battery lifetime by globally managing energy as the first-class resource in the system. As the processor scheduler plays a pivotal role in power management and application performance guarantee, this thesis explores the user experience optimization of energy-limited mobile systemsfrom the perspective of energy-centric processor scheduling in an energy-centric context. This thesis first analyzes the general contributing factors of the mobile system user experience.Then itdetermines the essential requirements on the energy-centric processor scheduling for user experience optimization, which are proportional power sharing, time-constraint compliance, and when necessary, a tradeoff between the power share and the time-constraint compliance. To meet the requirements, the classical fair queuing algorithm and its reference model are extended from the network and CPU bandwidth sharing domain to the energy sharing domain, and based on that, the energy-based fair queuing (EFQ) algorithm is proposed for performing energy-centric processor scheduling. The EFQ algorithm is designed to provide proportional power shares to tasks by scheduling the tasks based on their energy consumption and weights. The power share of each time-sensitive task is protected upon the change of the scheduling environment to guarantee a stable performance, and any instantaneous power share that is overly allocated to one time-sensitive task can be fairly re-allocated to the other tasks. In addition, to better support real-time and multimedia scheduling, certain real-time friendly mechanism is combined into the EFQ algorithm to give time-limited scheduling preference to the time-sensitive tasks. Through high-level modelling and simulation, the properties of the EFQ algorithm are evaluated. The simulation results indicate that the essential requirements of energy-centric processor scheduling can be achieved. The EFQ algorithm is later implemented in the Linux kernel. To assess the properties of the Linux-based EFQ scheduler, an experimental test-bench based on an embedded platform, a multithreading test-bench program, and an open-source benchmark suite is developed. Through specifically-designed experiments, this thesis first verifies the properties of EFQ in power share management and real-time scheduling, and then, explores the potential benefits of employing EFQ scheduling in the user experience optimization for energy-limited mobile systems. Experimental results on power share management show that EFQ is more effective than the Linux-CFS scheduler in managing power shares and it can achieve a proportional sharing of the system power regardless of on which device the energy is spent. Experimental results on real-time scheduling demonstrate that EFQ can achieve effective, flexible and robust time-constraint compliance upon the increase of energy estimation error and task number. Finally, a comparative analysis of the experimental results on user experience optimization demonstrates that EFQ is more effective and flexible than traditional processor scheduling algorithms, such as those of the default Linux scheduler, in optimizing and preserving the user experience of energy-limited mobile systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la realización de este proyecto se ha tratado principalmente la temática del web scraping sobre documentos HTML en Android. Como resultado del mismo, se ha propuesto una metodología para poder realizar web scraping en aplicaciones implementadas para este sistema operativo y se desarrollará una aplicación basada en esta metodología que resulte útil a los alumnos de la escuela. Web scraping se puede definir como una técnica basada en una serie de algoritmos de búsqueda de contenido con el fin de obtener una determinada información de páginas web, descartando aquella que no sea relevante. Como parte central, se ha dedicado bastante tiempo al estudio de los navegadores y servidores Web, y del lenguaje HTML presente en casi todas las páginas web en la actualidad así como de los mecanismos utilizados para la comunicación entre cliente y servidor ya que son los pilares en los que se basa esta técnica. Se ha realizado un estudio de las técnicas y herramientas necesarias, aportándose todos los conceptos teóricos necesarios, así como la proposición de una posible metodología para su implementación. Finalmente se ha codificado la aplicación UPMdroid, desarrollada con el fin de ejemplificar la implementación de la metodología propuesta anteriormente y a la vez desarrollar una aplicación cuya finalidad es brindar al estudiante de la ETSIST un soporte móvil en Android que le facilite el acceso y la visualización de aquellos datos más importantes del curso académico como son: el horario de clases y las calificaciones de las asignaturas en las que se matricule. Esta aplicación, además de implementar la metodología propuesta, es una herramienta muy interesante para el alumno, ya que le permite utilizar de una forma sencilla e intuitiva gran número de funcionalidades de la escuela solucionando así los problemas de visualización de contenido web en los dispositivos. ABSTRACT. The main topic of this project is about the web scraping over HTML documents on Android OS. As a result thereof, it is proposed a methodology to perform web scraping in deployed applications for this operating system and based on this methodology that is useful to the ETSIST school students. Web scraping can be defined as a technique based on a number of content search algorithms in order to obtain certain information from web pages, discarding those that are not relevant. As a main part, has spent considerable time studying browsers and Web servers, and the HTML language that is present today in almost all websites as well as the mechanisms used for communication between client and server because they are the pillars which this technique is based. We performed a study of the techniques and tools needed, providing all the necessary theoretical concepts, as well as the proposal of a possible methodology for implementation. Finally it has codified UPMdroid application, developed in order to illustrate the implementation of the previously proposed methodology and also to give the student a mobile ETSIST Android support to facilitate access and display those most important data of the current academic year such as: class schedules and scores for the subjects in which you are enrolled. This application, in addition to implement the proposed methodology is also a very interesting tool for the student, as it allows a simple and intuitive way of use these school functionalities thus fixing the viewing web content on devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de la tecnología móvil ha cambiado la forma de interactuar con el entorno, ofreciendo cada día nuevas soluciones con un alto componente visual y de geoposicionamiento. En este sentido los yacimientos arqueológicos y otros lugares históricos o de interés pueden verse altamente beneficiados de la llamada realidad aumentada. En el presente trabajo se ofrece una nueva aplicación de la topografía y fotogrametría lejos de las concepciones clásicas relacionadas con el trabajo en obra, catastral o cartográfico. Se establece un estudio de los distintos avances en visión por ordenador y realidad aumentada para ofrecer una nueva forma de visitar el yacimiento arqueológico de Complutum. El proyecto se resume en los siguientes puntos: - Levantamiento y recreación de los restos del parque arqueológico de Complutum. - Estudio de las distintos avances en la visión por ordenador, así como de las soluciones en Tracking tanto 2D como 3D. - Desarrollo de una aplicación para dispositivos Android que implemente estas funciones para recrear el yacimiento mediante realidad aumentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como ya es conocido, los profesores de Matemáticas utilizamos los ejemplos como recursos de aprendizaje para enseñar algún contenido matemático concreto, de modo que las generalizaciones y abstracciones sean más fácilmente entendidas por los alumnos, pasando de lo concreto a lo abstracto, como otra forma de enseñar y practicar en Matemáticas. Esta metodología de trabajo se ve potenciada por el uso de dispositivos móviles llamados mobile-learning (m-learning) o educación móvil (educación-m), en español. Siguiendo esta línea de trabajo, se ha realizado el workshop de cónicas que se presenta en este artículo, empleando estas nuevas tecnologías (TIC) y con el objetivo de desarrollar aprendizajes activos en Geometría a través de la resolución de problemas en los primeros cursos de Grado en las ingenierías. ABSTRACT: As it is already known, math teachers, use examples as learning resources, to teach some specific math contents, so that generalizations and abstractions are more easily understood by students, from concrete to abstract, as another way of Mathematics teaching and training. This methodology is enhanced by the use of mobile devices, called mobile-learning (m-learning) o “educación móvil” (educación-m), in Spanish. Following this strategy, the workshop of conic sections shown in this paper has been carried out, using these new technologies (ICT) and in order to develop active learning in Geometry through problem-solving at the first years of engineering degrees.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El sector ferroviario ha experimentado en los últimos años un empuje espectacular acaparando las mayores inversiones en construcción de nuevas líneas de alta velocidad. Junto a esta inversión inicial no se debe perder de vista el coste de mantenimiento y gestión de las mismas y para ello es necesario avanzar en el conocimiento de los fenómenos de interacción de la vía y el material móvil. En los nuevos trazados ferroviarios, que hacen del ferrocarril un modo de transporte competitivo, se produce un notable aumento en la velocidad directamente relacionado con la disminución de los tiempos de viaje, provocando por ello elevados esfuerzos dinámicos, lo que exige una elevada calidad de vía para evitar el rápido deterioro de la infraestructura. Resulta primordial controlar y minimizar los costes de mantenimiento que vienen generados por las operaciones de conservación de los parámetros de calidad y seguridad de la vía férrea. Para reducir las cargas dinámicas que actúan sobre la vía deteriorando el estado de la misma, debido a este aumento progresivo de las velocidades, es necesario reducir la rigidez vertical de la vía, pero igualmente este aumento de velocidades hace necesarias elevadas resistecias del emparrillado de vía y mejoras en las plataformas, por lo que es necesario buscar este punto de equilibrio en la elasticidad de la vía y sus componentes. Se analizan las aceleraciones verticales medidas en caja de grasa, identificando la rigidez vertical de la vía a partir de las frecuencias de vibración vertical de las masas no suspendidas, correlacionándola con la infraestructura. Estas aceleraciones verticales se desprenden de dos campañas de medidas llevadas a cabo en la zona de estudio. En estas campañas se colocaron varios acelerómetros en caja de grasa obteniendo un registro de aceleraciones verticales a partir de las cuales se ha obteniendo la variación de la rigidez de vía de unas zonas a otras. Se analiza la rigidez de la vía correlacionándola con las distintas tipologías de vía y viendo la variación del valor de la rigidez a lo largo del trazado ferroviario. Estos cambios se manifiestan cuando se producen cambios en la infraestructura, de obras de tierra a obras de fábrica, ya sean viaductos o túneles. El objeto principal de este trabajo es profundizar en estos cambios de rigidez vertical que se producen, analizando su origen y las causas que los provocan, modelizando el comportamiento de los mismos, para desarrollar metodologías de análisis en cuanto al diseño de la infraestructura. Igualmente se analizan los elementos integrantes de la misma, ahondando en las características intrínsecas de la rigidez vertical global y la rigidez de cada uno de los elementos constituyentes de la sección tipo ferroviaria, en cada una de las secciones características del tramo en estudio. Se determina en este trabajo si se produce y en qué medida, variación longitudinal de la rigidez de vía en el tramo estudiado, en cada una de las secciones características de obra de tierra y obra de fábrica seleccionadas analizando las tendencias de estos cambios y su homogeneidad a lo largo del trazado. Se establece así una nueva metodología para la determinación de la rigidez vertical de la vía a partir de las mediciones de aceleraciones verticales en caja de grasa así como el desarrollo de una aplicación en el entorno de Labview para el análisis de los registros obtenidos. During the last years the railway sector has experienced a spectacular growth, focusing investments in the construction of new high-speed lines. Apart from the first investment the cost of maintaining and managing them has to be considered and this requires more knowledge of the process of interaction between track and rolling stock vehicles. In the new high-speed lines, that make of the railway a competitive mode of transport, there is a significant increase in speed directly related to the shorten in travel time, and that produces high dynamic forces. So, this requires a high quality of the track to avoid quickly deterioration of infrastructure. It is essential to control and minimize maintenance costs generated by maintenance operations to keep the quality and safety parameters of the railway track. Due to this gradual increase of speed, and to reduce the dynamic loads acting on the railway track causing its deterioration, it is necessary to reduce the vertical stiffness of the track, but on the other hand this speed increase requires high resistance of the railway track and improvements of the railway platform, so we must find the balance between the elasticity of the track and its components. Vertical accelerations in axle box are measured and analyzed, identifying the vertical stiffness of the railway track obtained from the vertical vibration frequency of the unsprung masses, correlating with the infrastructure. These vertical accelerations are the result of two measurement campaigns carried out in the study area with the placement of several accelerometers located in the axle box. From these vertical accelerations the variation of the vertical stiffness from one area to another is obtained. The track stiffness is analysed relating with the different types of infrastructure and the change in the value of the stiffness along the railway line. These changes are revealed when changes in infrastructure occurs, for instance; earthworks to bridges or tunnels. The main purpose of this paper is to examine these vertical stiffness changes, analysing its origins and causes, modelling their behaviour, developing analytical methodologies for the design of infrastructure. In this thesis it is also reviewed the different elements of the superstructure, paying special attention to the vertical stiffness of each one. In this study is determined, if it happens and to what extent, the longitudinal variation in the stiffness of track along the railway line studied in every selected section; earthwork, bridges and tunnels. They are also analyzed trends of these changes and homogeneity along the path. This establishes a new method for determining the vertical stiffness of the railway track from the vertical accelerations measured on axle box as well as an application developed in LabView to analyze the recordings obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas desarrollados para el cultivo de las microalgas pueden clasificarse en dos grandes grupos, en función de la forma de desarrollo de las poblaciones algales: cultivos en suspensión y cultivos inmovilizados. A su vez, ambos sistemas de cultivo pueden ser abiertos o cerrados, según que las microalgas y el medio de cultivo estén en contacto directo con el aire atmosférico o no. Los cultivos de microalgas inmovilizadas en una superficie que actúa de soporte, forman un 'biofilm' contínuo sobre dicha superficie formando un ecosistema específico de agregación denominado 'biofilm', normalmente constituido por varias especies, incluyendo bacterias, aunque puede haber alguna predominante. Las principales ventajas que tienen los fotobior reactores de biofilm sobre los de células suspendidas son: a) Facilidad para la cosecha, b) Mayor concentración por unidad de volumen de medio, c) reducción o ausencia de células en el efluente, d) reducción en la necesidad de energía y e) mayor eficiencia en el empleo de la radiación recibida por unidad de superficie de suelo. El uso de fotobiorreactores abiertos de microalgas inmovilizadas es relativamente reciente, dirigiéndose los desarrollos en dos direcciones: una que considera el soporte del biofilm fijo, siendo el medio acuoso el que se mueve sobre él y otra que considera el soporte del biofilm móvil en un medio acuático estático o de lento movimiento. Al primero de los tipos pertenece el fotobiorreactor laminar desarrollado por el Grupo de Agroenergética de la UPM (GA-UPM) (patente ES 2 347 515 B2 ), especialmente concebido para la captación del CO2 procedente de emisiones y para la producción de biomasa algal. Otro desarrollo del GA-UPM perteneciente al segundo tipo ha sido un fotobiorreactor de biodisco de eje flotante, que elimina los inconvenientes de los contactores de biodisco tradicionales, ya que no necesita cojinetes de apoyo ni eje rígido y al estar dotado de un propulsor hidrobárico consume muy poca energía, sin limitación técnica en cuanto a la longitud total del eje. (Modelo de Utilidad ES 1 099 707 U). Este fotobiorreactor está especialmente diseñado para la eliminación de nutrientes (N y P) de los efluentes del secundario de las EDAR y también puede utilizarse como un contactor tradicional de biodiscos para eliminación de la materia orgánica de las aguas residuales con indudables ventajas de reducción de costes de instalación y funcionamiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tradicionalmente, los sistemas de ayuda a la decisión (Decision Support Systems, DSS) han estado dirigidos a los profesionales médicos; sin embargo también pueden ayudar a aquellos pacientes que desean tener un papel más activo en el cuidado de su salud. Además, los pacientes quieren ser tratados en el momento en que su estado de salud lo requiera, sin importar el lugar en el que se encuentren. El sistema MobiGuide proporciona un soporte personalizado y basado en evidencia clínica tanto a profesionales médicos como a pacientes en todo momento y en todo lugar. La aplicación móvil del paciente representa el punto de acceso al servicio y, por tanto, es responsable en gran medida del éxito o fracaso del sistema. En MobiGuide, se ha incorporado a los pacientes desde el comienzo en el proceso de diseño y evaluación de la aplicación para garantizar una adecuada funcionalidad y usabilidad del sistema. En este trabajo presentamos la primera evaluación realizada por los pacientes mediante un tour virtual por la Aplicación de Paciente. Los resultados son altamente positivos y útiles para mejorar la aplicación, corregir defectos y conseguir la aplicación final esperada por los pacientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El propósito de esta tesis fue estudiar el rendimiento ofensivo de los equipos de balonmano de élite cuando se considera el balonmano como un sistema dinámico complejo no lineal. La perspectiva de análisis dinámica dependiente del tiempo fue adoptada para evaluar el rendimiento de los equipos durante el partido. La muestra general comprendió los 240 partidos jugados en la temporada 2011-2012 de la liga profesional masculina de balonmano de España (Liga ASOBAL). En el análisis posterior solo se consideraron los partidos ajustados (diferencia final de goles ≤ 5; n = 142). El estado del marcador, la localización del partido, el nivel de los oponentes y el periodo de juego fueron incorporados al análisis como variables situacionales. Tres estudios compusieron el núcleo de la tesis. En el primer estudio, analizamos la coordinación entre las series temporales que representan el proceso goleador a lo largo del partido de cada uno de los dos equipos que se enfrentan. Autocorrelaciones, correlaciones cruzadas, doble media móvil y transformada de Hilbert fueron usadas para el análisis. El proceso goleador de los equipos presentó una alta consistencia a lo largo de todos los partidos, así como fuertes modos de coordinación en fase en todos los contextos de juego. Las únicas diferencias se encontraron en relación al periodo de juego. La coordinación en los procesos goleadores de los equipos fue significativamente menor en el 1er y 2º periodo (0–10 min y 10–20 min), mostrando una clara coordinación creciente a medida que el partido avanzaba. Esto sugiere que son los 20 primeros minutos aquellos que rompen los partidos. En el segundo estudio, analizamos los efectos temporales (efecto inmediato, a corto y a medio plazo) de los tiempos muertos en el rendimiento goleador de los equipos. Modelos de regresión lineal múltiple fueron empleados para el análisis. Los resultados mostraron incrementos de 0.59, 1.40 y 1.85 goles para los periodos que comprenden la primera, tercera y quinta posesión de los equipos que pidieron el tiempo muerto. Inversamente, se encontraron efectos significativamente negativos para los equipos rivales, con decrementos de 0.50, 1.43 y 2.05 goles en los mismos periodos respectivamente. La influencia de las variables situacionales solo se registró en ciertos periodos de juego. Finalmente, en el tercer estudio, analizamos los efectos temporales de las exclusiones de los jugadores sobre el rendimiento goleador de los equipos, tanto para los equipos que sufren la exclusión (inferioridad numérica) como para los rivales (superioridad numérica). Se emplearon modelos de regresión lineal múltiple para el análisis. Los resultados mostraron efectos negativos significativos en el número de goles marcados por los equipos con un jugador menos, con decrementos de 0.25, 0.40, 0.61, 0.62 y 0.57 goles para los periodos que comprenden el primer, segundo, tercer, cuarto y quinto minutos previos y posteriores a la exclusión. Para los rivales, los resultados mostraron efectos positivos significativos, con incrementos de la misma magnitud en los mismos periodos. Esta tendencia no se vio afectada por el estado del marcador, localización del partido, nivel de los oponentes o periodo de juego. Los incrementos goleadores fueron menores de lo que se podría esperar de una superioridad numérica de 2 minutos. Diferentes teorías psicológicas como la paralización ante situaciones de presión donde se espera un gran rendimiento pueden ayudar a explicar este hecho. Los últimos capítulos de la tesis enumeran las conclusiones principales y presentan diferentes aplicaciones prácticas que surgen de los tres estudios. Por último, se presentan las limitaciones y futuras líneas de investigación. ABSTRACT The purpose of this thesis was to investigate the offensive performance of elite handball teams when considering handball as a complex non-linear dynamical system. The time-dependent dynamic approach was adopted to assess teams’ performance during the game. The overall sample comprised the 240 games played in the season 2011-2012 of men’s Spanish Professional Handball League (ASOBAL League). In the subsequent analyses, only close games (final goal-difference ≤ 5; n = 142) were considered. Match status, game location, quality of opposition, and game period situational variables were incorporated into the analysis. Three studies composed the core of the thesis. In the first study, we analyzed the game-scoring coordination between the time series representing the scoring processes of the two opposing teams throughout the game. Autocorrelation, cross-correlation, double moving average, and Hilbert transform were used for analysis. The scoring processes of the teams presented a high consistency across all the games as well as strong in-phase modes of coordination in all the game contexts. The only differences were found when controlling for the game period. The coordination in the scoring processes of the teams was significantly lower for the 1st and 2nd period (0–10 min and 10–20 min), showing a clear increasing coordination behavior as the game progressed. This suggests that the first 20 minutes are those that break the game-scoring. In the second study, we analyzed the temporal effects (immediate effect, short-term effect, and medium-term effect) of team timeouts on teams’ scoring performance. Multiple linear regression models were used for the analysis. The results showed increments of 0.59, 1.40 and 1.85 goals for the periods within the first, third and fifth timeout ball possessions for the teams that requested the timeout. Conversely, significant negative effects on goals scored were found for the opponent teams, with decrements of 0.59, 1.43 and 2.04 goals for the same periods, respectively. The influence of situational variables on the scoring performance was only registered in certain game periods. Finally, in the third study, we analyzed the players’ exclusions temporal effects on teams’ scoring performance, for the teams that suffer the exclusion (numerical inferiority) and for the opponents (numerical superiority). Multiple linear regression models were used for the analysis. The results showed significant negative effects on the number of goals scored for the teams with one less player, with decrements of 0.25, 0.40, 0.61, 0.62, and 0.57 goals for the periods within the previous and post one, two, three, four and five minutes of play. For the opponent teams, the results showed positive effects, with increments of the same magnitude in the same game periods. This trend was not affected by match status, game location, quality of opposition, or game period. The scoring increments were smaller than might be expected from a 2-minute numerical playing superiority. Psychological theories such as choking under pressure situations where good performance is expected could contribute to explain this finding. The final chapters of the thesis enumerate the main conclusions and underline the main practical applications that arise from the three studies. Lastly, limitations and future research directions are described.