44 resultados para Sitemas y tecnologías informáticas
Resumo:
Desde los tiempos de Aristóteles, el afán taxonómico ha sido siempre uno de los motivos que han ido acompañando al progreso de la humanidad. A todos, desde pequeños, se nos ha ido enseñando las ventajas de poder hacer clasificaciones de las cosas y cómo, gracias a ellas, podíamos, con mayor facilidad, cambiar cromos repetidos o aprobar las ciencias. Estas clasificaciones han seguido nuestros pasos y hemos distinguido con ellas los movimientos artísticos, las etapas de la historia y las diferentes partes de la física, hemos aprendido a distinguir acciones buenas y acciones malas y cómo a los hombres se les puede separar por el color de su piel. Todo ha sido siempre una mera cuestión de taxonomía, en algunos casos acertada y en otros incorrecta, pero siempre presente en la raíz de nuestro comportamiento.
Resumo:
La presente tesis investiga sobre la manera en que la arquitectura se ha construido para utilizar la luz natural, con el fin de aplicar estos conocimientos a la rehabilitación de edificios históricos. Para ello es necesario conocer aspectos técnicos en el uso de la luz, partiendo por comprender cuáles son los fenómenos físicos que debiéramos conocer los arquitectos para poder utilizarla adecuadamente. Es necesario también saber cómo es el comportamiento de los materiales frente a la luz y cómo utilizar¬los en el contexto rehabilitación. Dentro de los aspectos técnicos, se establece cuáles son las estrate¬gias, los sistemas y las tecnologías necesarias para la utilización de la luz en arquitectura, y se organiza esta información con el fin de hacerla clara, accesible y útil. Sin embargo, la luz no puede ser empleada en forma adecuada si no se conocen los requerimientos y las necesidades que el ser humano tiene respecto de ella, para habitar en forma confortable y salu¬dable. Es por eso que se establecen a su vez los requerimientos humanos respecto de la luz desde el punto de vista de sus características biológicas, su percepción y sus necesidades ergonómicas. Como la tesis se enmarca dentro de la problemática de la rehabilitación de edificios históricos, es necesario conocer cuál es la relación entre los procesos histórico-culturales y la técnica para utilizar la luz en la historia de la arquitectura. Se busca establecer la correlación entre historia y técnica, con el fin de responder en forma adecuada a los valores patrimoniales de un edificio histórico al alterar un aspecto tan importante como su iluminación natural. Con este conjunto de conocimientos técnicos, humanos e históricos establecidos en la primera parte de la tesis, se propone un protocolo de diseño para un proyecto de rehabilitación en cinco casos de estudio. Esta herramienta analiza el comportamiento actual de la luz para una determinada función, detecta los problemas lumínicos, establece criterios para la elección de soluciones y analiza el compor¬tamiento de estas soluciones. Finalmente compara los resultados lumínicos de las condiciones actua¬les y la solución propuesta. Por último, la investigación genera criterios que pueden ser aplicables a la normativa chilena de plani¬ficación territorial respecto del uso de la luz en contextos urbanos patrimoniales. ABSTRACT This thesis addresses how the architecture has been built to use natural light, in order to apply this knowledge to the historic buildings rehabilitation. This requires knowing technical aspects in the use of light, starting to understand what physical phenomena we, the architects, should know to use it properly. It is also necessary to know how materials behave in regards to light and how to use it in the rehabilitation context. Among the technical aspects, we should define strategies, systems and techno¬logies necessary for the use of light in architecture, and organize this information in order to make it clear, available and useful. However, light cannot be used properly if are not known requirements and needs that human beings have towards it, to live in comfortable and healthy way. That is why light human requirements are determined to know how light influences their cycles, perception and comfort. As the thesis is in frame of rehabilitation of historic building problem, it is necessary to know how is the relationship between historic-cultural processes and technology of light use, in the architecture history. It seeks to establish the correlation between History and technology, in order to give an ade¬quately answer to the heritage values of a historic building by altering an important aspect like its natural lighting. With this set of technical, human and historical knowledge, established in the first part of the thesis, a protocol is proposed for a rehabilitation project design in five study cases. This tool analyzes current behavior of light for a specifically function, detects lighting problems, establishes criteria for the selec¬tion of solutions and analyzes solution behaviors. Additionally, it compares results of current lighting conditions and the proposed solution. Finally this research generates criteria that may be applicable to Chilean territorial planning legislation, regarding use of light in patrimonial urban contexts.
Resumo:
El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.
Resumo:
FTTH (fibra hasta el hogar) es actualmente, junto con la banda ancha móvil, la principal evolución tecnológica en Redes y Servicios de Telecomunicaciones. Se prevé que en los próximos años, el despliegue de las redes FTTH se vea incrementado de manera significativa, gracias al interés creciente tanto de Operadores de Telecomunicaciones como de Organismos Gubernamentales. Este despliegue (que en el año 2013 ya se está haciendo realidad) llevará servicios de muy alta velocidad (superiores a 100 Mbps, incluso 1 Gbps) de manera masiva a los hogares, exigiendo nuevos requisitos y prestaciones en la red del hogar de los clientes. Se abre aquí, por tanto, un campo de exploración novedoso, incipiente y de requerimientos cada vez más exigentes. De hecho, sin duda, la red del hogar es uno de los elementos fundamentales para el éxito de las redes y servicios en FTTH. Debido a todo lo anterior, se convierte en una necesidad para el sector de las Telecomunicaciones el encontrar soluciones a los problemas anteriormente mencionados. Con objeto de contribuir al análisis de soluciones, este proyecto se enfoca en dos temas, ambos relacionados con la problemática ya mencionada en la red del hogar: Prospección e identificación de soluciones tecnológicas avanzadas para la red del hogar. Descrito en capítulos 2, 3 y 4. En ellos se realiza un estudio detallado de la situación actual y tendencias futuras de los dispositivos utilizados en la red del hogar. Este estudio está enfocado en la distribución de señales de muy alto ancho de banda (en torno a los 100 Mbps por segundo) en el hogar. Diseño y desarrollo de una aplicación que permita determinar la calidad de experiencia de cliente (QoE) de un servicio de televisión IP (IPTV). Descrito en capítulos 5 y 6. Se ha seleccionado este tipo de servicios debido a que son los que requieren mayores prestaciones tanto de la red de transporte como de la red del hogar y, al mismo tiempo, son los más complicados de medir debido a la fuerte componente de subjetividad del usuario final. Una red del hogar correctamente diseñada debe cumplir de manera equilibrada los requisitos demandados tanto por el operador como por el cliente o usuario final del servicio. Los requisitos del operador se centran principalmente en el control de la inversión (CAPEX) y del gasto de mantenimiento de la red del hogar (OPEX). El usuario, por otra parte, requiere sencillez en la instalación y mínimo número de elementos a instalar (cero intrusismo, ausencia de cableado). Para adaptarse a estos requerimientos, existe una serie de dispositivos y tecnologías que buscan encontrar el punto de equilibrio entre necesidades de operadores y de clientes finales. Las soluciones actualmente utilizadas pueden dividirse en soluciones cableadas e inalámbricas. También existen soluciones híbridas. Todas ellas se describen en detalle en los capítulos 3 y 4. Al final del estudio se concluye que, con la tecnología actual, es preferible el uso de soluciones cableadas tipo Ethernet o POF. Es recomendable no usar soluciones PLC de manera extensiva (G.hn puede ser una alternativa a futuro) y, en caso de no requerir cableado, utilizar WiFi 11n con frecuencias de 5 GHz, así como sus evoluciones, WiFi 11ac y 11ad. La aplicación desarrollada, explicada en los capítulos 5 y 6, permite capturar y medir en tiempo real la señal de televisión IP que se entrega al usuario. Esta aplicación estimará, a partir de dichas medidas, la calidad de la señal entregada. Para ello tendrá en cuenta el tipo de descodificador utilizado por el usuario así como la red empleada (red FTTH de Telefónica). Esta aplicación podría ser utilizada en los centros de atención técnica de las operadoras de telecomunicaciones, determinando así la relación existente entre reclamaciones recibidas y calidad de servicio medida por la aplicación. Asimismo, aparte de realizar medidas en tiempo real, la aplicación vuelca las medidas realizadas y alarmas detectadas en ficheros log, facilitando el análisis técnico de los problemas e incidencias registrados por dichos centros técnicos. Igualmente, esta aplicación puede ser utilizada para el proceso de certificación de equipamiento de red del hogar o incluso como herramienta para profundizar en parámetros teóricos y criterios de medida de calidad de servicio en IPTV. ABSTRACT. FTTH (Fiber To The Home) and mobile broadband are currently the main technological trend in the Network and Telecommunications Services area. In the next few years, the deployment of FTTH networks will experiment a significant increase, due to the growing interest of both telecommunications operators and government agencies. This deployment (that is becoming a reality) which will massively carry high-speed services to households (speeds of more than 100 Mbps, even 1 Gbps) will demand new requirements and features in the customer’s home network. It can be found here a new and emerging field of exploration, with increasingly demanding requirements. In fact, the home network is one of the key elements for the success of FTTH network and services. Due to the aforementioned, it is a necessity for the telecommunications industry to find solutions to these problems. In order to contribute into the solution analysis, this project focuses on two subjects, both related to the problems of home networking: Exploratory research and identification of advanced technology solutions for the home network. Described in chapters 2, 3 and 4. These chapters show a detailed study of the current situation and future trends of the devices used at the home network. It focuses on the distribution of very high bandwidth signals (around 100 Mbps per second) in the customer’s home. Design and development of an application to evaluate customer’s quality of experience (QoE) of an IP television service (IPTV). Described in chapters 5 and 6. IPTV service has been selected because it requires higher performance both from the transport and the home networks and, at the same time, it is the most difficult to measure due to the strong component of subjectivity of the end user. A correct design of the home network must meet the requirements demanded both by the network operator and the customer (end user of the service). Network operator requirements mainly focus on reduced capital expenditures (CAPEX) and operational expenditures (OPEX). Additionally, the final user requires a simple and easy installation and also the minimum number of items to install (zero intrusion, lack of wiring, etc.). Different devices and technologies seek to find a balance between these two requirements (network operators and final users requirements). Solutions available in the market can be divided into wired and wireless. There are also hybrid solutions. All of them are described thoroughly in the first part of the project. The conclusion at the end of the study recommends the use of wired technologies like Ethernet or POF. Additionally, the use of PLC is not advised (G.hn can be an alternative in the future) and, in the case of not requiring wiring, the use of 11ac and 11ad WiFi is advised. The application developed in the second part of the project allows capturing and measuring the real-time IPTV signal delivered to the user. This application will estimate the delivered signal quality from the captured measurements. For this purpose, it will also consider the type of decoder installed on the customer’s premises and the transport network (Telefonica’s FTTH network). This application could be used at the operator’s technical service centres, determining in this way the relationship between user’s complaints and the quality of service measured. Additionally, this application can write all the measurements and alarms in log files, making easier the technical analysis of problems and impairments recorded by the technical centres. Finally, the application can also be used for the certification process of home networking equipment (i.e. decoders) or even as a tool to deepen theoretical parameters and measuring criteria of quality of service in IPTV.
Resumo:
The important developments in technology in all areas of human life have generated high expectations and hopes with regard to the health sector. Science and technology have favored the development of incredible therapeutic treatments to help resolve numerous problems relating to illness and disability. Nonetheless, many developments in the therapeutic realm have given rise to discussions over the possibility of whether this same scientific and technological progress could be beneficial even for those who may not be sick. One may ask: why not apply the same knowledge and technology used for treatment of illness for conditions where therapy is not necessary, but there is a desire to care for, improve and enhance human person? These new horizons offered by biomedical technologies undoubtedly express a deep desire of every person for health, happiness, and a long life. In order to offer a response to these questions, current biomedical technologies and those in development offer a wide range of possibilities. Therefore, in this investigation we attempt to identify and define four areas of non-therapeutic treatment: illness prevention, health promotion, improving human nature, and human enhancement. These four areas, which do not directly regard illness, give rise to a series of questions, which range from those regarding the meaning of health and illness to those concerning anthropological questions, such as situations and conditions that must be taken into account so human dignity is respected. The treatment, improvement and enhancement of the human being imply clarifying in scientific and technological terms the truth and meaning of the human person as such. This research identifies and looks at the relationship between the four anthropological cornerstones which non-therapeutic biomedical technologies should be based upon so as not to impact or violate the dignity of the human person. This research presents the anthropological boundaries which non-therapeutic biomedical technologies should take into consideration so as not to alter or violate the dignity of the human person. At the same time, the research proposes an anthropological foundation on which to build a code of ethics for non-therapeutic biomedical technologies. El gran desarrollo de las tecnologías en todos los ámbitos de la vida del hombre ha generado una gran expectativa y esperanza en lo que se refiere a la salud. Ciencia y técnica están aportando grandes beneficios en materia terapéutica, ayudando a resolver muchos problemas concernientes a la enfermedad y a la discapacidad. Pero este desarrollo que se ha producido en el ámbito terapéutico nos conduce a la formulación de preguntas sobre las posibilidades que esos avances técnico-científicos pueden aportar en beneficio del hombre, cuando no se encuentra enfermo: ¿por qué no pueden aplicarse los conocimientos y tecnologías usados en terapia a un ámbito diferente, no terapéutico, con el fin de mantener, mejorar o incluso potenciar al hombre? Ciertamente los nuevos horizontes que abren las Tecnologías Biomédicas encuentran repercusión en el deseo de bienestar, de felicidad e incluso de prolongación de la vida presente en todos los hombres. Para responder a esta pregunta las Tecnologías Biomédicas han desarrollado y están desarrollando una gama muy amplia de posibilidades. En este trabajo intentamos organizar en cuatro áreas los conceptos de los tratamientos no-terapéuticos: prevención de la enfermedad, promoción de la salud, mejoramiento de la naturaleza humana y potenciación del hombre. Estas cuatro áreas, que no se refieren directamente a la enfermedad, generan una serie de interrogantes que van desde las preguntas sobre el significado de salud y enfermedad, hasta las cuestiones antropológicas relativas a la posibilidad y las condiciones que se han de dar para que tales acciones respeten la dignidad humana. Cuidar, mejorar y potenciar al hombre implica que los objetivos de la ciencia y de la técnica mantengan siempre claros los valores y la realidad del hombre en cuanto tal. ... Este Trabajo de Investigación presenta los límites antropológicos dentro de los cuales deben moverse las Tecnologías Biomédicas no-terapéuticas para no alterar el ser ni menoscabar la dignidad del hombre. Y ofrece los fundamentos antropológicos sobre los cuales se pueda construir un código ético y deontológico para las Tecnologías Biomédicas no-terapéuticas.
Resumo:
En este trabajo se presenta un método de ordenación de alternativas para problemas de toma de decisiones multicriterio en grupo, donde se conoce la importancia relativa de los decisores involucrados y sus preferencias se representan mediante una función de utilidad multiatributo aditiva. Suponemos que los decisores pueden definir un umbral de veto para los distintos criterios. El método propuesto identifica un intervalo de veto y otro de ajuste a partir de los vetos individuales proporcionados por cada decisor para cada uno de los criterios y, a partir de ellos, construye una función de veto, que permitirá vetar aquellas alternativas que tomen valores en la intervalo de veto; y una función de ajuste, que disminuirá la utilidad de las alternativas cuando contengan algún valor en un atributo dentro del intervalo de ajuste. Ambas funciones se incorporan convenientemente en el modelo en utilidad multiatributo aditivo para obtener una ordenación final de las alternativas consideradas.
Resumo:
Este proyecto de fin de carrera tiene como objetivo obtener una visión detallada de los sistemas y tecnologías de grabación y reproducción utilizadas para aplicaciones de audio 3D y entornos de realidad virtual, analizando las diferentes alternativas existentes, su funcionamiento, características, detalles técnicos y sus ámbitos de aplicación. Como punto de partida se estudiará la teoría psicoacústica y la localización de fuentes sonoras en el espacio, base para el estudio de los sistemas de audio 3D. Se estudiará tanto la espacialización sonora en un espacio real y la espacialización virtual (simulación mediante procesado de información de la localización de fuentes sonoras), en los que intervienen algunos fenómenos acústicos y psicoacústicos como ITD, o diferencia de tiempo que existe entre una señal acústica que llega a los pabellones auditivos, la ILD, o diferencia de intensidad o amplitud que hay entre la señal que llega a los pabellones auditivos y la localización espacial mediante otra serie de mecanismos biaurales. Tras una visión general de la teoría psicoacústica y la espacialización sonora, se analizarán con detalle los elementos de grabación y reproducción existentes para audio 3D. Concretamente, a lo largo del proyecto se profundizará en el funcionamiento del sistema estéreo, caracterizado por el posicionamiento sonoro mediante la utilización de dos canales; del sistema biaural, caracterizado por reconstruir campos sonoros mediante el uso de las HRTF; de los sistemas multicanal, detallando gran parte de las alternativas y configuraciones existentes; del sistema Ambiophonics, caracterizado por implementar filtros de cruce; del sistema Ambisonics, y sus diferentes formatos y técnicas de codificación y decodificación; y del sistema Wavefield Synthesis, caracterizado por recrear ambientes sonoros en grandes espacios. ABSTRACT This project aims to get a detailed view of recording and reproducing systems and technologies used to 3D audio applications and virtual reality environments, analyzing the different alternatives available, their functioning, features, technical details and their different scopes of applications. As a starting point, will be studied the psychoacoustic theory and the localization of sound sources in space, basis for the 3D audio study. Will be studied both the spacialization of sound sources in real space as virtual spatialization of sound sources (simulation by information processing of localization of sound sources), in which involves some acoustic and psychoacoustic phenomena like ITD (or the Interaural time difference), the ILD, (or the Interaural Level Difference) and spatial localization by another set of binaural mechanisms. After a general overview of the psychoacoustics theory and the sound spatialization, will be analyzed in detail existing methods of recording and reproducing for 3D audio. Specifically, during the project will analyze the characteristics of the stereo systems, characterized by sound positioning using two channels; the binaural systems, characterized by reconstructing sound fields by using the HRTF; the multichannel systems, detailing many of the existing alternatives and configurations; the Ambiophonics system, which is characterized by implementing crosstalk elimination techniques; the Ambiosonics system, and its various formats and encoding and decoding techniques; and the Wavefield Synthesis system, characterized by recreate soundscapes in large spaces.
Resumo:
Estamos viviendo la era de la Internetificación. A día de hoy, las conexiones a Internet se asumen presentes en nuestro entorno como una necesidad más. La Web, se ha convertido en un lugar de generación de contenido por los usuarios. Una información generada, que sobrepasa la idea con la que surgió esta, ya que en la mayoría de casos, su contenido no se ha diseñado más que para ser consumido por humanos, y no por máquinas. Esto supone un cambio de mentalidad en la forma en que diseñamos sistemas capaces de soportar una carga computacional y de almacenamiento que crece sin un fin aparente. Al mismo tiempo, vivimos un momento de crisis de la educación superior: los altos costes de una educación de calidad suponen una amenaza para el mundo académico. Mediante el uso de la tecnología, se puede lograr un incremento de la productividad, y una reducción en dichos costes en un campo, en el que apenas se ha avanzado desde el Renacimiento. En CloudRoom se ha diseñado una plataforma MOOC con una arquitectura ajustada a las últimas convenciones en Cloud Computing, que implica el uso de Servicios REST, bases de datos NoSQL, y que hace uso de las últimas recomendaciones del W3C en materia de desarrollo web y Linked Data. Para su construcción, se ha hecho uso de métodos ágiles de Ingeniería del Software, técnicas de Interacción Persona-Ordenador, y tecnologías de última generación como Neo4j, Redis, Node.js, AngularJS, Bootstrap, HTML5, CSS3 o Amazon Web Services. Se ha realizado un trabajo integral de Ingeniería Informática, combinando prácticamente la totalidad de aquellas áreas de conocimiento fundamentales en Informática. En definitiva se han ideado las bases de un sistema distribuido robusto, mantenible, con características sociales y semánticas, que puede ser ejecutado en múltiples dispositivos, y que es capaz de responder ante millones de usuarios. We are living through an age of Internetification. Nowadays, Internet connections are a utility whose presence one can simply assume. The web has become a place of generation of content by users. The information generated surpasses the notion with which the World Wide Web emerged because, in most cases, this content has been designed to be consumed by humans and not by machines. This fact implies a change of mindset in the way that we design systems; these systems should be able to support a computational and storage capacity that apparently grows endlessly. At the same time, our education system is in a state of crisis: the high costs of high-quality education threaten the academic world. With the use of technology, we could achieve an increase of productivity and quality, and a reduction of these costs in this field, which has remained largely unchanged since the Renaissance. In CloudRoom, a MOOC platform has been designed with an architecture that satisfies the last conventions on Cloud Computing; which involves the use of REST services, NoSQL databases, and uses the last recommendations from W3C in terms of web development and Linked Data. For its building process, agile methods of Software Engineering, Human-Computer Interaction techniques, and state of the art technologies such as Neo4j, Redis, Node.js, AngularJS, Bootstrap, HTML5, CSS3 or Amazon Web Services have been used. Furthermore, a comprehensive Informatics Engineering work has been performed, by combining virtually all of the areas of knowledge in Computer Science. Summarizing, the pillars of a robust, maintainable, and distributed system have been devised; a system with social and semantic capabilities, which runs in multiple devices, and scales to millions of users.
Resumo:
En el mundo actual el cambio tecnológico es uno de los factores determinantes del desarrollo económico. Según los estudiosos de la teoría de los ciclos económicos el período comprendido entre 1960 y la actualidad constituye la fase terminal de un ciclo económico de larga duración. Esta fase se caracterizaría por el agotamiento de las aportaciones de las tecnologías disponibles y el consiguiente descenso del ritmo innovador de productos. De acuerdo con esta teoría de los ciclos, la fase terminal depresiva coincide con el periodo en que se generan las nuevas tecnologías que constituirán la base de desarrollo del ciclo siguiente. En consecuencia el potencial de crecimiento económico español dependerá fundamentalmente del ritmo de incorporación de la nueva base tecnológica a su actividad económica. Los estudios teóricos y empíricos indican que el próximo ciclo de actividad se basará en un pequeño número de avances clave: tecnología de la información, biotecnología y tecnologías de nuevos materiales.
Resumo:
Fernando Sáez Vacas es en la actualidad profesor emérito de la Universidad Politécnica de Madrid, Premio Nacional de Informática y director de la Cátedra Orange de la Escuela Técnica Superior de Ingenieros de Telecomunicación. Desde hoy y hasta el próximo jueves participará en el curso "Ciencia de Redes y contexto" que analizará la aplicación de esta ciencia en ámbitos como la telecomunicación, las ciencias sociales, la sanidad o la biología. Además, tiene ya a punto de ver la luz su próximo libro Complejidad y Tecnologías de la Información (Fundetel/UPM).
Resumo:
Aunque esta no es la primera vez que nuevas compañías y tecnologías revolucionan la forma de entender una industria determinada, los modelos over-the-top (OTT) han provocado una explosión en el consumo de contenidos a través de internet, una revolución en la forma tradicional de comunicarse, de disfrutar de nuevas posibilidades de ocio digital y, por tanto, una transformación a la hora de entender los modelos de monetización de las compañías, actualmente buscando su lugar en la nueva cadena de valor. Ya no cabe duda de que este tipo de servicios se han hecho un hueco en la rutina diaria de las personas pero, a pesar de su rápida adopción y alta tasa de penetración, todo parece indicar que es sólo el comienzo de una nueva era, donde estos nuevos modelos disruptivos, están todavía por definirse. Tras unos años de cambios en el sector de las comunicaciones y entretenimiento digital, es ahora el del consumo audiovisual de entretenimiento el que se está viviendo sus debates más intensos. Este trabajo, presentado como proyecto final dentro del Máster de Consultoría en Gestión de Empresas fruto de la colaboración entre la UPM y la AEC, analiza en profundidad los cambios que está generando la adopción de soluciones de vídeo-OTT en el mercado a todos los niveles: cambios en los patrones de comportamiento de las personas, impactos en los sectores tradicionales (y su traducción en términos económicos y legales), evolución de la tecnología, etc. Todos estos aspectos se visitan haciendo especial hincapié en la cadena de valor y los nuevos modelos de negocio derivados de estas nuevas soluciones permitiendo monetizar estos cambios en un mercado complejo. Como complemento, se presenta un análisis de una de las soluciones líderes en el mercado, NETFLIX. Profundizar en un modelo de negocio de una compañía como esta permite analizar las estrategias seguidas y resultados obtenidos en función de la caracterización del mercado existente en cada momento, tomando notas para tener en cuenta en el planteamiento de modelos de negocio similares. Adicionalmente, en el apartado de recomendaciones para la cadena de valor, se establecen una serie de modelos de negocio que permitan enfrentar la aparición y crecimiento de los servicios OTT desde dos puntos de vista: diferenciación y participación de los mismos. Las aportaciones de valor presentadas, prestan especial atención también sobre las operadoras de telecomunicaciones, uno de los sectores más castigados por la entrada en el mercado de las soluciones de vídeo-OTT, junto con la televisión de pago. Por último, se utilizan todas las conclusiones extraídas de los anteriores apartados (que sirven como caracterización de entorno) para establecer un plan de negocio definiendo una propuesta que podría ser interesante desarrollar en el mercado español, carente actualmente de una solución líder que destaque, como ocurre en otros países. En base a este trabajo, se puede concluir que este tipo de servicios de vídeo-OTT presentan un potencial todavía por desarrollar y que conviene incluir en las estrategias de los próximos años de las compañías del sector, si éstas no quieren perder cuota de un mercado que sin duda evolucionará y revolucionará el mundo de la televisión tal y como existe actualmente.
Resumo:
Este Proyecto Fin de Grado está enmarcado dentro de las actividades del GRyS (Grupo de Redes y Servicios de Próxima Generación) con las Smart Grids. En la investigación actual sobre Smart Grids se pretenden alcanzar los siguientes objetivos: . Integrar fuentes de energías renovables de manera efectiva. . Aumentar la eficiencia en la gestión de la demanda y suministro de forma dinámica. . Reducir las emisiones de CO2 dando prioridad a fuentes de energía verdes. . Concienciar del consumo de energía mediante la monitorización de dispositivos y servicios. . Estimular el desarrollo de un mercado vanguardista de tecnologías energéticamente eficientes con nuevos modelos de negocio. Dentro del contexto de las Smart Grids, el interés del GRyS se extiende básicamente a la creación de middlewares semánticos y tecnologías afines, como las ontologías de servicios y las bases de datos semánticas. El objetivo de este Proyecto Fin de Grado ha sido diseñar y desarrollar una aplicación para dispositivos con sistema operativo Android, que implementa una interfaz gráfica y los métodos necesarios para obtener y representar información de registro de servicios de una plataforma SOA (Service-Oriented Architecture). La aplicación permite: . Representar información relativa a los servicios y dispositivos registrados en una Smart Grid. . Guardar, cargar y compartir por correo electrónico ficheros HTML con la información anterior. . Representar en un mapa la ubicación de los dispositivos. . Representar medidas (voltaje, temperatura, etc.) en tiempo real. . Aplicar filtros por identificador de dispositivo, modelo o fabricante. . Realizar consultas SPARQL a bases de datos semánticas. . Guardar y cagar consultas SPARQL en ficheros de texto almacenados en la tarjeta SD. La aplicación, desarrollada en Java, es de código libre y hace uso de tecnologías estándar y abiertas como HTML, XML, SPARQL y servicios RESTful. Se ha tenido ocasión de probarla con la infraestructura del proyecto europeo e-Gotham (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), en el que participan 17 socios de 5 países: España, Italia, Estonia, Finlandia y Noruega. En esta memoria se detalla el estudio realizado sobre el Estado del arte y las tecnologías utilizadas en el desarrollo del proyecto, la implementación, diseño y arquitectura de la aplicación, así como las pruebas realizadas y los resultados obtenidos. ABSTRACT. This Final Degree Project is framed within the activities of the GRyS (Grupo de Redes y Servicios de Próxima Generación) with the Smart Grids. Current research on Smart Grids aims to achieve the following objectives: . To effectively integrate renewable energy sources. . To increase management efficiency by dynamically matching demand and supply. . To reduce carbon emissions by giving priority to green energy sources. . To raise energy consumption awareness by monitoring products and services. . To stimulate the development of a leading-edge market for energy-efficient technologies with new business models. Within the context of the Smart Grids, the interest of the GRyS basically extends to the creation of semantic middleware and related technologies, such as service ontologies and semantic data bases. The objective of this Final Degree Project has been to design and develop an application for devices with Android operating system, which implements a graphical interface and methods to obtain and represent services registry information in a Service-Oriented Architecture (SOA) platform. The application allows users to: . Represent information related to services and devices registered in a Smart Grid. . Save, load and share HTML files with the above information by email. . Represent the location of devices on a map. . Represent measures (voltage, temperature, etc.) in real time. . Apply filters by device id, model or manufacturer. . SPARQL query semantic database. . Save and load SPARQL queries in text files stored on the SD card. The application, developed in Java, is open source and uses open standards such as HTML, XML, SPARQL and RESTful services technologies. It has been tested in a real environment using the e-Gotham European project infrastructure (Sustainable-Smart Grid Open System for the Aggregated Control, Monitoring and Management of Energy), which is participated by 17 partners from 5 countries: Spain, Italy, Estonia, Finland and Norway. This report details the study on the State of the art and the technologies used in the development of the project, implementation, design and architecture of the application, as well as the tests performed and the results obtained.
Resumo:
El objetivo de este proyecto es realizar un estudio comparativo utilizando dos procedimientos diferentes para la obtención de mapas y modelos digitales del terreno. Por un lado, realizando un levantamiento de una zona determinada mediante GPS y por otro lado mediante fotogrametría aérea utilizando un vehículo aéreo no tripulado. Dicho estudio surge de la necesidad de obtener cartografía de los elementos que nos rodean y en nuestro caso, como primera toma de contacto, en el empleo de una nueva tecnología. Puesto que este requisito ha existido siempre, es evidente que en cada época el avance de las distintas metodologías y tecnologías para la producción cartográfica es mayor. En la actualidad, una de las técnicas más empleadas es la Fotogrametría. La idea de poder sobrevolar una extensión determinada para obtener imágenes y posteriormente poder recomponer el modelo para obtener la geometría y los elementos de dicha extensión hace que esta técnica sea muy eficaz. Hoy en día, las técnicas siguen avanzando y encontramos en el levantamiento mediante la utilización de vehículos aéreos no tripulados una de las mejores alternativas. Se trata de una herramienta muy potente en la realización de trabajos a grandes escalas (1:1000, 1:500). Comparado con métodos tradicionales, la fotogrametría aérea mediante vehículos aéreos no tripulados ofrece una gran cantidad de ventajas: · Mayor precisión: la alta resolución de las fotos tomadas permite obtener modelos digitales del terreno con mayor nivel de detalle. · Ahorro de tiempo: el levantamiento topográfico se puede completar en cuestión de horas, en comparación a métodos de topografía terrestre y fotogrametría tradicional. · Reducción de costos operativos: ya que levantamiento topográfico toma menos tiempo y menos recursos. · Mejoras en seguridad: el uso de una plataforma UAV puede eliminar o reducir la necesidad de acceder a zonas peligrosas. · Manejo de mayor información: fotografías verticales u oblicuas combinadas, levantamientos topográficos precisos, modelos digitales del terreno y análisis volumétrico. · Facilita la toma de decisiones: basada en información relevante y actualizada.
Resumo:
Comprender y estimular la motivación resulta crucial para favorecer el rendimiento de los estudiantes universitarios y profesionales de diversos ámbitos de conocimiento, como el de la Ingeniería del Software. Actualmente, este sector está demandando soluciones científico-tecnológicas para trabajar de una manera práctica y sistemática sobre elementos motivacionales como la satisfacción por el estudio y el trabajo, el aprendizaje activo o las relaciones interpersonales. El objetivo de esta Tesis Doctoral es definir y validar soluciones para evaluar y mejorar la motivación de los estudiantes y profesionales en Ingeniería del Software. Para ello, se han creado instrumentos, metodologías y tecnologías que se han aplicado con un total de 152 estudiantes y 166 profesionales. Esta experiencia empírica ha servido para mejorar de manera continua dichas aportaciones, así como para comprobar en un entorno real su validez y utilidad. Los datos recogidos revelan que las soluciones provistas han resultado eficaces para comprender y estimular la motivación tanto en el ámbito académico como en el profesional. Además, a raíz de los datos recogidos se han podido explorar aspectos de interés sobre las características y particularidades motivacionales asociadas a la Ingeniería del Software. Por tanto, esta Tesis Doctoral resulta de interés para las universidades y empresas de este sector sensibilizadas con el desarrollo motivacional de sus estudiantes y trabajadores. Abstract It is crucial to understand and encourage the motivation of students and professionals in order to enhance their performance. This applies to students and professionals from diverse fields such as Software Engineering. Currently this sector is demanding scientific–technological solutions to work on motivational elements in a pragmatic and systematic way. Such elements are among others study and work satisfaction, active learning or interpersonal relationships. This Doctoral Thesis objective is to establish and validate solutions to evaluate and improve the motivation in the Software Engineering field. To achieve this goal, resources, methods and technologies have been created. They have been applied to 152 students and 166 professionals. This empirical experience served to, on one hand, enhance in a continuous way the provided contributions, and on the other hand, to test in a real environment their validity and utility. The collected data reveal that the provided solutions were effective to understand and encourage motivation both in the academic and in the professional area. In addition, the collected data enable to examine interesting aspects and motivational special features associated with Software Engineering. Therefore this Doctoral Thesis is relevant to universities and firms from this field which are aware of the significance of the motivational development of their students and employees.
Resumo:
La web vive un proceso de cambio constante, basado en una interacción mayor del usuario. A partir de la actual corriente de paradigmas y tecnologías asociadas a la web 2.0, han surgido una serie de estándares de gran utilidad, que cubre la necesidad de los desarrollos actuales de la red. Entre estos se incluyen los componentes web, etiquetas HTML definidas por el usuario que cubren una función concreta dentro de una página. Existe una necesidad de medir la calidad de dichos desarrollos, para discernir si el concepto de componente web supone un cambio revolucionario en el desarrollo de la web 2.0. Para ello, es necesario realizar una explotación de componentes web, considerada como la medición de calidad basada en métricas y definición de un modelo de interconexión de componentes. La plataforma PicBit surge como respuesta a estas cuestiones. Consiste en una plataforma social de construcción de perfiles basada en estos elementos. Desde la perspectiva del usuario final se trata de una herramienta para crear perfiles y comunidades sociales, mientras que desde una perspectiva académica, la plataforma consiste en un entorno de pruebas o sandbox de componentes web. Para ello, será necesario implementar el extremo servidor de dicha plataforma, enfocado a la labor de explotación, por medio de la definición de una interfaz REST de operaciones y un sistema para la recolección de eventos de usuario en la plataforma. Gracias a esta plataforma se podrán discernir qué parámetros influyen positivamente en la experiencia de uso de un componente, así como descubrir el futuro potencial de este tipo de desarrollos.---ABSTRACT---The web evolves into a more interactive platform. From the actual version of the web, named as web 2.0, many paradigms and standards have arisen. One of those standards is web components, a set of concepts to define new HTML tags that covers a specific function inside a web page. It is necessary to measure the quality of this kind of software development, and the aim behind this approach is to determine if this new set of concepts would survive in the actual web paradigm. To achieve this, it is described a model to analyse components, in the terms of quality measure and interconnection model description. PicBit consists of a social platform to use web components. From the point of view of the final user, this platform is a tool to create social profiles using components, whereas from the point of view of technicians, it consists of a sandbox of web components. Thanks to this platform, we will be able to discover those parameters that have a positive effect in the user experience and to discover the potential of this new set of standards into the web 2.0.