884 resultados para New Ecological Paradigm scale
Experimental Prototype Merging Stereo Panoramic Video and Interactive 3D Content in a 5-sided CAVETM
Resumo:
Immersion and interaction have been identified as key factors influencing the quality of experience in stereoscopic video systems. An experimental prototype designed to explore the influence of these factors in 3D video applications is described here1. The focus is on the real-time insertion algorithm of new 3D models into the original video streams. Using this algorithm, our prototype is aimed to explore a new interaction paradigm ? similar to the augmented reality approach ? with 3D video applications.
Resumo:
La característica fundamental de la Computación Natural se basa en el empleo de conceptos, principios y mecanismos del funcionamiento de la Naturaleza. La Computación Natural -y dentro de ésta, la Computación de Membranas- surge como una posible alternativa a la computación clásica y como resultado de la búsqueda de nuevos modelos de computación que puedan superar las limitaciones presentes en los modelos convencionales. En concreto, la Computación de Membranas se originó como un intento de formular un nuevo modelo computacional inspirado en la estructura y el funcionamiento de las células biológicas: los sistemas basados en este modelo constan de una estructura de membranas que actúan a la vez como separadores y como canales de comunicación, y dentro de esa estructura se alojan multiconjuntos de objetos que evolucionan de acuerdo a unas determinadas reglas de evolución. Al conjunto de dispositivos contemplados por la Computación de Membranas se les denomina genéricamente como Sistemas P. Hasta el momento los Sistemas P sólo han sido estudiados a nivel teórico y no han sido plenamente implementados ni en medios electrónicos, ni en medios bioquímicos, sólo han sido simulados o parcialmente implementados. Por tanto, la implantación de estos sistemas es un reto de investigación abierto. Esta tesis aborda uno de los problemas que debe ser resuelto para conseguir la implantación de los Sistemas P sobre plataformas hardware. El problema concreto se centra en el modelo de los Sistemas P de Transición y surge de la necesidad de disponer de algoritmos de aplicación de reglas que, independientemente de la plataforma hardware sobre la que se implementen, cumplan los requisitos de ser no deterministas, masivamente paralelos y además su tiempo de ejecución esté estáticamente acotado. Como resultado se ha obtenido un conjunto de algoritmos (tanto para plataformas secuenciales, como para plataformas paralelas) que se adecúan a las diferentes configuraciones de los Sistemas P. ABSTRACT The main feature of Natural Computing is the use of concepts, principles and mechanisms inspired by Nature. Natural Computing and within it, Membrane Computing emerges as an potential alternative to conventional computing and as from the search for new models of computation that may overcome the existing limitations in conventional models. Specifically, Membrane Computing was created to formulate a new computational paradigm inspired by the structure and functioning of biological cells: it consists of a membrane structure, which acts as separators as well as communication channels, and within this structure are stored multisets of objects that evolve according to certain evolution rules. The set of computing devices addressed by Membrane Computing are generically known P systems. Up to now, no P systems have been fully implemented yet in electronic or biochemical means. They only have been studied in theory, simulated or partially implemented. Therefore, the implementation of these systems is an open research challenge. This thesis addresses one of the problems to be solved in order to deploy P systems on hardware platforms. This specific problem is focused on the Transition P System model and emerges from the need of providing application rules algorithms that independently on the hardware platform on which they are implemented, meets the requirements of being nondeterministic, massively parallel and runtime-bounded. As a result, this thesis has developed a set of algorithms for both platforms, sequential and parallel, adapted to all possible configurations of P systems.
Resumo:
Esta Tesis aborda los problemas de eficiencia de las redes eléctrica desde el punto de vista del consumo. En particular, dicha eficiencia es mejorada mediante el suavizado de la curva de consumo agregado. Este objetivo de suavizado de consumo implica dos grandes mejoras en el uso de las redes eléctricas: i) a corto plazo, un mejor uso de la infraestructura existente y ii) a largo plazo, la reducción de la infraestructura necesaria para suplir las mismas necesidades energéticas. Además, esta Tesis se enfrenta a un nuevo paradigma energético, donde la presencia de generación distribuida está muy extendida en las redes eléctricas, en particular, la generación fotovoltaica (FV). Este tipo de fuente energética afecta al funcionamiento de la red, incrementando su variabilidad. Esto implica que altas tasas de penetración de electricidad de origen fotovoltaico es perjudicial para la estabilidad de la red eléctrica. Esta Tesis trata de suavizar la curva de consumo agregado considerando esta fuente energética. Por lo tanto, no sólo se mejora la eficiencia de la red eléctrica, sino que también puede ser aumentada la penetración de electricidad de origen fotovoltaico en la red. Esta propuesta conlleva grandes beneficios en los campos económicos, social y ambiental. Las acciones que influyen en el modo en que los consumidores hacen uso de la electricidad con el objetivo producir un ahorro energético o un aumento de eficiencia son llamadas Gestión de la Demanda Eléctrica (GDE). Esta Tesis propone dos algoritmos de GDE diferentes para cumplir con el objetivo de suavizado de la curva de consumo agregado. La diferencia entre ambos algoritmos de GDE reside en el marco en el cual estos tienen lugar: el marco local y el marco de red. Dependiendo de este marco de GDE, el objetivo energético y la forma en la que se alcanza este objetivo son diferentes. En el marco local, el algoritmo de GDE sólo usa información local. Este no tiene en cuenta a otros consumidores o a la curva de consumo agregado de la red eléctrica. Aunque esta afirmación pueda diferir de la definición general de GDE, esta vuelve a tomar sentido en instalaciones locales equipadas con Recursos Energéticos Distribuidos (REDs). En este caso, la GDE está enfocada en la maximización del uso de la energía local, reduciéndose la dependencia con la red. El algoritmo de GDE propuesto mejora significativamente el auto-consumo del generador FV local. Experimentos simulados y reales muestran que el auto-consumo es una importante estrategia de gestión energética, reduciendo el transporte de electricidad y alentando al usuario a controlar su comportamiento energético. Sin embargo, a pesar de todas las ventajas del aumento de auto-consumo, éstas no contribuyen al suavizado del consumo agregado. Se han estudiado los efectos de las instalaciones locales en la red eléctrica cuando el algoritmo de GDE está enfocado en el aumento del auto-consumo. Este enfoque puede tener efectos no deseados, incrementando la variabilidad en el consumo agregado en vez de reducirlo. Este efecto se produce porque el algoritmo de GDE sólo considera variables locales en el marco local. Los resultados sugieren que se requiere una coordinación entre las instalaciones. A través de esta coordinación, el consumo debe ser modificado teniendo en cuenta otros elementos de la red y buscando el suavizado del consumo agregado. En el marco de la red, el algoritmo de GDE tiene en cuenta tanto información local como de la red eléctrica. En esta Tesis se ha desarrollado un algoritmo autoorganizado para controlar el consumo de la red eléctrica de manera distribuida. El objetivo de este algoritmo es el suavizado del consumo agregado, como en las implementaciones clásicas de GDE. El enfoque distribuido significa que la GDE se realiza desde el lado de los consumidores sin seguir órdenes directas emitidas por una entidad central. Por lo tanto, esta Tesis propone una estructura de gestión paralela en lugar de una jerárquica como en las redes eléctricas clásicas. Esto implica que se requiere un mecanismo de coordinación entre instalaciones. Esta Tesis pretende minimizar la cantidad de información necesaria para esta coordinación. Para lograr este objetivo, se han utilizado dos técnicas de coordinación colectiva: osciladores acoplados e inteligencia de enjambre. La combinación de estas técnicas para llevar a cabo la coordinación de un sistema con las características de la red eléctrica es en sí mismo un enfoque novedoso. Por lo tanto, este objetivo de coordinación no es sólo una contribución en el campo de la gestión energética, sino también en el campo de los sistemas colectivos. Los resultados muestran que el algoritmo de GDE propuesto reduce la diferencia entre máximos y mínimos de la red eléctrica en proporción a la cantidad de energía controlada por el algoritmo. Por lo tanto, conforme mayor es la cantidad de energía controlada por el algoritmo, mayor es la mejora de eficiencia en la red eléctrica. Además de las ventajas resultantes del suavizado del consumo agregado, otras ventajas surgen de la solución distribuida seguida en esta Tesis. Estas ventajas se resumen en las siguientes características del algoritmo de GDE propuesto: • Robustez: en un sistema centralizado, un fallo o rotura del nodo central provoca un mal funcionamiento de todo el sistema. La gestión de una red desde un punto de vista distribuido implica que no existe un nodo de control central. Un fallo en cualquier instalación no afecta el funcionamiento global de la red. • Privacidad de datos: el uso de una topología distribuida causa de que no hay un nodo central con información sensible de todos los consumidores. Esta Tesis va más allá y el algoritmo propuesto de GDE no utiliza información específica acerca de los comportamientos de los consumidores, siendo la coordinación entre las instalaciones completamente anónimos. • Escalabilidad: el algoritmo propuesto de GDE opera con cualquier número de instalaciones. Esto implica que se permite la incorporación de nuevas instalaciones sin afectar a su funcionamiento. • Bajo coste: el algoritmo de GDE propuesto se adapta a las redes actuales sin requisitos topológicos. Además, todas las instalaciones calculan su propia gestión con un bajo requerimiento computacional. Por lo tanto, no se requiere un nodo central con un alto poder de cómputo. • Rápido despliegue: las características de escalabilidad y bajo coste de los algoritmos de GDE propuestos permiten una implementación rápida. No se requiere una planificación compleja para el despliegue de este sistema. ABSTRACT This Thesis addresses the efficiency problems of the electrical grids from the consumption point of view. In particular, such efficiency is improved by means of the aggregated consumption smoothing. This objective of consumption smoothing entails two major improvements in the use of electrical grids: i) in the short term, a better use of the existing infrastructure and ii) in long term, the reduction of the required infrastructure to supply the same energy needs. In addition, this Thesis faces a new energy paradigm, where the presence of distributed generation is widespread over the electrical grids, in particular, the Photovoltaic (PV) generation. This kind of energy source affects to the operation of the grid by increasing its variability. This implies that a high penetration rate of photovoltaic electricity is pernicious for the electrical grid stability. This Thesis seeks to smooth the aggregated consumption considering this energy source. Therefore, not only the efficiency of the electrical grid is improved, but also the penetration of photovoltaic electricity into the grid can be increased. This proposal brings great benefits in the economic, social and environmental fields. The actions that influence the way that consumers use electricity in order to achieve energy savings or higher efficiency in energy use are called Demand-Side Management (DSM). This Thesis proposes two different DSM algorithms to meet the aggregated consumption smoothing objective. The difference between both DSM algorithms lie in the framework in which they take place: the local framework and the grid framework. Depending on the DSM framework, the energy goal and the procedure to reach this goal are different. In the local framework, the DSM algorithm only uses local information. It does not take into account other consumers or the aggregated consumption of the electrical grid. Although this statement may differ from the general definition of DSM, it makes sense in local facilities equipped with Distributed Energy Resources (DERs). In this case, the DSM is focused on the maximization of the local energy use, reducing the grid dependence. The proposed DSM algorithm significantly improves the self-consumption of the local PV generator. Simulated and real experiments show that self-consumption serves as an important energy management strategy, reducing the electricity transport and encouraging the user to control his energy behavior. However, despite all the advantages of the self-consumption increase, they do not contribute to the smooth of the aggregated consumption. The effects of the local facilities on the electrical grid are studied when the DSM algorithm is focused on self-consumption maximization. This approach may have undesirable effects, increasing the variability in the aggregated consumption instead of reducing it. This effect occurs because the algorithm only considers local variables in the local framework. The results suggest that coordination between these facilities is required. Through this coordination, the consumption should be modified by taking into account other elements of the grid and seeking for an aggregated consumption smoothing. In the grid framework, the DSM algorithm takes into account both local and grid information. This Thesis develops a self-organized algorithm to manage the consumption of an electrical grid in a distributed way. The goal of this algorithm is the aggregated consumption smoothing, as the classical DSM implementations. The distributed approach means that the DSM is performed from the consumers side without following direct commands issued by a central entity. Therefore, this Thesis proposes a parallel management structure rather than a hierarchical one as in the classical electrical grids. This implies that a coordination mechanism between facilities is required. This Thesis seeks for minimizing the amount of information necessary for this coordination. To achieve this objective, two collective coordination techniques have been used: coupled oscillators and swarm intelligence. The combination of these techniques to perform the coordination of a system with the characteristics of the electric grid is itself a novel approach. Therefore, this coordination objective is not only a contribution in the energy management field, but in the collective systems too. Results show that the proposed DSM algorithm reduces the difference between the maximums and minimums of the electrical grid proportionally to the amount of energy controlled by the system. Thus, the greater the amount of energy controlled by the algorithm, the greater the improvement of the efficiency of the electrical grid. In addition to the advantages resulting from the smoothing of the aggregated consumption, other advantages arise from the distributed approach followed in this Thesis. These advantages are summarized in the following features of the proposed DSM algorithm: • Robustness: in a centralized system, a failure or breakage of the central node causes a malfunction of the whole system. The management of a grid from a distributed point of view implies that there is not a central control node. A failure in any facility does not affect the overall operation of the grid. • Data privacy: the use of a distributed topology causes that there is not a central node with sensitive information of all consumers. This Thesis goes a step further and the proposed DSM algorithm does not use specific information about the consumer behaviors, being the coordination between facilities completely anonymous. • Scalability: the proposed DSM algorithm operates with any number of facilities. This implies that it allows the incorporation of new facilities without affecting its operation. • Low cost: the proposed DSM algorithm adapts to the current grids without any topological requirements. In addition, every facility calculates its own management with low computational requirements. Thus, a central computational node with a high computational power is not required. • Quick deployment: the scalability and low cost features of the proposed DSM algorithms allow a quick deployment. A complex schedule of the deployment of this system is not required.
Resumo:
La ciudad es un interior total. Como una nueva naturaleza, el medio urbano tiene tendencia a proliferar indefinidamente y llenar todo el espacio disponible. No sólo está caracterizado por las cualidades atmosféricas de la climatología sino por un rango cada vez mayor de sustancias y fuerzas que forman un vasto océano químico, de energía e información. La arquitectura fantasma que penetra inadvertidamente entre los objetos y ensamblajes presentes en nuestra vida cotidiana es tan importante para la cualificación de nuestro entorno como la arquitectura en sentido tradicional, sólida y visible. En consecuencia, desde el punto de vista de las prácticas materiales ya no es posible situarse en un contexto (social, político, profesional) donde este proceso de densificación ambiental pueda ser ignorado sin más. Vivimos sumergidos en una atmósfera compleja, activa y en gran medida artificial, que de manera voluntaria o involuntaria incorporamos a nuestro organismo, en un proceso en que finalmente sujeto y medio forman un ámbito común. Este es el punto de partida de la presente investigación: a partir de procesos esencialmente arquitectónicos que podemos tildar de ‘encantamientos urbanos’, individuos y objetos comparten una impregnación recíproca, una suerte de erotismo espacial, consistente en la relación a veces inadvertida y agresiva, a veces lúdica y hedonista entre el sujeto y el medio. El objetivo de esta tesis es la construcción de un concepto ampliado y polifacético del ambiente mediante el estudio de los componentes y estímulos físicos que lo caracterizan, los aquí denominados efectos ambientales. Dos elementos fundamentales gravitan inevitablemente en torno a los efectos. Por una parte la estructura, que hace referencia a aquellos objetos o soportes que los producen. Por otra, la afección producida en el sujeto, esto es, las consecuencias emocionales y fisiológicas que comportan su asimilación. La terna resultante, Estructura-Efecto-Afecto, proporcionará un orden conceptual global a la investigación. La tesis está dividida en tres partes. La primera investiga el concepto de efecto ambiental: como figura artística, como detonador de un nuevo paradigma espacial originado en el ámbito de la práctica científica y, finalmente, como categoría estética. La sección intermedia aborda la relación entre estructura y efecto, y se centra en experiencias de diversos ámbitos culturales donde la construcción de determinados artefactos y ensamblajes tiene como único propósito la caracterización del espacio únicamente mediante emisiones ambientales. Finalmente, la tercera parte investiga la arquitectura en busca una materialidad ambiental creciente. Es decir, un espacio donde estructura, atmósfera y psique finalmente convergen. Aquellas estrategias -epistemológicas, teóricas, técnicas- conducentes a la producción de todo tipo de efectos, sean ornamentales, emocionales o fisiológicos, y aquellas prácticas que hacen énfasis en los efectos y no en los objetos de los que proceden serán un importante referente para comprender aquello hoy en día conforma nuestro medio, y contribuirán a concebir la construcción de nuevas formas de habitabilidad. ABSTRACT The city is a total interior. Like a new kind of nature, urban mediums proliferate indefinitely, pervading all available space. Their atmospheric qualities are not only defined by the weather, but by a growing range of substances and forces that form a vast ocean of chemicals, energy and information. The ghost architecture that inadvertently penetrates the objects and assemblages present in our daily lives is as important for the qualification of our environment as traditional, solid and visible architecture. Consequently, there is virtually no context (social, political, professional) where material practices can simply ignore such environmental densification. We live immersed in a complex and—largely artificial—active environment that we voluntarily or involuntarily incorporate to our bodies in a process where ultimately the subject and the environment form a common substance. This is the starting point of our research: through a series of essentially architectural processes that can be called 'urban enchantments,’ individuals and objects come to share a reciprocal impregnation. This spatial erotica consists of the relationship, sometimes unnoticed and violent, sometimes playful and hedonistic, between subject and medium. This research aims at the construction of an expanded and multifaceted idea of environment through the analysis of its quintessential components and physical stimuli, here called ambient effects. Such effects are inevitably accompanied by two key elements. On the one hand there is Structure, which refers to the objects or devices that produce them. On the other hand, the Affect experimented by the subject; namely, the emotional and physiological consequences involved in effect assimilation. The resulting three interlinked concepts, Structure-Effect-Affect, provide the overall conceptual structure of this study. Three main sections are proposed. The first one investigates the concept of ambient effect in different ways: as an artistic figure, as the origin of a new spatial paradigm originated within scientific practices and, finally, as an aesthetic category. The middle section deals with the relationship between structure and effect, and focuses on the construction of certain artifacts and assemblages whose sole purpose is to characterize space by environmental emissions only. Finally, the third part investigates architecture’s quest for ultimate ambiental materiality, that is, a space where structure, atmosphere and psyche finally converge. The strategies, from the epistemological to the technical, leading to the production of all kinds of effects—be they ornamental, emotional or physiological,—and the practices that focus on effects and not the objects from where they come, will be studied. All of them will open new windows to a contemporary notion of environment and will contribute to the construction of new living habitats.
Resumo:
The use of tungsten disulphide inorganic nanotubes (INT-WS2) offers the opportunity to produce novel and advanced biopolymer-based nanocomposite materials with excellent nanoparticle dispersion without the need for modifiers or surfactants via conventional melt blending. The study of the non-isothermal melt-crystallization kinetics provides a clear picture of the transformation of poly(L-lactic acid) (PLLA) molecules from the non-ordered to the ordered state. The overall crystallization rate, final crystallinity and subsequent melting behaviour of PLLA were controlled by both the incorporation of INT-WS2 and the variation of the cooling rate. In particular, it was shown that INT-WS2 exhibits much more prominent nucleation activity on the crystallization of PLLA than other specific nucleating agents or nano-sized fillers. These features may be advantageous for the enhancement of mechanical properties and process-ability of PLLA-based materials. PLLA/INT-WS2 nanocomposites can be employed as low cost biodegradable materials for many eco-friendly and medical applications, and the exceptional crystallization behaviour observed opens new perspectives for scale-up and broader applications.
Resumo:
La presente tesis tiene por finalidad contribuir al conocimiento de los procesos de transformación de las ciudades convencionales en Ciudades Inteligentes o Smart Cities, el nuevo paradigma urbano, que surge como consecuencia de la utilización de las Tecnologías de la Información y de las Comunicaciones, las TIC, para mejorar la calidad de vida de las personas y aumentar la eficiencia y eficacia de los procesos, servicios e infraestructuras de la ciudad. El proceso de urbanización de la población mundial constituye una de las principales tendencias globales. Los retos a los que se enfrentan las urbes actuales para satisfacer las necesidades de sus habitantes, así como la forma en que cada ciudad aborda dichos retos, propician el desarrollo de estudios comparativos y rankings de ciudades. La oportunidad para llevar a cabo esta tesis deriva de: La novedad del concepto de Ciudad Inteligente. La necesidad de establecer estudios comparativos, respecto a dicho concepto, entre ciudades con características socioeconómicas y culturales comunes, dado que la mayoría de los estudios y rankings se desarrollan para conjuntos de ciudades cuyas características son muy dispares, pues, en general son seleccionadas por su condición de capitales de estados o de centros económicos-financieros. El interés de disponer de estudios sobre ciudades con tamaños de población medianos, inferiores al millón de habitantes, las cuales tienen baja presencia en los estudios comparativos. La inexistencia de estudios comparativos entre las ciudades españolas, en relación con el concepto de Ciudad Inteligente. La existencia de la Red Española de Ciudades Inteligentes, que permite disponer de una muestra de ciudades adecuada, para llevar a cabo un estudio comparativo de acuerdo con los puntos anteriores. El objetivo general de la presente tesis es contribuir al conocimiento de los procesos de transformación de la ciudad convencional en Ciudad Inteligente, a través de la formulación y aplicación de un modelo de evaluación, basado en el concepto holístico de Ciudad Inteligente o Smart City y desde la perspectiva del ciudadano. La metodología de trabajo seguida comprende, en primer lugar, la revisión del estado del arte, centrada en tres aspectos: la evolución del concepto Smart City, los estudios comparativos sobre Ciudades Inteligentes y las medidas que las ciudades españolas están implantando en la práctica para llevar a cabo su transformación en Ciudades Inteligentes. A continuación se lleva a cabo el diseño el modelo de evaluación. Este modelo refleja el carácter holístico del concepto de Ciudad Inteligente, para lo cual, de acuerdo con las definiciones que encontramos en la literatura, evalúa la situación de cada ciudad en relación con seis ejes o pilares, comúnmente aceptados por los diferentes autores: e-Gobierno y e-Gobernanza, Movilidad, Sostenibilidad Ambiental, Desarrollo Económico, Capital Intelectual y Calidad de Vida. El trabajo desarrollado implica un análisis, que se desarrolla de forma ordenada para cada uno de los ejes y, dentro de éstos, para sus correspondientes factores. En total se analizan 18 factores. Para cada uno de los ejes se lleva a cabo una revisión de las iniciativas más representativas para, a continuación, analizar y evaluar los correspondientes los factores. De forma complementaria al desarrollo del trabajo, se llevó a cabo una encuesta, dirigida a profesionales de diferentes áreas y sectores, todos ellos en el ámbito de las Ciudades Inteligentes. El objetivo de la encuesta es conocer, de acuerdo con la opinión de los profesionales, la situación actual en materia de despliegue de Ciudades Inteligentes, las actuaciones que consideran de mayor interés para la ciudad y las barreras del proceso de cambio. Una vez definido el modelo, se ha aplicado a las 62 ciudades que forman la Red Española de Ciudades Inteligentes (RECI), valorando los factores y los ejes para cada una de ellas. Así mismo, se ha analizado la influencia de las tres variables siguientes: tamaño de población, densidad de población y presupuesto municipal por habitante, determinando la relación entre el porcentaje de ciudades inteligentes de la muestra, en cada factor. Adicionalmente en el eje Capital Intelectual,se analizó la influencia del porcentaje de habitantes con estudios superiores. Las 62 ciudades RECI que componen la muestra evaluada, representan el 43 % de las ciudades españolas que cuentan con poblaciones superiores a los 50.000 habitantes. La población que abarca la muestra de ciudades estudiada representa el 35% de la población española. Finalmente, se ha determinado el ranking con las ciudades de RECI, de acuerdo con el modelo diseñado. Así mismo se ha llevado a cabo el análisis de sensibilidad, determinado el ranking resultante para la misma muestra de ciudades, aplicando la ponderación de los factores. Las principales aportaciones de la tesis son: Desarrollar un modelo de evaluación de ciudades basada en el concepto holístico de la Smart City y desde la perspectiva del ciudadano. Desarrollar una metodología de trabajo fundamentada en el análisis sistematizado de las web municipales, como medio para conocer la situación de las ciudades, en lugar de los datos estadísticos publicados, que son la fuente de información habitualmente empleada en los estudios comparativos. Disponer de un estudio comparativo específico de ciudades españolas. Llevar a cabo un estudio sobre una muestra de ciudades de tamaño medio, con características socioeconómicas y culturales comparables. Mejorar el conocimiento de los procesos que se están llevando a cabo en ciudades con poblaciones inferiores al millón de habitantes. The purpose of this thesis is to contribute to the knowledge of the cities and the transformation that is taking part in traditional cities becoming Smart Cities. The Smart City concept is the new urban paradigm that is born from the extensive use of Information Technologies (IT) in order to accomplish better citizen’s quality of life as well as improvements in urban processes, services and infrastructures. Several rankings and benchmarking studies are being conducted globally, in response to the increasing of urban population that is taking part around the world and the subsequent challenges to be confronted by the cities. This thesis aims to contribute to these studies. The opportunity for this thesis comes from: The Smart City concept as a new concept. The need of benchmarking studies focused on the Smart City concept, carried on cities with similar social and economic characteristics. The interest on benchmarking studies on medium size cities (with less than one million inhabitants). The absence of benchmarking studies on Spanish cities. The existence of the Spanish Smart Cities Network that can be considered an appropriate sample for a benchmark study. The main goal of this thesis is to develop a Smart Cities assessment model based on the citizen point of view and taking into account a holistic concept of Smart City. The thesis methodology starts with the state of the art revision, focused on three items: the Smart City concept, the benchmark studies and the projects actually developed by the Spanish cities under processes for becoming Smart Cities. The next step is the assessment model design, in accordance with the six main axes or pillars referred in the academic literature: e-Government and e-Governance, Mobility, Environmental Sustainability, Economic Development, Smart Citizens and Quality of Life. Also, a survey has been conducted and addressed to experts working on the different areas related to the Smart Cities. The aim of this survey is to know their opinion about the deployment of the Smart Cities, the priorities considered by the cities and the barriers that delay the change processes. Once the assessment model was ready, it was applied to the Spanish Smart Cities Network, with 62 member cities. Also, the bearing of three variables: city population, population density and city budget per inhabitant, are studied. The 62 cities studied are 43 % of the Spanish cities with population over 50.000 inhabitants. The population living in these cities is the 35% of total Spanish population. The main contribution of this thesis are: An assessment model for Smart Cities that takes into account the holistic concept of the Smart City as well as the citizen experience. A methodology that comprises municipal web analysis instead of statistics data, which are the usual source of data for current benchmarking studies. A Spanish Smart Cities benchmark. A benchmark on medium size cities with similar social and economic characteristics. A better understanding of the urban processes that are taking part on cities under one million inhabitants.
Resumo:
La tesis está focalizada en la resolución de problemas de optimización combinatoria, haciendo uso de las opciones tecnológicas actuales que ofrecen las tecnologías de la información y las comunicaciones, y la investigación operativa. Los problemas de optimización combinatoria se resuelven en general mediante programación lineal y metaheurísticas. La aplicación de las técnicas de resolución de los problemas de optimización combinatoria requiere de una elevada carga computacional, y los algoritmos deben diseñarse, por un lado pensando en la efectividad para encontrar buenas soluciones del problema, y por otro lado, pensando en un uso adecuado de los recursos informáticos disponibles. La programación lineal y las metaheurísticas son técnicas de resolución genéricas, que se pueden aplicar a diferentes problemas, partiendo de una base común que se particulariza para cada problema concreto. En el campo del desarrollo de software, los frameworks cumplen esa función de comenzar un proyecto con el trabajo general ya disponible, con la opción de cambiar o extender ese comportamiento base o genérico, para construir el sistema concreto, lo que permite reducir el tiempo de desarrollo, y amplía las posibilidades de éxito del proyecto. En esta tesis se han desarrollado dos frameworks de desarrollo. El framework ILP permite modelar y resolver problemas de programación lineal, de forma independiente al software de resolución de programación lineal que se utilice. El framework LME permite resolver problemas de optimización combinatoria mediante metaheurísticas. Tradicionalmente, las aplicaciones de resolución de problemas de optimización combinatoria son aplicaciones de escritorio que permiten gestionar toda la información de entrada del problema y resuelven el problema en local, con los recursos hardware disponibles. Recientemente ha aparecido un nuevo paradigma de despliegue y uso de aplicaciones que permite compartir recursos informáticos especializados por Internet. Esta nueva forma de uso de recursos informáticos es la computación en la nube, que presenta el modelo de software como servicio (SaaS). En esta tesis se ha construido una plataforma SaaS, para la resolución de problemas de optimización combinatoria, que se despliega sobre arquitecturas compuestas por procesadores multi-núcleo y tarjetas gráficas, y dispone de algoritmos de resolución basados en frameworks de programación lineal y metaheurísticas. Toda la infraestructura es independiente del problema de optimización combinatoria a resolver, y se han desarrollado tres problemas que están totalmente integrados en la plataforma SaaS. Estos problemas se han seleccionado por su importancia práctica. Uno de los problemas tratados en la tesis, es el problema de rutas de vehículos (VRP), que consiste en calcular las rutas de menor coste de una flota de vehículos, que reparte mercancías a todos los clientes. Se ha partido de la versión más clásica del problema y se han hecho estudios en dos direcciones. Por un lado se ha cuantificado el aumento en la velocidad de ejecución de la resolución del problema en tarjetas gráficas. Por otro lado, se ha estudiado el impacto en la velocidad de ejecución y en la calidad de soluciones, en la resolución por la metaheurística de colonias de hormigas (ACO), cuando se introduce la programación lineal para optimizar las rutas individuales de cada vehículo. Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. Otro de los problemas tratados en la tesis, es el problema de asignación de flotas (FAP), que consiste en crear las rutas de menor coste para la flota de vehículos de una empresa de transporte de viajeros. Se ha definido un nuevo modelo de problema, que engloba características de problemas presentados en la literatura, y añade nuevas características, lo que permite modelar los requerimientos de las empresas de transporte de viajeros actuales. Este nuevo modelo resuelve de forma integrada el problema de definir los horarios de los trayectos, el problema de asignación del tipo de vehículo, y el problema de crear las rotaciones de los vehículos. Se ha creado un modelo de programación lineal para el problema, y se ha resuelto por programación lineal y por colonias de hormigas (ACO). Este problema se ha desarrollado con los frameworks ILP y LME, y está disponible en la plataforma SaaS. El último problema tratado en la tesis es el problema de planificación táctica de personal (TWFP), que consiste en definir la configuración de una plantilla de trabajadores de menor coste, para cubrir una demanda de carga de trabajo variable. Se ha definido un modelo de problema muy flexible en la definición de contratos, que permite el uso del modelo en diversos sectores productivos. Se ha definido un modelo matemático de programación lineal para representar el problema. Se han definido una serie de casos de uso, que muestran la versatilidad del modelo de problema, y permiten simular el proceso de toma de decisiones de la configuración de una plantilla de trabajadores, cuantificando económicamente cada decisión que se toma. Este problema se ha desarrollado con el framework ILP, y está disponible en la plataforma SaaS. ABSTRACT The thesis is focused on solving combinatorial optimization problems, using current technology options offered by information technology and communications, and operations research. Combinatorial optimization problems are solved in general by linear programming and metaheuristics. The application of these techniques for solving combinatorial optimization problems requires a high computational load, and algorithms are designed, on the one hand thinking to find good solutions to the problem, and on the other hand, thinking about proper use of the available computing resources. Linear programming and metaheuristic are generic resolution techniques, which can be applied to different problems, beginning with a common base that is particularized for each specific problem. In the field of software development, frameworks fulfill this function that allows you to start a project with the overall work already available, with the option to change or extend the behavior or generic basis, to build the concrete system, thus reducing the time development, and expanding the possibilities of success of the project. In this thesis, two development frameworks have been designed and developed. The ILP framework allows to modeling and solving linear programming problems, regardless of the linear programming solver used. The LME framework is designed for solving combinatorial optimization problems using metaheuristics. Traditionally, applications for solving combinatorial optimization problems are desktop applications that allow the user to manage all the information input of the problem and solve the problem locally, using the available hardware resources. Recently, a new deployment paradigm has appeared, that lets to share hardware and software resources by the Internet. This new use of computer resources is cloud computing, which presents the model of software as a service (SaaS). In this thesis, a SaaS platform has been built for solving combinatorial optimization problems, which is deployed on architectures, composed of multi-core processors and graphics cards, and has algorithms based on metaheuristics and linear programming frameworks. The SaaS infrastructure is independent of the combinatorial optimization problem to solve, and three problems are fully integrated into the SaaS platform. These problems have been selected for their practical importance. One of the problems discussed in the thesis, is the vehicle routing problem (VRP), which goal is to calculate the least cost of a fleet of vehicles, which distributes goods to all customers. The VRP has been studied in two directions. On one hand, it has been quantified the increase in execution speed when the problem is solved on graphics cards. On the other hand, it has been studied the impact on execution speed and quality of solutions, when the problem is solved by ant colony optimization (ACO) metaheuristic, and linear programming is introduced to optimize the individual routes of each vehicle. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. Another problem addressed in the thesis, is the fleet assignment problem (FAP), which goal is to create lower cost routes for a fleet of a passenger transport company. It has been defined a new model of problem, which includes features of problems presented in the literature, and adds new features, allowing modeling the business requirements of today's transport companies. This new integrated model solves the problem of defining the flights timetable, the problem of assigning the type of vehicle, and the problem of creating aircraft rotations. The problem has been solved by linear programming and ACO. This problem has been developed with the ILP and LME frameworks, and is available in the SaaS platform. The last problem discussed in the thesis is the tactical planning staff problem (TWFP), which is to define the staff of lower cost, to cover a given work load. It has been defined a very rich problem model in the definition of contracts, allowing the use of the model in various productive sectors. It has been defined a linear programming mathematical model to represent the problem. Some use cases has been defined, to show the versatility of the model problem, and to simulate the decision making process of setting up a staff, economically quantifying every decision that is made. This problem has been developed with the ILP framework, and is available in the SaaS platform.
Resumo:
O consumidor contemporâneo, inserido em um novo ambiente de comunicação, potencializa suas expressões, capaz de avaliar uma marca ou produto e transmitir sua opinião pelas redes sociais, ou seja, o consumidor expressa suas opiniões e desejos dialogando com seus pares de forma espontânea nas redes sociais on-line. É neste ambiente de participação e interação (ciberespaço) que está nosso objeto de estudo, o boca a boca on-line – a voz do consumidor contemporâneo, também conhecido como uma manifestação informativa pessoal ou uma conversa, a opinion sharing. Proporcionado pelos consumidores nas redes sociais on-line, o boca a boca se fortalece em função das possibilidades de interação, característica da sociedade em rede. Nesse cenário, oobjetivo desta pesquisa é caracterizar o boca a boca on-line como um novo fluxo comunicacional entre consumidores, hoje potencializado pelas novas tecnologias da comunicação, capazes de alterar a percepção da marca e demonstrar o uso, pelas marcas, das redes sociais on-line ainda como um ambiente de comunicação unidirecional. Mediante três casos selecionados por conveniência (dois casos nacionais e um internacional), o corpus de análise de nossa pesquisa se limitou aos 5.084 comentários disponibilizados após publicação de matérias jornalísticas no Portal G1 e nas fanpages (Facebook), ambos relativos aos casos selecionados. Com a Análise de Conteúdo dos posts, identificamos e categorizamos a fala do consumidor contemporâneo, sendo assim possível comprovar que as organizações/marcas se valem da cultura do massivo, não dialogando com seus consumidores, pois utilizam as redes sociais on-line ainda de forma unidirecional, além de não darem a devida atenção ao atual fluxo onde se evidencia a opinião compartilhada dos consumidores da sociedade em rede.
Resumo:
A cultura de uma organização é importante para que seus colaboradores possuam mesmos objetivos e valores. Porém, em busca de manter uma estratégia competitiva e agir de forma responsável na comunidade em que se encontra, a empresa precisa inovar e adaptar-se. A gestão da diversidade apresenta-se como uma válida forma de enfrentar estes novos desafios e exigências. Contudo, há muitos obstáculos para que uma gestão da diversidade seja bem-sucedida. Este estudo propõe-se em entender como a diversidade pode afetar a cultura de uma organização. Além disso, como a cultura pode afetar a estratégia de gestão da diversidade. Foi utilizado para este objetivo um estudo de caso em profundidade com seis entrevistas. As entrevistas foram apoiadas em um roteiro semi estruturado. A análise dos dados obtidos foi feita pela análise de conteúdo. De acordo com a pesquisa realizada, sugere que a cultura organizacional e a gestão da diversidade estão diretamente conectadas e que podem influenciar positivamente uma a outra, porém precisam manter um equilíbrio em suas ações para que não causem prejuízos à organização.
Resumo:
A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.
Resumo:
This paper proposes a new manufacturing paradigm, we call Cloud Agile Manufacturing, and whose principal objective is to offer industrial production systems as a service. Thus users can access any functionality available in the cloud of manufacturing (process design, production, management, business integration, factories virtualization, etc.) without knowledge — or at least without having to be experts — in managing the required resources. The proposal takes advantage of many of the benefits that can offer technologies and models like: Business Process Management (BPM), Cloud Computing, Service Oriented Architectures (SOA) and Ontologies. To develop the proposal has been taken as a starting point the Semantic Industrial Machinery as a Service (SIMaaS) proposed in previous work. This proposal facilitates the effective integration of industrial machinery in a computing environment, offering it as a network service. The work also includes an analysis of the benefits and disadvantages of the proposal.
Resumo:
Between 1950 and 1980, the European delay with respect to Japan and the relative loss of competitiveness in the integrated steel industry was due to an institutional, geographical and economic logic based largely on historical factors. Europe had a long steel-making history that was closely related to its sources of raw materials. The new technological paradigm turned this former advantage into a clear disadvantage, while the large investments made in the Thomas and open hearth processes and the affordable price of scrap delayed the adoption of the Basic Oxygen Furnace (BOF) until its superiority had been clearly demonstrated. The European steel industry was not at the forefront of the transformation, but merely adapting to the changes, pushed by the threat of a new uncomfortable competitor.
Resumo:
Online gambling is a fast growing service activity in the world - its economic significance is clearly shown by the high level of innovation by gambling operators all over the world, as well as by the increasing amount of tax revenues generated in those States that allow this activity. Nevertheless, states face many difficulties in controlling and regulating online gambling, given the specific nature of the Internet, and the never-ending quest by gamblers for new gaming websites that offer superior odds, a wider gaming variety, and greater bets combination. In this working paper, Dr Salvatore Casabona examines the legality of online gambling in the context of the European Union (EU), and discusses the Union's regulatory approach to online gambling, the lack of harmonisation and the issue of member state sovereignty at the crossroad of European Law on online gambling, and the potential for a new regulatory paradigm to emerge.
Resumo:
This study examined whether supervision characteristics impacted on mental health practice and morale, and developed a new Supervision Attitude Scale (SAS). Telephone surveys were conducted with a representative sample of 272 staff from public mental health services across Queensland. Although supervision was widely received and positively rated, it had low average intensity, and assessment and training of skills was rarely incorporated. Perceived impact on practice was associated with acquisition of skills and positive attitudes to supervisors, but extent of supervision was related to impact only if it was from within the profession. Intention to resign was unrelated to extent of supervision, but was associated with positive attitudes to supervisors, accessibility, high impact, and empathy or praise in supervision sessions. The SAS had high internal consistency, and its intercorrelations were consistent with it being a measure of relationship positivity. The study supported the role of supervision in retention and in improving practice. It also highlighted supervision characteristics that might be targeted in training, and provided preliminary data on a new measure.
Resumo:
Cylpebs are slightly tapered cylindrical grinding media with a ratio of length to diameter of unity. The manufactures have made conflicting claims regarding the milling performance of Cylpebs in comparison with balls. One major point of interest is which one grinds finer at the same operating conditions. The difficulty in comparison is due to the shape difference. The two grinding media have different surface area, bulk density and contact mechanisms in grinding action. Comparative tests were conducted using the two types of grinding media in a laboratory Bond ball mill at various conditions of equality such as media mass, size distribution, surface area and input specific energy. The laboratory results indicate that at the same specific energy input level the Cylpebs produce a product with slightly less oversize due to their greater surface area, but essentially the same sizing at the fine end as that produced with the balls. The reason may be that the advantage of greater surface area is balanced by the line contact and area contact grinding actions with the Cylpebs. A new ball mill scale-up procedure [Man, Y.T., 2001. Model-based procedure for scale-up of wet, overflow ball mills, Part 1: outline of the methodology. Minerals Engineering 14 (10), 1237-1246] was employed to predict grinding performance of an industrial mill from the laboratory test results. The predicted full scale operation was compared with the plant survey data. Some problems in the original scale-up procedures were identified. The scale-up procedure was therefore modified to allow the predicted ball mill performance to match the observed one. The calibrated scale-up procedure was used to predict the Cylpebs performance in the full scale industrial mill using the laboratory tests results. (C) 2004 Elsevier Ltd. All rights reserved.