811 resultados para Augmented reality, mixed reality, hololens, holographics applications, hologram, Microsoft
Resumo:
Alexander's Dictum--"to be is to have causal powers"--appears to furnish an argument against the reality of familiar medium-sized objects. For every time a familiar object appears to cause a familiar macro-event, it sets up a rival claim by its component microparticles to have caused the complex swarm of microphysical events that composes into that macro-event. But this argument, argues this paper, wrongly assumes that even after familiar objects are removed from the picture, there is a phenomenon of joint causation which unites all and only the microparticles within each familiar object.
Resumo:
Este texto se plantea una relectura ética acerca del derecho a la educación de las personas con discapacidades, con un énfasis prioritario de la situación en América Latina. A partir de considerar los sistemas jurídicos, los modos de financiamiento políticos, los porcentajes de inclusión y los programas de seguimiento de la población con discapacidad en edad escolar, se deriva toda una serie de discusiones sobre la idea de formación educativa, el estar junto a otros y las responsabilidades éticas en la tarea de educar.
Resumo:
Este texto se plantea una relectura ética acerca del derecho a la educación de las personas con discapacidades, con un énfasis prioritario de la situación en América Latina. A partir de considerar los sistemas jurídicos, los modos de financiamiento políticos, los porcentajes de inclusión y los programas de seguimiento de la población con discapacidad en edad escolar, se deriva toda una serie de discusiones sobre la idea de formación educativa, el estar junto a otros y las responsabilidades éticas en la tarea de educar.
Resumo:
Este texto se plantea una relectura ética acerca del derecho a la educación de las personas con discapacidades, con un énfasis prioritario de la situación en América Latina. A partir de considerar los sistemas jurídicos, los modos de financiamiento políticos, los porcentajes de inclusión y los programas de seguimiento de la población con discapacidad en edad escolar, se deriva toda una serie de discusiones sobre la idea de formación educativa, el estar junto a otros y las responsabilidades éticas en la tarea de educar.
Resumo:
In Brazil, a low-latitude country characterized by its high availability and uniformity of solar radiation, the use of PV solar energy integrated in buildings is still incipient. However, at the moment there are several initiatives which give some hints that lead to think that there will be a change shortly. In countries where this technology is already a daily reality, such as Germany, Japan or Spain, the recommendations and basic criteria to avoid losses due to orientation and tilt are widespread. Extrapolating those measures used in high latitudes to all regions, without a previous deeper analysis, is standard practice. They do not always correspond to reality, what frequently leads to false assumptions and may become an obstacle in a country which is taking the first step in this area. In this paper, the solar potential yield for different surfaces in Brazilian cities (located at latitudes between 0° and 30°S) are analyzed with the aim of providing the necessary tools to evaluate the suitability of the buildings’ envelopes for photovoltaic use
Resumo:
This paper presents a methodology for the incorporation of a Virtual Reality development applied to the teaching of manufacturing processes, namely the group of machining processes in numerical control of machine tools. The paper shows how it is possible to supplement the teaching practice through virtual machine-tools whose operation is similar to the 'real' machines while eliminating the risks of use for both users and the machines.
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
The lack of plasma facing materials (PFM) able to withstand the severe magnetiicffusiion radiation conditions expected in fusion reactors is the actual bottle In both fusions approaches energy is released in the form of kinetic energy of neck for fusion to becomes a reality.
Resumo:
En el día de hoy nos enfrentamos a una serie de desafíos económicos, geopolíticos y ambientales que apuntan hacia una transformación profunda del mundo tal y como lo conocemos. La arquitectura esta – siempre lo ha estado – imbricada en todos estos problemas. En nuestra actual condición de recursos limitados e injusticia global surge la necesidad de superar la dicotomía entre progreso y tradición, entre innovación y preservación – la urgencia de redefinir incluso cada uno de estos términos. Los tipos de crisis que encaramos ahora no se resolverán con mas tecnología y más crecimiento – se necesita también una profunda reevaluación de nuestros sistemas de valores e incluso de nuestra sensibilidad. En este contexto, la humilde contribución de esta tesis consiste en proponer la idea de un realismo en arquitectura, entendido como una actitud progresista y atenta a lo que ya existe, dispuesta a abrir los ojos al presente, a las condiciones y los problemas reales que nos rodean. Pensando en esta idea, resulta evidente que si bien el realismo carece de una definición clara en el campo de la arquitectura hoy, cuenta sin embargo con numerosos precedentes parciales, entre ellos algunos de los más notorios episodios de la historia de la arquitectura reciente. Al intentar confeccionar una lista provisional de arquitectos realistas en el último siglo, otro hecho se nos presenta: muchos, por no decir todos estos arquitectos, comparten una fijación por la fotografía, bien apropiándose del trabajo de fotógrafos contemporáneos, bien tomando sus propias imágenes como una forma de mirar fuera de sus estudios e incorporar la realidad del medio construido a sus proyectos. Parece entonces lógico pensar que la arquitectura, como disciplina visual, ha acudido a otra disciplina visual en búsqueda de su propia respuesta al problema del realismo – dentro de este campo la fotografía reverbera con la arquitectura especialmente, ya que ambas son consideradas simultáneamente como practicas utilitarias y como parte de las bellas artes. Parece entonces lógico el organizar la investigación como una serie de casos, con la esperanza de que la acumulación de diversas instancias en las que la arquitectura ha acudido a la fotografía en su búsqueda de un realismo arrojara luz sobre las ideas más generales a debate. Por tanto, cada uno de los episodios en este texto se examina en sus propios términos, si bien una serie de interconexiones emergen a medida que el estudio procede con un suave orden cronológico. Hacia el final del texto cuestiones más grandes recobran protagonismo, a medida que las repercusiones políticas de nuestro estudio se hacen más patentes y comenzamos a interrogar las implicaciones contemporáneas y el potencial futuro de nuestra discusión sobre el realismo. ABSTRACT Today we are faced with a series of economic, geopolitical and environmental challenges that outline a deep transformation of the world as we know it. Architecture is – it has always been – ingrained in all of these problems. In our current condition of limited resources and global inequalities there is a necessity to overcome the dichotomy between progress and tradition, between innovation and preservation – an urgency to even redefine these terms altogether. The types of crises that we are facing will not be solved with more technology and more growth – a deep reevaluation of our systems of values and our sensibilities are also needed. In this context, the humble contribution of this text is to put forward the idea of an architectural realism, understood as an attitude that is both progressive and attentive to what is already in place, willing to open its eyes to the present and accept the real conditions and problems around us. In thinking about this prospect, it immediately becomes apparent that even if realism lacks a clear definition in the field of architecture today, there are numerous partial precedents for it, among them some of the most notorious episodes in the recent history of architecture. In crafting a tentative list of realist architects in the last century, another realization takes place: many, not to say all of these architects, have had a fixation with photography, either appropriating the work of contemporary photographers or taking photographs themselves as a way to look out their windows and bring the reality of the built environment into their practices. It seems then logical to think that architecture, as a visual discipline, has looked to other visual disciplines in search for its own take on the problem of realism – within this field, photography specially resonates with architecture, since both are regarded simultaneously as utilitarian practices and belonging to the fine arts. The idea then becomes to organize the research as a series of cases, with the hope that the accumulation of diverse instances in which architecture has approached photography in its realist drive will shed some light on the larger ideas at stake. Therefore, each of the episodes in this text is examined on its own terms, with a series of interconnections slowly emerging as our survey proceeds with a soft chronologic order. Towards the end of the study, larger issues regain relevance as the political repercussions of our inquiry become more pressing and we start to question the contemporary implications and future potentials of our discussion on realism.
Resumo:
While a number of virtual data-gloves have been used in stroke, there is little evidence about their use in spinal cord injury (SCI). A pilot clinical experience with nine SCI subjects was performed comparing two groups: one carried out a virtual rehabilitation training based on the use of a data glove, CyberTouch combined with traditional rehabilitation, during 30 minutes a day twice a week along two weeks; while the other made only conventional rehabilitation. Furthermore, two functional indexes were developed in order to assess the patient’s performance of the sessions: normalized trajectory lengths and repeatability. While differences between groups were not statistically significant, the data-glove group seemed to obtain better results in the muscle balance and functional parameters, and in the dexterity, coordination and fine grip tests. Related to the indexes that we implemented, normalized trajectory lengths and repeatability, every patient showed an improvement in at least one of the indexes, either along Y-axis trajectory or Z-axis trajectory. This study might be a step in investigating new ways of treatments and objective measures in order to obtain more accurate data about the patient’s evolution, allowing the clinicians to develop rehabilitation treatments, adapted to the abilities and needs of the patients.
Resumo:
En las últimas tres décadas, las dinámicas de restructuración económica a nivel global han redefinido radicalmente el papel de las ciudades. La transición del keynesianismo al neoliberalismo ha provocado un cambio en las políticas urbanas de los gobiernos municipales, que han abandonado progresivamente las tareas de regulación y redistribución para centrarse en la promoción del crecimiento económico y la competitividad. En este contexto, muchas voces críticas han señalado que la regeneración urbana se ha convertido en un vehículo de extracción de valor de la ciudad y está provocando la expulsión de los ciudadanos más vulnerables. Sin embargo, la regeneración de áreas consolidadas supone también una oportunidad de mejora de las condiciones de vida de la población residente, y es una política necesaria para controlar la expansión de la ciudad y reducir las necesidades de desplazamiento, promoviendo así ciudades más sostenibles. Partiendo de la hipótesis de que la gobernanza de los procesos de regeneración urbana es clave en el resultado final de las operaciones y determina el modelo de ciudad resultante, el objetivo de esta investigación es verificar si la regeneración urbana es necesariamente un mecanismo de extracción de valor o si puede mejorar la calidad de vida en las ciudades a través de la participación de los ciudadanos. Para ello, propone un marco de análisis del proceso de toma de decisiones en los planes de regeneración urbana y su impacto en los resultados de los planes, tomando como caso de estudio la ciudad de Boston, que desde los años 1990 trata de convertirse en una “ciudad de los barrios”, fomentando la participación ciudadana al tiempo que se posiciona en la escena económica global. El análisis se centra en dos operaciones de regeneración iniciadas a finales de los años 1990. Por un lado, el caso de Jackson Square nos permite comprender el papel de la sociedad civil y el tercer sector en la regeneración de los barrios más desfavorecidos, en un claro ejemplo de urbanismo “desde abajo” (bottom-up planning). Por otro, la reconversión del frente marítimo de South Boston para la construcción del Distrito de Innovación nos acerca a las grandes operaciones de regeneración urbana con fines de estímulo económico, tradicionalmente vinculadas a los centros financieros (downtown) y dirigidas por las élites gubernamentales y económicas (la growth machine) a través de procesos más tecnocráticos (top-down planning). La metodología utilizada consiste en el análisis cualitativo de los procesos de toma de decisiones y la relación entre los agentes implicados, así como de la evaluación de la implementación de dichas decisiones y su influencia en el modelo urbano resultante. El análisis de los casos permite afirmar que la gobernanza de los procesos de regeneración urbana influye decisivamente en el resultado final de las intervenciones; sin embargo, la participación de la comunidad local en la toma de decisiones no es suficiente para que el resultado de la regeneración urbana contrarreste los efectos de la neoliberalización, especialmente si se limita a la fase de planeamiento y no se extiende a la fase de ejecución, y si no está apoyada por una movilización política de mayor alcance que asegure una acción pública redistributiva. Asimismo, puede afirmarse que los procesos de regeneración urbana suponen una redefinición del modelo de ciudad, dado que la elección de los espacios de intervención tiene consecuencias sobre el equilibrio territorial de la ciudad. Los resultados de esta investigación tienen implicaciones para la disciplina del planeamiento urbano. Por una parte, se confirma la vigencia del paradigma del “urbanismo negociado”, si bien bajo discursos de liderazgo público y sin apelación al protagonismo del sector privado. Por otra parte, la planificación colaborativa en un contexto de “responsabilización” de las organizaciones comunitarias puede desactivar la potencia política de la participación ciudadana y servir como “amortiguador” hacia el gobierno local. Asimismo, la sustitución del planeamiento general como instrumento de definición de la ciudad futura por una planificación oportunista basada en la actuación en áreas estratégicas que tiren del resto de la ciudad, no permite definir un modelo coherente y consensuado de la ciudad que se desea colectivamente, ni permite utilizar el planeamiento como mecanismo de redistribución. ABSTRACT In the past three decades, the dynamics of global economic restructuring have radically redefined the role of cities. The transition from keynesianism to neoliberalism has caused a shift in local governments’ urban policies, which have progressively abandoned the tasks of regulation and redistribution to focus on promoting economic growth and competitiveness. In this context, many critics have pointed out that urban regeneration has become a vehicle for extracting value from the city and is causing the expulsion of the most vulnerable citizens. However, regeneration of consolidated areas is also an opportunity to improve the living conditions of the resident population, and is a necessary policy to control the expansion of the city and reduce the need for transportation, thus promoting more sustainable cities. Assuming that the governance of urban regeneration processes is key to the final outcome of the plans and determines the resulting city model, the goal of this research is to verify whether urban regeneration is necessarily a value extraction mechanism or if it can improve the quality of life in cities through citizens’ participation. It proposes a framework for analysis of decision-making in urban regeneration processes and their impact on the results of the plans, taking as a case study the city of Boston, which since the 1990s is trying to become a "city of neighborhoods", encouraging citizen participation, while seeking to position itself in the global economic scene. The analysis focuses on two redevelopment plans initiated in the late 1990s. The Jackson Square case allows us to understand the role of civil society and the third sector in the regeneration of disadvantaged neighborhoods, in a clear example of bottom-up planning. On the contrary, the conversion of the South Boston waterfront to build the Innovation District takes us to the big redevelopment efforts with economic stimulus’ goals, traditionally linked to downtowns and led by government and economic elites (the local “growth machine”) through more technocratic processes (top-down planning). The research is based on a qualitative analysis of the processes of decision making and the relationship between those involved, as well as the evaluation of the implementation of those decisions and their influence on the resulting urban model. The analysis suggests that the governance of urban regeneration processes decisively influences the outcome of interventions; however, community engagement in the decision-making process is not enough for the result of the urban regeneration to counteract the effects of neoliberalization, especially if it is limited to the planning phase and does not extend to the implementation of the projects, and if it is not supported by a broader political mobilization to ensure a redistributive public action. Moreover, urban regeneration processes redefine the urban model, since the choice of intervention areas has important consequences for the territorial balance of the city. The results of this study have implications for the discipline of urban planning. On the one hand, it confirms the validity of the "negotiated planning" paradigm, albeit under public leadership discourse and without a direct appeal to the leadership role of the private sector. On the other hand, collaborative planning in a context of "responsibilization" of community based organizations can deactivate the political power of citizen participation and serve as a "buffer" towards the local government. Furthermore, the replacement of comprehensive planning, as a tool for defining the city's future, by an opportunistic planning based on intervention in strategic areas that are supposed to induce change in the rest of the city, does not allow a coherent and consensual urban model that is collectively desired, nor it allows to use planning as a redistribution mechanism.
Resumo:
The proliferation of video games and other applications of computer graphics in everyday life demands a much easier way to create animatable virtual human characters. Traditionally, this has been the job of highly skilled artists and animators that painstakingly model, rig and animate their avatars, and usually have to tune them for each application and transmission/rendering platform. The emergence of virtual/mixed reality environments also calls for practical and costeffective ways to produce custom models of actual people. The purpose of the present dissertation is bringing 3D human scanning closer to the average user. For this, two different techniques are presented, one passive and one active. The first one is a fully automatic system for generating statically multi-textured avatars of real people captured with several standard cameras. Our system uses a state-of-the-art shape from silhouette technique to retrieve the shape of subject. However, to deal with the lack of detail that is common in the facial region for these kind of techniques, which do not handle concavities correctly, our system proposes an approach to improve the quality of this region. This face enhancement technique uses a generic facial model which is transformed according to the specific facial features of the subject. Moreover, this system features a novel technique for generating view-independent texture atlases computed from the original images. This static multi-texturing system yields a seamless texture atlas calculated by combining the color information from several photos. We suppress the color seams due to image misalignments and irregular lighting conditions that multi-texturing approaches typically suffer from, while minimizing the blurring effect introduced by color blending techniques. The second technique features a system to retrieve a fully animatable 3D model of a human using a commercial depth sensor. Differently to other approaches in the current state of the art, our system does not require the user to be completely still through the scanning process, and neither the depth sensor is moved around the subject to cover all its surface. Instead, the depth sensor remains static and the skeleton tracking information is used to compensate the user’s movements during the scanning stage. RESUMEN La popularización de videojuegos y otras aplicaciones de los gráficos por ordenador en el día a día requiere una manera más sencilla de crear modelos virtuales humanos animables. Tradicionalmente, estos modelos han sido creados por artistas profesionales que cuidadosamente los modelan y animan, y que tienen que adaptar específicamente para cada aplicación y plataforma de transmisión o visualización. La aparición de los entornos de realidad virtual/mixta aumenta incluso más la demanda de técnicas prácticas y baratas para producir modelos 3D representando personas reales. El objetivo de esta tesis es acercar el escaneo de humanos en 3D al usuario medio. Para ello, se presentan dos técnicas diferentes, una pasiva y una activa. La primera es un sistema automático para generar avatares multi-texturizados de personas reales mediante una serie de cámaras comunes. Nuestro sistema usa técnicas del estado del arte basadas en shape from silhouette para extraer la forma del sujeto a escanear. Sin embargo, este tipo de técnicas no gestiona las concavidades correctamente, por lo que nuestro sistema propone una manera de incrementar la calidad en una región del modelo que se ve especialmente afectada: la cara. Esta técnica de mejora facial usa un modelo 3D genérico de una cara y lo modifica según los rasgos faciales específicos del sujeto. Además, el sistema incluye una novedosa técnica para generar un atlas de textura a partir de las imágenes capturadas. Este sistema de multi-texturización consigue un atlas de textura sin transiciones abruptas de color gracias a su manera de mezclar la información de color de varias imágenes sobre cada triángulo. Todas las costuras y discontinuidades de color debidas a las condiciones de iluminación irregulares son eliminadas, minimizando el efecto de desenfoque de la interpolación que normalmente introducen este tipo de métodos. La segunda técnica presenta un sistema para conseguir un modelo humano 3D completamente animable utilizando un sensor de profundidad. A diferencia de otros métodos del estado de arte, nuestro sistema no requiere que el usuario esté completamente quieto durante el proceso de escaneado, ni mover el sensor alrededor del sujeto para cubrir toda su superficie. Por el contrario, el sensor se mantiene estático y el esqueleto virtual de la persona, que se va siguiendo durante el proceso, se utiliza para compensar sus movimientos durante el escaneado.