783 resultados para gravità, modifica
Resumo:
El plástico se ha convertido en el material del siglo XXI. Se adapta a múltiples aplicaciones, por eso se emplea para todo tipo de propósitos, entre los cuales destaca el empaquetado por su versatilidad, flexibilidad y durabilidad. Un efecto directo de su continuo uso es la producción de residuos poliméricos, que tras su utilización, se desechan. A partir de ese momento, solo existen dos vías de acción: reciclado y vertido. El vertido de residuos se ha convertido en un grave problema del día a día. En consecuencia, se deben tomar medidas para evitar su acumulación, que implica grandes problemas medioambientales que afectan tanto a personas como a fauna y flora. Por consiguiente, para evitar el desaprovechamiento de una buena parte de los residuos, de aquellos que son plásticos, se lleva a cabo su reciclado. Existen tres tipos de reciclado para los materiales poliméricos: el mecánico o convencional, el químico y la valorización energética. El más sostenible de todos ellos es el reciclado mecánico que además es el empleado para la elaboración de las probetas de este estudio. El reciclado convencional posee varias etapas, entre las cuales destacan fundir el plástico y procesarlo posteriormente. El producto final aparece en forma de pellets, que pueden ser transformados según el uso ulterior. El polímero generado posee una calidad inferior a la de los materiales vírgenes, dado que durante su utilización ha podido ser contaminado por otras substancias. Por tanto, no puede emplearse para muchos de sus pasados usos si no es reforzado con algún otro material. Es entonces cuando surgen los ecocomposites o biocomposites. Los ecocomposites son unos materiales compuestos de matriz polimérica, que presentan especiales ventajas medioambientales, porque utilizan refuerzos celulósicos de fuentes renovables y/o matrices de plásticos reciclados. En nuestro caso, la matriz es una mezcla de residuos plásticos agrarios (RAP) y urbanos, que principalmente están formados por polietileno de alta densidad (HDPE). Por sí solos estos plásticos reciclados, no poseen las cualidades necesarias para su utilización. Por consiguiente, se refuerzan con fibras de celulosa. Estas hebras añadidas también son residuales ya que carecen de las propiedades adecuadas para la fabricación de papel y, en lugar de ser incineradas o desechadas, se emplean en los ecocomposites como ayuda para soportar los esfuerzos mecánicos. Otro beneficio medioambiental del uso de la celulosa, es que hace que los ecocomposites sean más biodegradables en comparación con las fibras minerales que se añaden en los otros composites. Cabe mencionar que, al tratarse de un material totalmente reciclado, también genera una serie de ventajas económicas y sociales. El reciclado mecánico necesita de trabajadores que lleven a cabo la labor. De este modo, aparecen nuevos puestos de trabajo que dan solución a problemas sociales de la población. El reciclado de plásticos irá aumentando durante los próximos años dado que en 2014 la Comunidad Europea fijó como objetivo una economía circular que implica procesar todos los residuos para evitar su acumulación. En la actualidad, aún no se reciclan gran cantidad de plásticos agrarios. Sin embargo, con este compromiso se espera un aumento del volumen de PE agrícola reciclado mecánicamente, ya que el origen del material obtenido a partir de ellos es ecológico y favorece el cuidado del medio ambiente, al emplear materiales de desecho en la generación de los nuevos. Combinando los plásticos reciclados y la celulosa, se crea un material respetuoso con el medio ambiente. No obstante, existe un motivo mayor para su fabricación: se trata de un compuesto con propiedades mecánicas optimizadas que se adapta a numerosas aplicaciones como mobiliario urbano, señales de tráfico… Sus características aúnan los beneficios de unir ambos materiales. Por un lado, la baja densidad, las posibilidades de reciclado y la alta resistencia al impacto aportadas por el plástico. Por el otro, las hebras celulósicas mejoran notablemente el módulo de Young, la rigidez y el límite de tensión que son capaces de soportar con respecto a probetas de misma forma pero sin fibras. Estas propiedades no son las únicas que se modifican al combinar las dos substancias. El refuerzo, al tratarse de un material hidrófilo, tenderá a atrapar la humedad ambiental. Como consecuencia, se producirá un hinchamiento que es posible que repercuta en la estabilidad dimensional del material durante su uso. Asimismo, si la celulosa está en contacto continuo con agua, modifica su naturaleza ya que se producen una serie de cambios en su estructura. El agua genera también la rotura de las interacciones fibra-matriz en la interfase del material compuesto, lo que reduce grandemente las propiedades del ecocomposite. Así pues, la absorción de agua es uno de los principales problemas de estos materiales y limita sus aplicaciones y también la reciclabilidad de los residuos celulósicos y plásticos. Por lo tanto, el principal objetivo de este proyecto es la caracterización tanto de la cinética como del mecanismo de la absorción de agua en los ecocomposites a través de varias técnicas y ensayos siempre con el fin último de reducir la absorción de agua y mejorar las propiedades y las aplicaciones de estos materiales reciclados. Se estudiaron ecocomposites obtenidos a partir de residuos plásticos agrarios y urbanos, con una cantidad variable de celulosa residual, entre 25 y 35%. A algunos de ellos se les había añadido un peróxido orgánico en proporción del 0,025% o 0,05% en peso. Una parte de los materiales había sido sometida a un envejecimiento acelerado de 100, 250 o 500 horas en cámara climática, donde se exponen a calor y humedad. La proporción no constante de celulosa se empleó para descubrir cuánto afecta su variación en la absorción de agua. El peróxido estaba presente como ayuda para entrecruzar la matriz con el refuerzo, que ya se había comprobado que mejoraba las propiedades mecánicas del material, y se pretendía investigar si también podía causar una mejora en la absorción de agua, o bien suponía un empeoramiento. Por último, se pretendía estudiar si el envejecimiento de estos materiales altera la absorción de agua. La absorción se caracterizó principalmente a través de tres procedimientos, todos ellos basados en la medición de ciertas propiedades tras la inmersión de las muestras en viales con agua destilada. Por un lado, se controló la absorción midiendo la ganancia de masa de las muestras mediante una balanza analítica. Por otro lado, se midió el hinchamiento de las probetas a lo largo del tiempo. Finalmente, se caracterizó el agua absorbida y se midió la absorción mediante espectrofotometría infrarroja por transformada de Fourier (FTIR), lo que suministró información sobre los tipos de agua absorbida y los mecanismos de absorción. En el estudio del hinchamiento y de la absorción por gravimetría se tomaron todas las muestras, con una y dos replicaciones. Para la espectrofotometría se analizaron los filmes de código 43500, 43505, 43520 y 43525. La absorción de agua es un fenómeno que se puede explicar en muchos casos a través de la segunda ley de Fick. Para poder emplear esta ley, se toman como hipótesis que la difusión es no estacionaria, la presión y la temperatura son constantes y se trata de difusión unidireccional. Para la aplicación de esta teoría, es necesario que las muestras sean láminas bidimensionales de espesor despreciable. Los coeficientes de difusión se pueden calcular mediante una serie de métodos propuestos por Crank en The Mathematics of Diffusion [5] que recopilan soluciones a esta segunda ley de Fick. La absorción de agua fue aumentando con el tiempo. Inicialmente, el gradiente es superior; esto es, se absorbió más durante las primeras horas de inmersión. Para que la difusión sea Fickiana, el proceso debe ser reversible y alcanzarse un valor de equilibrio de absorción. Nuestros resultados indican que esto no se cumple para largos tiempos de inmersión ya que la teoría predice que la masa absorbida tiende a un valor constante en el equilibrio, mientras que los datos experimentales muestran una tendencia de la absorción a crecer indefinidamente Para tiempos cortos inferiores a 50h, al tratarse de pocas horas de inmersión, el material no se degrada, por lo que el proceso puede describirse como Fickiano. Se calcularon los coeficientes de difusión aparentes y valor estable de cantidad de agua al que tiende la absorción cuando el comportamiento es Fickiano. Los resultados indican que la celulosa afecta considerablemente a la absorción, favoreciéndola cuanto mayor es el porcentaje de fibras. Asimismo, el peróxido no tiene un efecto reseñable en la absorción, porque aúna dos efectos contrarios: favorece el entrecruzamiento de la interfase matriz-refuerzo y degrada parcialmente el material, sobre todo las impurezas de polipropileno en el rHDPE. Finalmente, el envejecimiento muestra una tendencia a facilitar la absorción, pero es importante señalar que esta tendencia desaparece cuando se utiliza peróxido en la composición del ecocomposite, por lo que el peróxido puede aumentar la duración del material. Por último, la espectroscopía FTIR fue muy útil para conocer los tipos de agua que se encuentran en el interior del material, ya que el espectro infrarrojo del agua absorbida depende de cómo se encuentre unida al material. La espectroscopía FTIR ha permitido también observar la cinética de absorción de los diferentes tipos de agua por separado. La absorción del agua libre y el agua ligada se describe bien mediante un modelo Fickiano. La bondad del ajuste para un comportamiento Fickiano es alta. Así pues, los resultados obtenidos aportan información sobre la cinética y los mecanismos de absorción de agua y han mostrado que la absorción depende del contenido en celulosa y no empeora por la adición de peróxido. Por el contrario, el peróxido añadido parece reducir la absorción en materiales envejecidos, lo que puede contribuir a aumentar la duración de estos materiales y mejorar así la reciclabilidad de los residuos empleados.
Resumo:
Present research is framed within the project MODIFICA (MODelo predictivo - edIFIcios - Isla de Calor urbanA) aimed at developing a predictive model for dwelling energy performance under the urban heat island effect in order to implement it in the evaluation of real energy demand and consumption of dwellings as well as in the selection of energy retrofitting strategies. It is funded by Programa de I+D+i orientada a los retos de la sociedad 'Retos Investigación' 2013. Despite great advances on building energy performance have been achieved during the last years, available climate data is derived from weather stations placed in the outskirts of the city. Hence, urban heat island effect is not considered in energy simulations, which implies an important lack of accuracy. Since 1980's several international studies have been conducted on the urban heat island (UHI) phenomena, which modifies the atmospheric conditions of the urban centres due to urban agglomeration [1][2][3][4]. In the particular case of Madrid, multiple maps haven been generated using different methodologies during the last two decades [5][6][7]. These maps allow us to study the UHI phenomena from a wide perspective, offering however an static representation of it. Consequently a dynamic model for Madrid UHI is proposed, in order to evaluate it in a continuous way, and to be able to integrate it in building energy simulations.
Resumo:
Este proyecto fin de grado presenta dos herramientas, Papify y Papify-Viewer, para medir y visualizar, respectivamente, las prestaciones a bajo nivel de especificaciones RVC-CAL basándose en eventos hardware. RVC-CAL es un lenguaje de flujo de datos estandarizado por MPEG y utilizado para definir herramientas relacionadas con la codificación de vídeo. La estructura de los programas descritos en RVC-CAL se basa en unidades funcionales llamadas actores, que a su vez se subdividen en funciones o procedimientos llamados acciones. ORCC (Open RVC-CAL Compiler) es un compilador de código abierto que utiliza como entrada descripciones RVC-CAL y genera a partir de ellas código fuente en un lenguaje dado, como por ejemplo C. Internamente, el compilador ORCC se divide en tres etapas distinguibles: front-end, middle-end y back-end. La implementación de Papify consiste en modificar la etapa del back-end del compilador, encargada de la generación de código, de modo tal que los actores, al ser traducidos a lenguaje C, queden instrumentados con PAPI (Performance Application Programing Interface), una herramienta utilizada como interfaz a los registros contadores de rendimiento (PMC) de los procesadores. Además, también se modifica el front-end para permitir identificar cierto tipo de anotaciones en las descripciones RVC-CAL, utilizadas para que el diseñador pueda indicar qué actores o acciones en particular se desean analizar. Los actores instrumentados, además de conservar su funcionalidad original, generan una serie de ficheros que contienen datos sobre los distintos eventos hardware que suceden a lo largo de su ejecución. Los eventos incluidos en estos ficheros son configurables dentro de las anotaciones previamente mencionadas. La segunda herramienta, Papify-Viewer, utiliza los datos generados por Papify y los procesa, obteniendo una representación visual de la información a dos niveles: por un lado, representa cronológicamente la ejecución de la aplicación, distinguiendo cada uno de los actores a lo largo de la misma. Por otro lado, genera estadísticas sobre la cantidad de eventos disparados por acción, actor o núcleo de ejecución y las representa mediante gráficos de barra. Ambas herramientas pueden ser utilizadas en conjunto para verificar el funcionamiento del programa, balancear la carga de los actores o la distribución por núcleos de los mismos, mejorar el rendimiento y diagnosticar problemas. ABSTRACT. This diploma project presents two tools, Papify and Papify-Viewer, used to measure and visualize the low level performance of RVC-CAL specifications based on hardware events. RVC-CAL is a dataflow language standardized by MPEG which is used to define video codec tools. The structure of the applications described in RVC-CAL is based on functional units called actors, which are in turn divided into smaller procedures called actions. ORCC (Open RVC-CAL Compiler) is an open-source compiler capable of transforming RVC-CAL descriptions into source code in a given language, such as C. Internally, the compiler is divided into three distinguishable stages: front-end, middle-end and back-end. Papify’s implementation consists of modifying the compiler’s back-end stage, which is responsible for generating the final source code, so that translated actors in C code are now instrumented with PAPI (Performance Application Programming Interface), a tool that provides an interface to the microprocessor’s performance monitoring counters (PMC). In addition, the front-end is also modified in such a way that allows identification of a certain type of annotations in the RVC-CAL descriptions, allowing the designer to set the actors or actions to be included in the measurement. Besides preserving their initial behavior, the instrumented actors will also generate a set of files containing data about the different events triggered throughout the program’s execution. The events included in these files can be configured inside the previously mentioned annotations. The second tool, Papify-Viewer, makes use of the files generated by Papify to process them and provide a visual representation of the information in two different ways: on one hand, a chronological representation of the application’s execution where each actor has its own timeline. On the other hand, statistical information is generated about the amount of triggered events per action, actor or core. Both tools can be used together to assert the normal functioning of the program, balance the load between actors or cores, improve performance and identify problems.
Resumo:
Present research is framed within the project MODIFICA (MODelo predictivo - edIFIcios - Isla de Calor Urbana) aimed at developing a predictive model for dwelling energy performance under the urban heat island effect in order to implement it in the evaluation of real energy demand and consumption of dwellings as well as in the selection of energy retrofitting strategies. It is funded by Programa de I+D+i orientada a los retos de la sociedad 'Retos Investigación' 2013. The scope of our predictive model is defined by the heat island effect (UHI) of urban structures that compose the city of Madrid. In particular, we focus on the homogeneous areas for urban structures with the same urban and building characteristics. Data sources for the definition of such homogeneous areas were provided by previous research on the UHI of Madrid. The objective is to establish a critical analysis of climate records used for energy simulation tools, which data come from weather stations placed in decontextualized areas from the usual urban reality, where the thermal conditions differs by up to 6ºC. In this way, we intend to develop a new predictive model for the consumption and demand in buildings depending on their location, the urban structure and the associated UHI, improving the future energy rehabilitation interventions
Resumo:
La tesis desvela el origen moderno del modo de afrontar el proyecto de arquitectura mediante métodos de ordenación. Estos procedimientos, fieles a la poética que los respalda, establecen unos principios que anteceden y constituyen la base del método y estos son técnicos, funcionales y sociales. Una cartografía de los principios propuestos por los arquitectos y los teóricos de la arquitectura nos aporta el medio de investigación de la tesis, los libros de arquitecto. La intelectualización y conceptualización que conlleva la arquitectura durante el siglo XX, favorecida por la asociación de los arquitectos, los historiadores y los críticos en encuentros y debates, fomentará la aparición de textos en los que el proyecto de arquitectura se contextualice en su entorno. De esta manera se deja de lado la resolución de un proyecto concreto, mediante la elección entre diversas posibilidades contingentes, para establecer que el acto de proyectar constituye un problema abstracto. Esta postura modifica la resolución del proyecto de arquitectura que ahora se acomete como un caso particular a resolver según los principios y métodos propuestos. Los libros de arquitecto se evidencian como el medio privilegiado para exponer los principios y los métodos de organización de estos, posicionándolos en el ambiente cultural y social. Los principios técnica, función y ciudad que fascinan a los arquitectos desde los años veinte, sufren un proceso de puesta en crisis entre el final de la II Guerra Mundial y la crisis del petróleo del año 1973. A partir de los años setenta pierden su vigencia y ya no deslumbran. Quedan relegados a un principio más, que afecta al proyecto de arquitectura, pero no lo determina. Este desplazamiento en vez de debilitarlos hace que se manifiesten en todo su poder creativo. Las herramientas que explicitan estos principios tales como, la seriación, la modulación, el cambio de escala, los métodos de organización jerarquizados o adaptables, las taxonomías, los diagramas y los relatos, pierden su carga de novedad y de certeza, y su poder metafórico alcanzando la contemporaneidad convertidas en una estructura conceptual sobre la que se organizan los proyectos de arquitectura. ABSTRACT This dissertation reveals the modernist origins of approaching architectural design through organizational methods. These procedures, true to the poetics that back them, establish certain principles that precede and constitute the foundations of the method, and they are technical, functional and social. A map of the principles proposed by architects and architecture theorists provides the means of research of this dissertation; architect’s books. The intellectualization and conceptualization regarding architecture during the 20th century, assisted by the association of architects, historians and critics through conferences and debates, encouraged the advent of texts in which the architectural project is contextualized in its surroundings. In this way, the issue of solving a specific design is set aside by choosing between a diverse set of possible contingencies, establishing that the act of designing constitutes an abstract problem. This stance changed the way the architectural project was carried out by becoming a specific case to be worked out according to the principles and methods proposed. Architect’s books become the privileged means to present the principles and organizational methods of architects, positioning them in cultural and social circles. The principles of technology, functionality and urbanity that had fascinated architects since the 1920s, were put into question between the end of World War II and the 1973 oil crisis. After the 1970s these principles were no longer valid and ceased to amaze. But this displacement, instead of debilitating them, made them appear in their full creative force. The tools that assert these principles, such as serial production, modulation, change of scales, hierarchical or adaptable organizational methods, taxonomies, diagrams and narratives, lose their novel and undisputed content as well as their metaphorical power, reaching us, nowadays, turned into a conceptual structure upon which we organize architectural design.
Resumo:
En la Comunidad de Madrid el modelo de ocupación del territorio en las dos últimas décadas ha obedecido a factores de oferta del mercado y no a las necesidades de la población, ello provoca un consumo de suelo y de recursos que conducen a una sobrexplotación insostenible. Las metrópolis globales están experimentando rápidas e intensas transformaciones, basadas en los paradigmas emergentes de la globalización, la gobernanza, la metropolizacion y la dispersión de las actividades en el territorio y a través de ellos se abordan los planes de Londres, París y las tentativas de Madrid. La globalización provoca la pérdida de soberanía de las administraciones publicas y la competitividad entre las ciudades globales en Europa, Londres, Paris y Madrid, son centros de poder, de concentración y crecimiento donde se produce la dualización del espacio y donde la desigualdad participa de la restructuración urbana, concentración de pobreza frente a espacios de la nueva clase emergente en donde dominan los sectores de servicios y las tecnologías de la información. Frente al desarrollo urbano neoliberal de regulación a través del mercado y basada en criterios de eficiencia de la Nueva Gestión Pública, se vislumbra la posibilidad de que la sociedad se administre a si misma por medio de acciones voluntarias y responsables que promuevan los intereses colectivos mediante el reconocimiento de su propia identidad, introduciendo el concepto de gobernanza. Frente, a la explotación del territorio por parte de la sociedad extractiva que genera corrupcion, se propone un modelo de cooperación público-privada basado en la confianza mutua, un marco regulador estable, la transparencia y la información a cuyo flujo más homogéneo contribuirán sin duda las TICs. En todo este proceso, las regiones metropolitanas en Europa se erigen como motores del crecimiento, donde los límites administrativos son superados, en un territorio cada vez más extendido y donde los gobiernos locales tienen que organizarse mediante un proceso de cooperación en la provisión de servicios que ayuden a evitar los desequilibrios territoriales. El fenómeno de la dispersión urbana en desarrollos de baja densidad, los centros comerciales periféricos, la expulsión hacia la periferia de las actividades de menor valor añadido y la concentración de funciones directivas en el centro, conducen a una fragmentación del territorio en islas dependientes del automóvil y a procesos de exclusión social por la huida de las rentas altas y la expulsión de las rentas bajas de los centros urbanos. Se crean fragmentos monofuncionales y discontinuos, apoyados en las autovías, lugares carentes de identidad y generadores de despilfarro de recursos y una falta de sostenibilidad ambiental, económica y social. El estudio de la cultura de la planificación en Europa ayuda a comprender los diferentes enfoques en la ordenación del territorio y el proceso de convergencia entre las diferentes regiones. Los documentos de la UE se basan en la necesidad de la competitividad para el crecimiento europeo y la cohesión social y en relación al territorio en los desarrollos policéntricos, la resolución del dualismo campo-ciudad, el acceso equilibrado a las infraestructuras, la gestión prudente de la naturaleza, el patrimonio y el fomento de la identidad. Se proponen dos niveles de estudio uno actual, los últimos planes de Londres y Paris y el otro la evolución de las tentativas de planes en la Región madrileña siempre en relación a los paradigmas emergentes señalados y su reflejo en los documentos. El Plan de Londres es estratégico, con una visión a largo plazo, donde se confiere un gran interés al proceso, al papel del alcalde como líder y su adaptación a las circunstancias cambiantes, sujeto a las incertidumbres de una ciudad global. El desarrollo del mismo se concibe a través de la colaboración y cooperación entre las administraciones y actores. La estructura del documento es flexible, establece orientaciones y guías indicativas, para la redacción de los planes locales, no siendo las mismas vinculantes y con escasa representación grafica. El Plan de París es más un plan físico, similar al de otros centros europeos, trabaja sobre los sectores y sobre los territorios, con información extensa, con características de “Plan Latino” por la fuerza de la expresión gráfica, pero al mismo tiempo contiene una visión estratégica. Es vinculante en sus determinaciones y normativas, se plantea fomentar, pero también prohibir. Ambos planes tratan la competitividad internacional de sus centros urbanos, la igualdad social, la inclusión de todos los grupos sociales y la vivienda como una cuestión de dignidad humana. Londres plantea la gobernanza como cooperación entre sector público-privado y la necesaria cooperación con las regiones limítrofes, en París las relaciones están más institucionalizadas resaltando la colaboración vertical entre administraciones. Ambos plantean la densificación de nodos servidos por transporte público, modos blandos y el uso los TODs y la preservación de la infraestructura verde jerarquizada, la potenciación de la red azul y la mejora del paisaje de las periferias. En las “tentativas” de planes territoriales de Madrid se constata que estuvieron sujetas a los ciclos económicos. El primer Documento las DOT del año 1984, no planteaba crecimiento, ni económico ni demográfico, a medio plazo y por ello no proponía una modificación del modelo radio concéntrico. Se trataba de un Plan rígido volcado en la recuperación del medio rural, de la ciudad, el dimensionamiento de los crecimientos en función de las dotaciones e infraestructuras existentes. Aboga por la intervención de la administración pública y la promoción del pequeño comercio. Destaca el desequilibrio social en función de la renta, la marginación de determinados grupos sociales, el desequilibrio residencia/empleo y la excesiva densidad. Incide en la necesidad de viviendas para los más desfavorecidos mediante el alquiler, la promoción suelo público y la promoción del ferrocarril para dar accesibilidad al espacio central. Aboga por el equipamiento de proximidad y de pequeño tamaño, el tratamiento paisajístico de los límites urbanos de los núcleos y el control de las actividades ilegales señalando orientaciones para el planeamiento urbano. Las Estrategias (1989) contienen una visión: la modificación del modelo territorial, mediante la intervención pública a través de proyectos. Plantea la reestructuración económica del territorio, la reconversión del aparato productivo, la deslocalización de actividades de escaso valor añadido y una mayor ubicuidad de la actividad económica. Incide en la difusión de la centralidad hacia el territorio del sur, equilibrándolo con el norte, tratando de recomponer empleo y residencia, integrando al desarrollo económico las periferias entre sí y con el centro. Las actuaciones de transporte consolidarían las actuaciones, modificando el modelo radio concéntrico facilitando la movilidad mediante la red de cercanías y la intermodalidad. El plan se basaba en el liderazgo del Consejero, no integrando sectores como el medio ambiente, ni estableciendo un documento de seguimiento de las actuaciones que evaluara los efectos de las políticas y su aportación al equilibrio territorial, a través de los proyectos realizados. El Documento Preparatorio de las Bases (1995), es más de un compendio o plan de planes, recoge análisis y propuestas de los documentos anteriores y de planes sectoriales de otros departamentos. Presenta una doble estructura: un plan físico integrador clásico, que abarca los sectores y territorios, y recoge las Estrategias previas añadiendo puntos fuertes, como el malestar urbano y la rehabilitación el centro. Plantea la consecución del equilibrio ambiental mediante el crecimiento de las ciudades existentes, la vertebración territorial basada en la movilidad y en la potenciación de nuevas centralidades, la mejora de la habitabilidad y rehabilitación integral del Centro Urbano de Madrid, y la modernización del tejido productivo existente. No existe una idea-fuerza que aglutine todo el documento, parte del reconocimiento de un modelo existente concentrado y congestivo, un centro urbano dual y dos periferias al este y sur con un declive urbano y obsolescencia productiva y al oeste y norte con una dispersión que amenaza al equilibrio medioambiental. Señala como aspectos relevantes, la creciente polarización y segregación social, la deslocalización industrial, la aparición de las actividades de servicios a las empresas instaladas en las áreas metropolitanas, y la dispersión de las actividades económicas en el territorio por la banalización del uso del automóvil. Se plantea el reto de hacer ciudad de la extensión suburbana y su conexión con el sistema metropolitano, mediante una red de ciudades integrada y complementaria, en búsqueda de un mayor equilibrio y solidaridad territorial. Las Bases del PRET (1997) tenían como propósito iniciar el proceso de concertación en que debe basarse la elaboración del Plan. Parte de la ciudad mediterránea compacta, y diversa, y de la necesidad de que las actividades económicas, los servicios y la residencia estén en proximidad, resolviéndolo mediante una potente red de transporte público que permitiese una accesibilidad integrada al territorio. El flujo de residencia hacia la periferia, con un modelo ajeno de vivienda unifamiliar y la concentración del empleo en el centro producen desequilibrio territorial. Madrid manifiesta siempre apostó por la densificación del espacio central urbanizado, produciendo su congestión, frente al desarrollo de nuevos suelos que permitieran su expansión territorial. Precisa que es necesario preservar los valores de centralidad de Madrid, como generador de riqueza, canalizando toda aquella demanda de centralidad, hacia espacios más periféricos. El problema de la vivienda no lo ve solo como social, sino como económico, debido a la pérdida de empleos que supone su paralización. Observa ya los crecimientos residenciales en el borde de la region por el menor valor del suelo. Plantea como la política de oferta ha dado lugar a un modelo de crecimiento fragmentado, desequilibrado, desestructurado, con fuertes déficits dotacionales y de equipamiento, que inciden en la segregación espacial de las rentas, agravando el proceso de falta de identidad morfológica y de desarraigo de los valores urbanos. El plan señalaba que la presión sobre el territorio creaba su densificación por las limitaciones de espacio, Incidía en limitar el peso de la intervención pública, no planteando propuestas de cooperación público-privado. La mayor incoherencia estriba en que los objetivos eran innovadores y coinciden en su mayoría con las propuestas estudiadas de Londres o Paris, pero se intentan implementar a través de un cambio hacia un modelo reticulado homogéneo, expansivo sobre el territorio, que supone un consumo de suelo y de infraestructuras para solucionar un problema inexistente, la gestión de la densidad. Durante las dos últimas décadas en ausencia de un plan regional, la postura neoliberal fue la de un exclusivo control de legalidad del planeamiento, los municipios entraron en un proceso de competencia para aprovechar las iniciales ventajas económicas de los crecimientos detectados, que proporcionaban una base económica “sólida” a unos municipios con escasos recursos en sus presupuestos municipales. La legislación se modifica a requerimiento de grupos interesados, no existiendo un marco estable. Se pierde la figura del plan no solo a nivel regional, si no en los sectores y el planeamiento municipal donde los municipios tiende a basarse en modificaciones puntuales con la subsiguiente pérdida del modelo urbanístico. La protección ambiental se estructura mediante un extenso nivel de figuras, con diversidad de competencias que impide su efectiva protección y control. Este proceso produce un despilfarro en la ocupación del suelo, apoyada en las infraestructuras viarias, y un crecimiento disperso y de baja densidad, cada vez más periférico, produciéndose una segmentación social por dualización del espacio en función de niveles de renta. Al amparo del boom inmobiliario, se produce una falta de política social de vivienda pública, más basada en la dinamización del mercado con producción de viviendas para rentas medias que en políticas de alquiler para determinados grupos concentrándose estas en los barrios desfavorecidos y en la periferia sur. Se produce un incremento de la vivienda unifamiliar, muchas veces amparada en políticas públicas, la misma se localiza en el oeste principalmente, en espacios de valor como el entorno del Guadarrama o con viviendas más baratas por la popularización de la tipología en la frontera de la Región. El territorio se especializa a modo de islas monofuncionales, las actividades financieras y de servicios avanzados a las empresas se localizan en el norte y oeste próximo, se pierde actividad industrial que se dispersa más al sur, muchas veces fuera de la región. Se incrementan los grandes centros comerciales colgados de las autovías y sin población en su entorno. Todo este proceso ha provocado una pérdida de utilización del transporte público y un aumento significativo del uso del vehículo privado. En la dos últimas décadas se ha producido en la región de Madrid desequilibrio territorial y segmentación social, falta de implicación de la sociedad en el territorio, dispersión del crecimiento y un incremento de los costes ambientales, sociales y económicos, situación, que solo, a través del uso racional del territorio se puede reconducir, apoyado en una planificación integrada sensible y participativa. ABSTRACT In Madrid the model of land occupation in the past two decades has been driven by market supply factors rather than the needs of the population. This results in a consumption of land and resources that leads to unsustainable overexploitation. Addressing this issue must be done through sensitive and participatory integrated planning. Global cities are experiencing rapid and intense change based on the emerging paradigms of globalization, governance, metropolization and the dispersion of activities in the territory. Through this context, a closer look will be taken at the London and Paris plans as well as the tentative plans of Madrid. Globalization causes the loss of state sovereignty and the competitiveness among global cities in Europe; London, Paris and Madrid. These are centres of power, concentration and growth where the duality of space is produced, and where inequality plays a part in urban restructuration. There are concentrated areas of poverty versus areas with a new emerging class where the services sector and information technologies are dominant. The introduction of ICTs contributes to a more homogeneous flow of information leading, us to the concept of governance. Against neoliberal urban development based on free market regulations and efficiency criteria as established by the “New Public Management”, emerge new ways where society administers itself through voluntary and responsible actions to promote collective interests by recognizing their own identity. A new model of public-private partnerships surfaces that is based on mutual trust, transparency, information and a stable regulatory framework in light of territorial exploitation by the “extractive society” that generates corruption. Throughout this process, European metropolitan regions become motors of growth where administrative boundaries are overcome in an ever expanding territory where government is organized through cooperative processes to provide services that protect against regional imbalances. Urban sprawl or low-density development as seen in peripheral shopping centres, the off-shoring of low added-value activities to the periphery, and the concentration of business and top management functions in the centre, leads to a fragmentation of the territory in automobile dependent islands and a process of social exclusion brought on by the disappearance of high incomes. Another effect is the elimination of low income populations from urban centres. In consequence, discontinuous expansions and mono-functional places that lack identity materialize supported by a highway network and high resource consumption. Studying the culture of urban planning in Europe provides better insight into different approaches to spatial planning and the process of convergence between different regions. EU documents are based on the need of competitiveness for European growth and social cohesion. In relation to polycentric development territory they are based on a necessity to solve the dualism between field and city, balanced access to infrastructures, prudent management of nature and solidifying heritage and identity Two levels of study unfold, the first being the current plans of London and Île-de-France and the second being the evolution of tentative plans for the Madrid region as related to emerging paradigms and how this is reflected in documents. The London Plan is strategic with a long-term vision that focuses on operation, the role of the mayor as a pivotal leader, and the adaptability to changing circumstances brought on by the uncertainties of a global city. Its development is conceived through collaboration and cooperation between governments and stakeholders. The document structure is flexible, providing guidance and indicative guidelines on how to draft local plans so they are not binding, and it contains scarce graphic representation. The Plan of Paris takes on a more physical form and is similar to plans of other European centres. It emphasizes sectors and territories, using extensive information, and is more characteristic of a “Latin Plan” as seen in its detailed graphic expression. However, it also contains a strategic vision. Binding in its determinations and policy, it proposes advancement but also prohibition. Both plans address the international competitiveness of urban centres, social equality, inclusion of all social groups and housing as issues of human dignity. London raises governance and cooperation between public and private sector and the need for cooperation with neighbouring regions. In Paris, the relations are more institutionalized highlighting vertical collaboration between administrations. Both propose nodes of densification served by public transportation, soft modes and the use of TOD, the preservation of a hierarchical green infrastructure, and enhancing the landscape in urban peripheries. The tentative territorial plans for the Madrid region provide evidence that they were subject to economic cycles. The first document of master guidelines (1984) does not address either economic or demographic growth in the mid term and therefore does not propose the modification of the radio-concentric model. It is a rigid plan focused on rural and urban recovery and the dimensioning of growth that depends on endowments and infrastructures. It advocates government intervention and promotes small business. The plan emphasizes social imbalance in terms of income, marginalization of certain social groups, the imbalance of residence/employment and excessive density. It stresses the need for social rent housing for the underprivileged, promotes public land, and the supports rail accessibility to the central area. It backs facilities of proximity and small size, enhancing the landscaping of city borders, controlling illegal activities and draws out guidelines for urban planning. The strategies (1989) contain a vision: Changing the territorial model through public intervention by means of projects. They bring to light economic restructuring of territory, the reconversion of the productive apparatus, relocation of low value-added activities, and greater ubiquity of economic activity. They also propose the diffusion of centrality towards southern territories, balancing it with the north in an attempt to reset employment and residence that integrates peripheral economic development both in the periphery and the centre. Transport would consolidate the project, changing the radius-concentric model and facilitating mobility through a commuter and inter-modality network. The plan derives itself from the leadership of the minister and does not integrate sectors such as environment. It also does not incorporate the existence of a written document that monitors performance to evaluate the effects of policies and their contribution to the territorial balance. The Preparatory Document of the Bases, (1995) is more a compendium, or plan of plans, that compiles analysis and proposals from previous documents and sectorial plans from other departments. It has a dual structure: An integrating physical plan covering the sectors and territories that includes the previous strategies while adding some strengths. One such point is the urban discomfort and the rehabilitation of the centre. It also poses the achievement of environmental balance through the growth of existing cities, the territorial linking based on mobility, strengthening new centres, improving the liveability and comprehensive rehabilitation of downtown Madrid, and the modernization of the existing production network. There is no one powerful idea that binds this document. This is due to the recognition of an existing concentrate and congestive model, a dual urban centre, two eastern and southern suburbs suffering from urban decay, and an obsolescent productive north and west whose dispersion threatens the environmental balance. Relevant aspects the document highlights are increasing polarization and social segregation, industrial relocation, the emergence of service activities to centralized companies in metropolitan areas and the dispersion of economic activities in the territory by the trivialization of car use. It proposes making the city from the suburban sprawl and its connection to the metropolitan system through a network of integrated and complementary cities in search of a better balance and territorial solidarity. The Bases of PRET (1997) aims to start the consultation process that must underpin the development of the plan. It stems from a compact and diverse Mediterranean city along with the need for economic activities, services and residences that are close. To resolve the issue, it presents a powerful network of public transport that allows integrated accessibility to the territory. The flow of residence to the periphery based on a foreign model of detached housing and an employment concentration in the centre produces territorial imbalance. Madrid always opted for the densification of the central space, producing its congestion, against the development of new land that would allow its territorial expansion. The document states that the necessity to preserve the values of the housing problem is not only viewed as social, but also economic due to the loss of jobs resulting from their paralysis. It notes the residential growth in the regional border due to the low price of land and argues that the policy of supply has led to a fragmented model of growth that is unbalanced, unstructured, with strong infrastructure and facility deficits that affect the spatial segregation of income and aggravate the lack of morphological identity, uprooting urban values. The pressure on the territory caused its densification due to space limitation; the proposed grid model causes land consumption and infrastructure to solve a non-problem, density. Focusing on limiting the weight of public intervention, it does not raise proposals for public-private cooperation. The biggest discrepancy is that the targets were innovative and mostly align with the proposals in London and Paris. However, it proposes to be implemented through a shift towards a uniform gridded model that is expansive over territory. During the last two decades, due to the absence of a regional plan, a neoliberal stance held exclusive control of the legality of urban planning. The municipalities entered a competition process to take advantage of initial economic benefits of such growth. This provided a “solid” economic base for some municipalities with limited resources in their municipal budgets. The law was amended without a legal stable framework at the request of stakeholders. The character of the plan is lost not only regionally, but also in the sectors and municipal planning. This tends to be based on specific changes with the loss of an urban model. Environmental protection is organized through an extensive number of protection figures with diverse competencies that prevent its effective protection. This process squanders the use of the land, backed by increasing road infrastructure, dispersed occupations with low-density growth causing a social segmentation due to space duality based on income levels. During the housing boom, there is a reduction in social public housing policy mostly due to a boost in the market of housing production for average incomes than in rental policies for needy social groups that focus on disadvantaged neighbourhoods and southern suburbs. As a result, there is an increase in single-family housing, often protected by public policy. This is located primarily in the west in areas of high environmental value such as Guadarrama. There is also cheaper housing due to the popularization of typology in the border region. There, territory works as a mono-functional islands. Financial activities and advanced services for companies are located to the north and west where industrial activity is lost as it migrates south, often outside the region. The number of large shopping centres hanging off the highway infrastructure with little to no surrounding population increases. This process leads to the loss of dependency on public transport and a significant increase in the use of private vehicles. The absence of regional planning has produced more imbalance, more social segmentation, more dispersed growth and a lot of environmental, social and economic costs that can only be redirected through rational territorial.
Resumo:
Esta investigación se enmarca dentro del proyecto MODIFICA (modelo predictivo - Edificios - Isla de Calor Urbano), financiado por el Programa de I + D + i Orientada a los Retos de la sociedad 'Retos Investigación' de 2013. Está dirigido a desarrollar un modelo predictivo de eficiencia energética para viviendas, bajo el efecto de isla de calor urbano (AUS) con el fin de ponerla en práctica en la evaluación de la demanda de energía real y el consumo en las viviendas. A pesar de los grandes avances que se han logrado durante los últimos años en el rendimiento energético de edificios, los archivos de tiempo utilizados en la construcción de simulaciones de energía se derivan generalmente de estaciones meteorológicas situadas en las afueras de la ciudad. Por lo tanto, el efecto de la Isla de Calor Urbano (ICU) no se considera en estos cálculos, lo que implica una importante falta de precisión. Centrado en explorar cómo incluir los fenómenos ICU, el presente trabajo recopila y analiza la dinámica por hora de la temperatura en diferentes lugares dentro de la ciudad de Madrid. Abstract This research is framed within the project MODIFICA (Predictive model - Buildings - Urban Heat Island), funded by Programa de I+D+i orientada a los retos de la sociedad 'Retos Investigación' 2013. It is aimed at developing a predictive model for dwelling energy performance under the Urban Heat Island (UHI) effect in order to implement it in the evaluation of real energy demand and consumption in dwellings. Despite great advances on building energy performance have been achieved during the last years, weather files used in building energy simulations are usually derived from weather stations placed in the outskirts of the city. Hence, Urban Heat Island (UHI) effect is not considered in this calculations, which implies an important lack of accuracy. Focused on exploring how to include the UHI phenomena, the present paper compiles and analyses the hourly dynamics of temperature in different locations within the city of Madrid.
Resumo:
The proliferation of video games and other applications of computer graphics in everyday life demands a much easier way to create animatable virtual human characters. Traditionally, this has been the job of highly skilled artists and animators that painstakingly model, rig and animate their avatars, and usually have to tune them for each application and transmission/rendering platform. The emergence of virtual/mixed reality environments also calls for practical and costeffective ways to produce custom models of actual people. The purpose of the present dissertation is bringing 3D human scanning closer to the average user. For this, two different techniques are presented, one passive and one active. The first one is a fully automatic system for generating statically multi-textured avatars of real people captured with several standard cameras. Our system uses a state-of-the-art shape from silhouette technique to retrieve the shape of subject. However, to deal with the lack of detail that is common in the facial region for these kind of techniques, which do not handle concavities correctly, our system proposes an approach to improve the quality of this region. This face enhancement technique uses a generic facial model which is transformed according to the specific facial features of the subject. Moreover, this system features a novel technique for generating view-independent texture atlases computed from the original images. This static multi-texturing system yields a seamless texture atlas calculated by combining the color information from several photos. We suppress the color seams due to image misalignments and irregular lighting conditions that multi-texturing approaches typically suffer from, while minimizing the blurring effect introduced by color blending techniques. The second technique features a system to retrieve a fully animatable 3D model of a human using a commercial depth sensor. Differently to other approaches in the current state of the art, our system does not require the user to be completely still through the scanning process, and neither the depth sensor is moved around the subject to cover all its surface. Instead, the depth sensor remains static and the skeleton tracking information is used to compensate the user’s movements during the scanning stage. RESUMEN La popularización de videojuegos y otras aplicaciones de los gráficos por ordenador en el día a día requiere una manera más sencilla de crear modelos virtuales humanos animables. Tradicionalmente, estos modelos han sido creados por artistas profesionales que cuidadosamente los modelan y animan, y que tienen que adaptar específicamente para cada aplicación y plataforma de transmisión o visualización. La aparición de los entornos de realidad virtual/mixta aumenta incluso más la demanda de técnicas prácticas y baratas para producir modelos 3D representando personas reales. El objetivo de esta tesis es acercar el escaneo de humanos en 3D al usuario medio. Para ello, se presentan dos técnicas diferentes, una pasiva y una activa. La primera es un sistema automático para generar avatares multi-texturizados de personas reales mediante una serie de cámaras comunes. Nuestro sistema usa técnicas del estado del arte basadas en shape from silhouette para extraer la forma del sujeto a escanear. Sin embargo, este tipo de técnicas no gestiona las concavidades correctamente, por lo que nuestro sistema propone una manera de incrementar la calidad en una región del modelo que se ve especialmente afectada: la cara. Esta técnica de mejora facial usa un modelo 3D genérico de una cara y lo modifica según los rasgos faciales específicos del sujeto. Además, el sistema incluye una novedosa técnica para generar un atlas de textura a partir de las imágenes capturadas. Este sistema de multi-texturización consigue un atlas de textura sin transiciones abruptas de color gracias a su manera de mezclar la información de color de varias imágenes sobre cada triángulo. Todas las costuras y discontinuidades de color debidas a las condiciones de iluminación irregulares son eliminadas, minimizando el efecto de desenfoque de la interpolación que normalmente introducen este tipo de métodos. La segunda técnica presenta un sistema para conseguir un modelo humano 3D completamente animable utilizando un sensor de profundidad. A diferencia de otros métodos del estado de arte, nuestro sistema no requiere que el usuario esté completamente quieto durante el proceso de escaneado, ni mover el sensor alrededor del sujeto para cubrir toda su superficie. Por el contrario, el sensor se mantiene estático y el esqueleto virtual de la persona, que se va siguiendo durante el proceso, se utiliza para compensar sus movimientos durante el escaneado.
Resumo:
Este trabajo se centra en el estudio de las investigaciones de Jorge Oteiza en torno a la funcionalidad estética del espacio, en especial, en la actividad artística que desarrolló en el año 1958, un año decisivo en la vida del escultor en el que dio por finalizado su proceso de experimentación sobre la naturaleza espacial de la estatua. En este desenlace tuvo un papel fundamental la relación funcional que planteó, a la hora de retomar su trabajo después de su triunfo en la IV Bienal de São Paulo de 1957, entre la escultura y la arquitectura. La primera, entendida como organismo puramente espacial, debía de responder a las condiciones de su mundo circundante, el espacio arquitectónico. Su función: acondicionarlo estéticamente para satisfacer las necesidades espirituales del habitante. Siguiendo el canon estético que para la escultura acababa de anunciar en Brasil, la desocupación espacial (la liberación de la energía espacial de la estatua, el rompimiento de la neutralidad del espacio libre) no se trataba de embellecer superficialmente la arquitectura sino de activar su vacío interior. Oteiza, que siempre estuvo muy interesado por la arquitectura y que había colaborado con anterioridad en numerosas ocasiones con los mejores arquitectos del país, fue durante este año cuando profundizó de manera más sistemática (teórica y prácticamente) sobre la relación arte-arquitectura. De hecho, él mismo nombraba como el último trabajo de su línea de experimentación en escultura a su propuesta para el concurso del Monumento a José Batlle en Montevideo, que junto al arquitecto Roberto Puig acabaron a finales de año. En el proyecto se planteaba a escala urbana, y como ejemplo concreto, el modelo teórico de integración arquitectura + (arte=0) que había elaborado los meses anteriores, la integración vacía. En el texto explicativo que acompañaba al proyecto (un texto que desbordaba los límites de una memoria al uso) demandaba la necesidad de la toma de conciencia estética del espacio, como acto de libertad individual, y declaraba el fin del rol de espectador del hombre frente a la obra de arte, reclamando su participación activa en la misma. Para él, la noción del espacio estético no era una condición innata en el hombre, se descubría, se aprendía, evolucionaba y se olvidaba (una vez convertido en hábito). Frente a la ceguera de la sensibilidad espacial del hombre, proponía la educación de la percepción espacial, condicionar emocionalmente la reflexión espontánea ante el juego espacial de las formas en la naturaleza y el espectáculo natural de la ciudad. Aprender a leer el lenguaje emocional del espacio, a pensar visualmente. La obra de arte era así un catalizador espiritual del contorno del mundo, modificador de la vida espacial circundante que corregía hábitos visuales y condicionaba estímulos y reflejos. Desde una resonancia afectiva con la definición psicológica del término (como energía psíquica profunda que invita o incita a pasar a la acción), a diferencia del instinto, la pulsión (siendo la fuente de toda conducta espontánea) es susceptible de ser modificada por la experiencia, por la educación, por la cultura, por el deseo. Es desde esta aproximación en términos de energía desde la que se propone la noción pulsiones del espacio como fórmula (reversible) entre la energía espacial liberada en el proceso de desocupación definido por Oteiza y caracterizadora de la obra como vacío activo (en escultura, en arquitectura), y la energía psíquica profunda que invita o incita a la toma de posesión del espacio (la voluntad espacial absoluta con la que Oteiza definía su modelo de arte=0, cero como expresión formal). Si el hombre modifica su entorno al mismo tiempo que es condicionado por él, es indispensable una conciencia estética del espacio que le enseñe, de entre todas las posibilidades que este le ofrece, qué es lo que necesita (qué es lo que le falta), para tomar posesión de él, para un efectivo ser o existir en el espacio. Es desde esta caracterización como energía por lo que las pulsiones del espacio se sitúan entre el hombre y su entorno (construido) y permiten la transformación entre energía espacial y energía psíquica; entre su hábitat y sus hábitos. Por estas mismas fechas, Oteiza definía una casa como un conjunto articulado de vacíos activos, como una obra de plástica pura que no es arte sino en función del habitante. Es este habitante, educado en la toma de conciencia estética del espacio, el que participando activamente en la interpretación de los espacios previstos por el arquitecto, sintiendo y movido por las pulsiones del espacio, hará uso adecuado de la arquitectura; pasando de un arte como objeto a un arte como comportamiento, transformará su habitar en un arte, el arte de habitar. ABSTRACT This work focuses on the study of Jorge Oteiza’s investigations on the aesthetic functionality of space, especially on his artistic activity developed in 1958, a decisive year in the life of the sculptor, in which he gave end to his process of experimentation on the spatial nature of the statue. In this outcome it was fundamental the functional relationship that he propounded, at the time of returning to work after his triumph in the IV Bienal de São Paulo in 1957, between sculpture and architecture. The first, understood as a purely spatial organism, should respond to the conditions of its environment (umwelt), the architectonic space. Its function: set it up aesthetically to meet the spiritual needs of the inhabitant. Following the aesthetic canon that he had just announced in Brazil for sculpture, the spatial disoccupation (the liberation of the spatial energy of the statue, the breaking of the neutrality of the free space) the aim was not to superficially beautify architecture but to activate its inner void. Oteiza, who had always been very interested in architecture and who had previously collaborated on numerous occasions with the best architects in the country, was in this year when he deepened in a more systematic way (theoretically and practically) about the art-architecture relationship. In fact, he named as the last work of his line of experimentation in sculpture to his proposal for the competition of the Monument to José Batlle in Montevideo, which, developed together with the architect Roberto Puig, was ended at the end of the year. The project proposed on an urban scale, and as a concrete example, the theoretical model of integration architecture + (art = 0) which he had elaborated the previous months, the empty integration. In the explanatory text accompanying the project (a text that exceeded the normal extents of a competition statement) he demanded the need of the aesthetic awareness of space, as an act of individual freedom, and it declared the end of the role of man as passive spectator in front of the work of art, claiming his actively participation in it. For him, the notion of the aesthetic space was not an inborn condition in man; first it was discovered, then learned, evolved and finally forgotten (once converted into a habit). To counteract blindness of the spatial sensitivity of man, he proposed the education of spatial perception, to emotionally influence the spontaneous reflection in front of the spatial game of forms in nature and the natural spectacle of the city. Learn to read the emotional language of space, to think visually. The work of art was thus a spiritual catalyst of the world’s contour, a modifier of the surrounding spatial life that corrected visual habits and conditioned stimuli and reflexes. From an emotional resonance with the psychological definition of the term (such as deep psychic power that invites or urges action), as opposed to instinct, drive (being the source of all spontaneous behavior) is likely to be modified by experience, by education, by culture, by desire. It is from this approach in terms of energy from which the notion drives of space is proposed, as a (reversible) formula between the spatial energy released in the process of disoccupation defined by Oteiza and characterizing of the work as a charged void (in sculpture, in architecture), and the deep psychic energy that invites or encourages the taking possession of the space (the absolute spatial will with which Oteiza defined its model of Art = 0, zero as a formal expression). If man changes his environment at the same time that is conditioned by it, it is essential an aesthetic awareness of space that shows him, among all the possibilities that it offers, what he needs (what is what he lacks), in order to take possession of it, for an effective being or existing in space. It is this characterization as energy by what drives of space lie between man and his (built) environment and allow the transformation between spatial and psychological energy; between his habitat and his habits. Around this same time, Oteiza defined a House as an articulated set of charged voids, as a work of pure plastic that is not art but according to the inhabitant. It is this inhabitant, educated in aesthetic awareness of space, who actively participating in the interpretation of the spaces provided by the architect, feeling and moved by the drives of the space, will make proper use of the architecture; from an art as object to an art as behavior, he will transform his inhabitation into an art, the art of inhabitation.
Resumo:
Estudamos transições de fases quânticas em gases bosônicos ultrafrios aprisionados em redes óticas. A física desses sistemas é capturada por um modelo do tipo Bose-Hubbard que, no caso de um sistema sem desordem, em que os átomos têm interação de curto alcance e o tunelamento é apenas entre sítios primeiros vizinhos, prevê a transição de fases quântica superfluido-isolante de Mott (SF-MI) quando a profundidade do potencial da rede ótica é variado. Num primeiro estudo, verificamos como o diagrama de fases dessa transição muda quando passamos de uma rede quadrada para uma hexagonal. Num segundo, investigamos como a desordem modifica essa transição. No estudo com rede hexagonal, apresentamos o diagrama de fases da transição SF-MI e uma estimativa para o ponto crítico do primeiro lobo de Mott. Esses resultados foram obtidos usando o algoritmo de Monte Carlo quântico denominado Worm. Comparamos nossos resultados com os obtidos a partir de uma aproximação de campo médio e com os de um sistema com uma rede ótica quadrada. Ao introduzir desordem no sistema, uma nova fase emerge no diagrama de fases do estado fundamental intermediando a fase superfluida e a isolante de Mott. Essa nova fase é conhecida como vidro de Bose (BG) e a transição de fases quântica SF-BG que ocorre nesse sistema gerou muitas controvérsias desde seus primeiros estudos iniciados no fim dos anos 80. Apesar dos avanços em direção ao entendimento completo desta transição, a caracterização básica das suas propriedades críticas ainda é debatida. O que motivou nosso estudo, foi a publicação de resultados experimentais e numéricos em sistemas tridimensionais [Yu et al. Nature 489, 379 (2012), Yu et al. PRB 86, 134421 (2012)] que violam a lei de escala $\\phi= u z$, em que $\\phi$ é o expoente da temperatura crítica, $z$ é o expoente crítico dinâmico e $ u$ é o expoente do comprimento de correlação. Abordamos essa controvérsia numericamente fazendo uma análise de escalonamento finito usando o algoritmo Worm nas suas versões quântica e clássica. Nossos resultados demonstram que trabalhos anteriores sobre a dependência da temperatura de transição superfluido-líquido normal com o potencial químico (ou campo magnético, em sistemas de spin), $T_c \\propto (\\mu-\\mu_c)^\\phi$, estavam equivocados na interpretação de um comportamento transiente na aproximação da região crítica genuína. Quando os parâmetros do modelo são modificados de maneira a ampliar a região crítica quântica, simulações com ambos os modelos clássico e quântico revelam que a lei de escala $\\phi= u z$ [com $\\phi=2.7(2)$, $z=3$ e $ u = 0.88(5)$] é válida. Também estimamos o expoente crítico do parâmetro de ordem, encontrando $\\beta=1.5(2)$.
Resumo:
Os smart grids representam a nova geração dos sistemas elétricos de potência, combinando avanços em computação, sistemas de comunicação, processos distribuídos e inteligência artificial para prover novas funcionalidades quanto ao acompanhamento em tempo real da demanda e do consumo de energia elétrica, gerenciamento em larga escala de geradores distribuídos, entre outras, a partir de um sistema de controle distribuído sobre a rede elétrica. Esta estrutura modifica profundamente a maneira como se realiza o planejamento e a operação de sistemas elétricos nos dias de hoje, em especial os de distribuição, e há interessantes possibilidades de pesquisa e desenvolvimento possibilitada pela busca da implementação destas funcionalidades. Com esse cenário em vista, o presente trabalho utiliza uma abordagem baseada no uso de sistemas multiagentes para simular esse tipo de sistema de distribuição de energia elétrica, considerando opções de controle distintas. A utilização da tecnologia de sistemas multiagentes para a simulação é baseada na conceituação de smart grids como um sistema distribuído, algo também realizado nesse trabalho. Para validar a proposta, foram simuladas três funcionalidades esperadas dessas redes elétricas: classificação de cargas não-lineares; gerenciamento de perfil de tensão; e reconfiguração topológica com a finalidade de reduzir as perdas elétricas. Todas as modelagens e desenvolvimentos destes estudos estão aqui relatados. Por fim, o trabalho se propõe a identificar os sistemas multiagentes como uma tecnologia a ser empregada tanto para a pesquisa, quanto para implementação dessas redes elétricas.
Resumo:
Esta investigación aborda un fenómeno complejo, el drama videoescénico, que resulta de la integración de la enunciación audiovisual en el modo de representación teatral, centrándose en el marco del teatro español actual. Se plantea que la utilización del audiovisual tiene una repercusión en el teatro que va mucho más allá de su valor tecnológico. Esta irrupción modal, que articula la investigación, genera tensiones con los elementos que conforman el drama. El audiovisual se convierte en un nuevo componente de su configuración y modifica el modo de representación teatral, ampliando sus posibilidades expresivas y cambiando las relaciones entre el personaje, la acción, el espacio y el tiempo. El drama videoescénico se define como el drama teatral que inserta en su construcción la enunciación audiovisual a través de proyección o emisión audiovisual, a la que se denomina representación videoescénica. Se entiende, por consiguiente, como representación videoescénica la imagen, registrada por una videocámara o generadas por ordenador, proyectada en el escenario en interacción con los demás elementos que componen la representación teatral. La representación videoescénica sólo tiene existencia en presencia de esos elementos. Es decir, dentro del drama videoescénico. Se considera, por tanto, que el drama videoescénico es la historia escenificada, incluyendo el argumento dispuesto para ser teatral y audiovisualmente representado en un único producto...
Resumo:
Introdução: Crianças com transtorno fonológico (TF) apresentam dificuldade na percepção de fala, em processar estímulos acústicos quando apresentados de forma rápida e em sequência. A percepção dos sons complexos da fala, dependem da integridade no processo de codificação analisado pelo Sistema Nervoso Auditivo. Por meio do Potencial Evocado Auditivo de Tronco Encefálico com estímulo complexo (PEATEc) é possível investigar a representação neural dos sons em níveis corticais e obter informações diretas sobre como a estrutura do som da sílaba falada é codificada no sistema auditivo. Porém, acredita-se que esse potencial sofre interferências tanto de processos bottom-up quanto top-down, o que não se sabe é quanto e como cada um desses processos modifica as respostas do PEATEc. Uma das formas de investigar a real influência dos aspectos top-down e bottom-up nos resultados do PEATEc é estimulando separadamente esses dois processos por meio do treinamento auditivo e da terapia fonoaudiológica. Objetivo: Verificar o impacto da estimulação sensorial (processamento bottom-up) e cognitiva (processamento top-down), separadamente, nos diferentes domínios da resposta eletrofisiológica do PEATEc. Método: Participaram deste estudo 11 crianças diagnosticadas com TF, com idades entre 7 e 10:11, submetidas a avaliação comportamental e eletrofisiológica e então dividas nos grupos Bottom-up (B-U) (N=6) e Top-down T-D (N=5). A estimulação bottom-up foi voltada ao treinamento das habilidades sensoriais, através de softwares de computador. A estimulação top-down foi realizada por meio de tarefas para estimular as habilidades cognitiva por meio do Programa de Estimulação Fonoaudiológica (PEF). Ambas as estimulações foram aplicadas uma vez por semana, num período de aproximadamente 45 minutos por 12 semanas. Resultados: O grupo B-U apresentou melhoras em relação aos domínios onset e harmônicos e no valor da pontuação do escore após ser submetido à estimulação bottom-up. Por sua vez, após serem submetidos à estimulação top-down, o grupo T-D apresentou melhoras em relação aos domínios onset, espectro-temporal, fronteiras do envelope e harmônicos e para os valores da pontuação do escore. Conclusão: Diante dos resultados obtidos neste estudo, foi possível observar que a estimulação sensorial (processamento bottom-up) e a estimulação cognitiva (processamento top-down) mostraram impactar de forma diferente a resposta eletrofisiológica do PEATEc
Resumo:
El objetivo de este trabajo es caracterizar la flexibilidad, entendida como habilidad para modificar la estrategia de resolución de un problema cuando se modifica la demanda de la tarea, de estudiantes de educación secundaria (12-16 años) en problemas de reconocimiento de patrones con varios apartados. Se utiliza una metodología de tipo cualitativo analizando las respuestas de los estudiantes en base a dos criterios: corrección de las respuestas y estrategias de resolución, y agrupando las que presentan características semejantes. Los resultados indican tres perfiles de estudiantes en relación a la flexibilidad en el uso de estrategias y el éxito alcanzado. El primero agrupa a los estudiantes que usan sólo la estrategia recursiva; la mayor parte de ellos se bloquea al aumentar la demanda cognitiva de la tarea; predominan los estudiantes de 12-13 años. El segundo perfil corresponde a los que cambian de una estrategia recursiva a una aproximación proporcional dando un resultado incorrecto; es más frecuente en los estudiantes de 13-14 años. Finalmente, el tercer perfil agrupa a los estudiantes que al aumentar la demanda cognitiva de la tarea cambian con éxito de una estrategia recursiva a una funcional; su frecuencia aumenta con la edad. Se concluye que la flexibilidad necesaria para identificar patrones cuando se incrementa la demanda de la tarea está relacionada con los conocimientos de los estudiantes y con el control y la regulación del proceso de resolución. Por otra parte, los estudiantes más jóvenes manifestaron menor grado de flexibilidad que los más mayores.
Resumo:
La percepción de profundidad se hace imprescindible en muchas tareas de manipulación, control visual y navegación de robots. Las cámaras de tiempo de vuelo (ToF: Time of Flight) generan imágenes de rango que proporcionan medidas de profundidad en tiempo real. No obstante, el parámetro distancia que calculan estas cámaras es fuertemente dependiente del tiempo de integración que se configura en el sensor y de la frecuencia de modulación empleada por el sistema de iluminación que integran. En este artículo, se presenta una metodología para el ajuste adaptativo del tiempo de integración y un análisis experimental del comportamiento de una cámara ToF cuando se modifica la frecuencia de modulación. Este método ha sido probado con éxito en algoritmos de control visual con arquitectura ‘eye-in-hand’ donde el sistema sensorial está compuesto por una cámara ToF. Además, la misma metodología puede ser aplicada en otros escenarios de trabajo.