86 resultados para Características geométricas estables y robustas
Resumo:
Mediante este trabajo se pretende conocer, por un lado, cómo la recesión económica ha afectado a las microempresas en España y, por otro, si se han llevado a cabo actuaciones estratégicas y, en su caso cuáles, que permitieran combatir dicha recesión. Además se va estudiar, de manera paralela, los efectos de género en la administración de la microempresa en este mismo contexto. Para ello, se va a realizar una exposición teórica sobre las características que definen y diferencian la gestión estratégica empresarial llevada a cabo por las empresas de menos de 10 trabajadores en épocas de crisis, haciendo un especial hincapié en la gestión de la mujer empresaria. Posteriormente, se realizará un estudio empírico exploratorio a nivel nacional, en concreto, se va a realizar un estudio de campo con un análisis estadístico descriptivo
Resumo:
El monte “Cabeza de Hierro”, masa natural de pino silvestre, es un ejemplo de gestión forestal sostenible y de uso múltiple, y reúne ciertas particularidades que hacen muy interesante su caso. Monte privado, ha sido objeto de aprovechamientos madereros al menos desde su adquisición por sus actuales propietarios en 1840. Está ordenado desde 1957. La madera obtenida, de gran calidad, es transformada en su mayor parte en un aserradero cercano de los mismos propietarios. Generador de un considerable número de puestos de trabajo, ha tenido gran importancia en la economía local. Además de la producción de madera ha cumplido y cumple muy eficazmente numerosas funciones ecológicas y ambientales, entre las que podemos destacar la regulación del ciclo hidrológico y la protección frente a la erosión, la generación de un paisaje de gran belleza y el mantenimiento de la biodiversidad; en este sentido destacamos la presencia de una colonia nidificante de buitre negro de reconocida importancia mundial. Fue el primer caso de aplicación en España de los métodos de ordenación de tramo móvil y selvícola. En la tercera revisión de su ordenación, recientemente aprobada, se propone su gestión mediante entresaca regularizada, con cortas por bosquetes, con lo que se pretende mantener la actual estructura de masa irregular por cantones. A continuación se resumen las principales características del monte y las principales propuestas de gestión de su tercera revisión.
Resumo:
El trabajo presenta resultados de la exploración del campo de velocidades en estelas de distintos modelos de barreras porosas, con vistas a suposible utilización para proteger plantaciones o zonas habitadas de los efectos perniciosos del viento. Los ensayos se han hecho en túnel aerodinámico y, para las medidas, se ha utilizado un anemómetro de hilo caliente. Se ha medido: la velocidad media temporal, el nivel de turbulencia y, en algunos casos, el transporte turbulento y la inclinación del vector velocidad, en cuatro secciones distintas corriente abajo de cada barrera. El trabajo está dividido en ocho capítulos. En el primero se discute la posible utilidad de las barreras en agricultura. En el segundo se revisan ciertas características de las estelas turbulentas de diferentes obstáculos,con el fin de contrastar los resultados obtenidos con otros análogos. En el capítulo tercero se describen los métodos de medida. El cuarto presenta el grueso de los resultados, y los cuatro siguientes: la influencia del número de Reynolds, rugosidad del suelo, perfil del viento incidente y presencia de las paredes y techo del túnel, respectivamente. Los ensayos muestran que los perfiles de velocidades correspondientes a secciones situadas a cierta distancia de la barrera (mayor de seis a ocho veces la altura de ésta) se asemejan a los de un semichorro de baja velocidad que descarga paralelamente a una corriente más rápida. Los perfiles próximos y las condiciones iniciales del semichorro dependen de la configuración de la barrera. El modelo del semichorro equivalente permite calcular las características de la estela a distancias mayores que las que es posible reproducir en los experimentos. Por otra parte, sugiere ciertas modificaciones de la forma de la barrera para aumentar la longitud de la zona protegida del viento. La rugosidad del suelo y la existencia de perfiles de viento distintos del uniforme y más ajustados a la realidad, contribuyen a disminuir la longitud de la zona protegida. Esta observación está de acuerdo con los resultados de otros autores. Se observa que el nivel de turbulencia es muy sensible a las características geométricas de la barrera, lo que sugiere la posibilidad de controlar la capa límite sobre el terreno y, por tanto, el transporte de calor y masa en provecho de la productividad de cultivo. El trabajo que se presenta es parte de un programa más amplio, que tiene por objeto transmitir tecnología avanzada a ciertos dominios de interés para la agricultura y la industria.
Resumo:
El quejigo (Quercus faginea Lamk.) es una de las especies arbóreas más características y abundantes en España. El valor ecológico de sus masas es muy alto, pero su actual producción económica es muy baja. En el presente trabajo se estudian las características ecológicas, silvícolas y pascícolas de los quejigares de Guadalajara para tratar de determinar su forma más adecuada de utilización. En el capítulo 1 se recopila, analiza y resume toda la información existente anteriormente sobre el quejigo en España. En el capítulo 2 se estudia la ecología del quejigo en la provincia de Guadalajara, incluyendo los siguientes temas: - Estudio ecológico de los quejigares: clima, suelo, posición topográfica, fauna, acción antrópica, vegetación, etc. - Establecimiento de una tipología forestal para las masas de quejigos. - Cuantificación del desfronde, la biomasa, el efecto fertilizador y la producción del quejigar experimental de Barriopedro. - Estudio de los sistemas de regeneración natural y artificial en el quejigo- - Análisis de la composición específica de un pastizal de quejigar y de las variaciones provocadas en él por claras de distinta intensidad en el estrato arbóreo. II En el capítulo 3 se valora la calidad del arbolado y del pastizal en los quejigares de Guadalajara. En el capítulo 4, y como resultado de los estudios realizados, se concluye analizando las posibilidades de utilización de los quejigares de la provincia: roturación y cultivo agrícola, repoblación forestal, implantación de pastizales, conversión en monte alto, adehesamiento, y mantenimiento del tallar.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
La mayor parte de los entornos diseñados por el hombre presentan características geométricas específicas. En ellos es frecuente encontrar formas poligonales, rectangulares, circulares . . . con una serie de relaciones típicas entre distintos elementos del entorno. Introducir este tipo de conocimiento en el proceso de construcción de mapas de un robot móvil puede mejorar notablemente la calidad y la precisión de los mapas resultantes. También puede hacerlos más útiles de cara a un razonamiento de más alto nivel. Cuando la construcción de mapas se formula en un marco probabilístico Bayesiano, una especificación completa del problema requiere considerar cierta información a priori sobre el tipo de entorno. El conocimiento previo puede aplicarse de varias maneras, en esta tesis se presentan dos marcos diferentes: uno basado en el uso de primitivas geométricas y otro que emplea un método de representación cercano al espacio de las medidas brutas. Un enfoque basado en características geométricas supone implícitamente imponer un cierto modelo a priori para el entorno. En este sentido, el desarrollo de una solución al problema SLAM mediante la optimización de un grafo de características geométricas constituye un primer paso hacia nuevos métodos de construcción de mapas en entornos estructurados. En el primero de los dos marcos propuestos, el sistema deduce la información a priori a aplicar en cada caso en base a una extensa colección de posibles modelos geométricos genéricos, siguiendo un método de Maximización de la Esperanza para hallar la estructura y el mapa más probables. La representación de la estructura del entorno se basa en un enfoque jerárquico, con diferentes niveles de abstracción para los distintos elementos geométricos que puedan describirlo. Se llevaron a cabo diversos experimentos para mostrar la versatilidad y el buen funcionamiento del método propuesto. En el segundo marco, el usuario puede definir diferentes modelos de estructura para el entorno mediante grupos de restricciones y energías locales entre puntos vecinos de un conjunto de datos del mismo. El grupo de restricciones que se aplica a cada grupo de puntos depende de la topología, que es inferida por el propio sistema. De este modo, se pueden incorporar nuevos modelos genéricos de estructura para el entorno con gran flexibilidad y facilidad. Se realizaron distintos experimentos para demostrar la flexibilidad y los buenos resultados del enfoque propuesto. Abstract Most human designed environments present specific geometrical characteristics. In them, it is easy to find polygonal, rectangular and circular shapes, with a series of typical relations between different elements of the environment. Introducing this kind of knowledge in the mapping process of mobile robots can notably improve the quality and accuracy of the resulting maps. It can also make them more suitable for higher level reasoning applications. When mapping is formulated in a Bayesian probabilistic framework, a complete specification of the problem requires considering a prior for the environment. The prior over the structure of the environment can be applied in several ways; this dissertation presents two different frameworks, one using a feature based approach and another one employing a dense representation close to the measurements space. A feature based approach implicitly imposes a prior for the environment. In this sense, feature based graph SLAM was a first step towards a new mapping solution for structured scenarios. In the first framework, the prior is inferred by the system from a wide collection of feature based priors, following an Expectation-Maximization approach to obtain the most probable structure and the most probable map. The representation of the structure of the environment is based on a hierarchical model with different levels of abstraction for the geometrical elements describing it. Various experiments were conducted to show the versatility and the good performance of the proposed method. In the second framework, different priors can be defined by the user as sets of local constraints and energies for consecutive points in a range scan from a given environment. The set of constraints applied to each group of points depends on the topology, which is inferred by the system. This way, flexible and generic priors can be incorporated very easily. Several tests were carried out to demonstrate the flexibility and the good results of the proposed approach.
Resumo:
Los incendios forestales son la principal causa de mortalidad de árboles en la Europa mediterránea y constituyen la amenaza más seria para los ecosistemas forestales españoles. En la Comunidad Valenciana, diariamente se despliega cerca de un centenar de vehículos de vigilancia, cuya distribución se apoya, fundamentalmente, en un índice de riesgo de incendios calculado en función de las condiciones meteorológicas. La tesis se centra en el diseño y validación de un nuevo índice de riesgo integrado de incendios, especialmente adaptado a la región mediterránea y que facilite el proceso de toma de decisiones en la distribución diaria de los medios de vigilancia contra incendios forestales. El índice adopta el enfoque de riesgo integrado introducido en la última década y que incluye dos componentes de riesgo: el peligro de ignición y la vulnerabilidad. El primero representa la probabilidad de que se inicie un fuego y el peligro potencial para que se propague, mientras que la vulnerabilidad tiene en cuenta las características del territorio y los efectos potenciales del fuego sobre el mismo. Para el cálculo del peligro potencial se han identificado indicadores relativos a los agentes naturales y humanos causantes de incendios, la ocurrencia histórica y el estado de los combustibles, extremo muy relacionado con la meteorología y las especies. En cuanto a la vulnerabilidad se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructuras de defensa), como de las características del terreno (valor, capacidad de regeneración…). Todos estos indicadores constituyen una estructura jerárquica en la que, siguiendo las recomendaciones de la Comisión europea para índices de riesgo de incendios, se han incluido indicadores representativos del riesgo a corto plazo y a largo plazo. El cálculo del valor final del índice se ha llevado a cabo mediante la progresiva agregación de los componentes que forman cada uno de los niveles de la estructura jerárquica del índice y su integración final. Puesto que las técnicas de decisión multicriterio están especialmente orientadas a tratar con problemas basados en estructuras jerárquicas, se ha aplicado el método TOPSIS para obtener la integración final del modelo. Se ha introducido en el modelo la opinión de los expertos, mediante la ponderación de cada uno de los componentes del índice. Se ha utilizado el método AHP, para obtener las ponderaciones de cada experto y su integración en un único peso por cada indicador. Para la validación del índice se han empleado los modelos de Ecuaciones de Estimación Generalizadas, que tienen en cuenta posibles respuestas correlacionadas. Para llevarla a cabo se emplearon los datos de oficiales de incendios ocurridos durante el período 1994 al 2003, referenciados a una cuadrícula de 10x10 km empleando la ocurrencia de incendios y su superficie, como variables dependientes. Los resultados de la validación muestran un buen funcionamiento del subíndice de peligro de ocurrencia con un alto grado de correlación entre el subíndice y la ocurrencia, un buen ajuste del modelo logístico y un buen poder discriminante. Por su parte, el subíndice de vulnerabilidad no ha presentado una correlación significativa entre sus valores y la superficie de los incendios, lo que no descarta su validez, ya que algunos de sus componentes tienen un carácter subjetivo, independiente de la superficie incendiada. En general el índice presenta un buen funcionamiento para la distribución de los medios de vigilancia en función del peligro de inicio. No obstante, se identifican y discuten nuevas líneas de investigación que podrían conducir a una mejora del ajuste global del índice. En concreto se plantea la necesidad de estudiar más profundamente la aparente correlación que existe en la provincia de Valencia entre la superficie forestal que ocupa cada cuadrícula de 10 km del territorio y su riesgo de incendios y que parece que a menor superficie forestal, mayor riesgo de incendio. Otros aspectos a investigar son la sensibilidad de los pesos de cada componente o la introducción de factores relativos a los medios potenciales de extinción en el subíndice de vulnerabilidad. Summary Forest fires are the main cause of tree mortality in Mediterranean Europe and the most serious threat to the Spanisf forest. In the Spanish autonomous region of Valencia, forest administration deploys a mobile fleet of 100 surveillance vehicles in forest land whose allocation is based on meteorological index of wildlandfire risk. This thesis is focused on the design and validation of a new Integrated Wildland Fire Risk Index proposed to efficient allocation of vehicles and specially adapted to the Mediterranean conditions. Following the approaches of integrated risk developed last decade, the index includes two risk components: Wildland Fire Danger and Vulnerability. The former represents the probability a fire ignites and the potential hazard of fire propagation or spread danger, while vulnerability accounts for characteristics of the land and potential effects of fire. To calculate the Wildland Fire Danger, indicators of ignition and spread danger have been identified, including human and natural occurrence agents, fuel conditions, historical occurrence and spread rate. Regarding vulnerability se han empleado indicadores representativos de los efectos potenciales del incendio (comportamiento del fuego, infraestructurasd de defensa), como de las características del terreno (valor, capacidad de regeneración…). These indicators make up the hierarchical structure for the index, which, following the criteria of the European Commission both short and long-term indicators have been included. Integration consists of the progressive aggregation of the components that make up every level in risk the index and, after that, the integration of these levels to obtain a unique value for the index. As Munticriteria methods are oriented to deal with hierarchically structured problems and with situations in which conflicting goals prevail, TOPSIS method is used in the integration of components. Multicriteria methods were also used to incorporate expert opinion in weighting of indicators and to carry out the aggregation process into the final index. The Analytic Hierarchy Process method was used to aggregate experts' opinions on each component into a single value. Generalized Estimation Equations, which account for possible correlated responses, were used to validate the index. Historical records of daily occurrence for the period from 1994 to 2003, referred to a 10x10-km-grid cell, as well as the extent of the fires were the dependant variables. The results of validation showed good Wildland Fire Danger component performance, with high correlation degree between Danger and occurrence, a good fit of the logistic model used and a good discrimination power. The vulnerability component has not showed a significant correlation between their values and surface fires, which does not mean the index is not valid, because of the subjective character of some of its components, independent of the surface of the fires. Overall, the index could be used to optimize the preventing resources allocation. Nevertheless, new researching lines are identified and discussed to improve the overall performance of the index. More specifically the need of study the inverse relationship between the value of the wildfire Fire Danger component and the forested surface of each 10 - km cell is set out. Other points to be researched are the sensitivity of the index component´s weight and the possibility of taking into account indicators related to fire fighting resources to make up the vulnerability component.
Resumo:
El Zn es un elemento esencial para el crecimiento saludable y reproducción de plantas, animales y humanos. La deficiencia de Zn es una de las carencias de micronutrientes más extendidas en muchos cultivos, afectando a grandes extensiones de suelos en diferentes áreas agrícolas. La biofortificación agronómica de diferentes cultivos, incrementando la concentración de micronutriente Zn en la planta, es un medio para evitar la deficiencia de Zn en animales y humanos. Tradicionalmente se han utilizado fertilizantes de Zn inorgánicos, como el ZnSO4, aunque en los últimos años se están utilizado complejos de Zn como fuentes de este micronutriente, obteniéndose altas concentraciones de Zn soluble y disponible en el suelo. Sin embargo, el envejecimiento de la fuente en el suelo puede causar cambios importantes en su disponibilidad para las plantas. Cuando se añaden al suelo fuentes de Zn inorgánicas, las formas de Zn más solubles pierden actividad y extractabilidad con el paso del tiempo, transformándose a formas más estables y menos biodisponibles. En esta tesis se estudia el efecto residual de diferentes complejos de Zn de origen natural y sintético, aplicados en cultivos previos de judía y lino, bajo dos condiciones de riego distintas (por encima y por debajo de la capacidad de campo, respectivamente) y en dos suelos diferentes (ácido y calizo). Los fertilizantes fueron aplicados al cultivo previo en tres dosis diferentes (0, 5 y 10 mg Zn kg-1 suelo). El Zn fácilmente lixiviable se estimó con la extracción con BaCl2 0,1M. Bajo condiciones de humedad por encima de la capacidad de campo se obtuvieron mayores porcentajes de Zn lixiviado en el suelo calizo que en el suelo ácido. En el caso del cultivo de judía realizado en condiciones de humedad por encima de la capacidad de campo se compararon las cantidades extraídas con el Zn lixiviado real. El análisis de correlación entre el Zn fácilmente lixiviable y el estimado sólo fue válido para complejos con alta movilidad y para cada suelo por separado. Bajo condiciones de humedad por debajo de la capacidad de campo, la concentración de Zn biodisponible fácilmente lixiviable presentó correlaciones positivas y altamente significativas con la concentración de Zn disponible en el suelo. El Zn disponible se estimó con varios métodos de extracción empleados habitualmente: DTPA-TEA, DTPA-AB, Mehlich-3 y LMWOAs. Estas concentraciones fueron mayores en el suelo ácido que en el calizo. Los diferentes métodos utilizados para estimar el Zn disponible presentaron correlaciones positivas y altamente significativas entre sí. La distribución del Zn en las distintas fracciones del suelo fue estimada con diferentes extracciones secuenciales. Las extracciones secuenciales mostraron un descenso entre los dos cultivos (el anterior y el actual) en la fracción de Zn más lábil y un aumento en la concentración de Zn asociado a fracciones menos lábiles, como carbonatos, óxidos y materia orgánica. Se obtuvieron correlaciones positivas y altamente significativas entre las concentraciones de Zn asociado a las fracciones más lábiles (WSEX y WS+EXC, experimento de la judía y lino, respectivamente) y las concentraciones de Zn disponible, estimadas por los diferentes métodos. Con respecto a la planta se determinaron el rendimiento en materia seca y la concentración de Zn en planta. Se observó un aumento del rendimiento y concentraciones con el efecto residual de la dosis mayores (10 mg Zn kg-1) con respecto a la dosis inferior (5 mg Zn 12 kg-1) y de ésta con respecto a la dosis 0 (control). El incremento de la concentración de Zn en todos los tratamientos fertilizantes, respecto al control, fue mayor en el suelo ácido que en el calizo. Las concentraciones de Zn en planta indicaron que, en el suelo calizo, serían convenientes nuevas aplicaciones de Zn en posteriores cultivos para mantener unas adecuadas concentraciones en planta. Las mayores concentraciones de Zn en la planta de judía, cultivada bajo condiciones de humedad por encima de la capacidad de campo, se obtuvieron en el suelo ácido con el efecto residual del Zn-HEDTA a la dosis de 10 mg Zn kg-1 (280,87 mg Zn kg-1) y en el suelo calizo con el efecto residual del Zn-DTPA-HEDTA-EDTA a la dosis de 10 mg Zn kg-1 (49,89 mg Zn kg-1). En el cultivo de lino, cultivado bajo condiciones de humedad por debajo de la capacidad de campo, las mayores concentraciones de Zn en planta ese obtuvieron con el efecto residual del Zn-AML a la dosis de 10 mg Zn kg-1 (224,75 mg Zn kg-1) y en el suelo calizo con el efecto residual del Zn-EDTA a la dosis de 10 mg Zn kg-1 (99,83 mg Zn kg-1). El Zn tomado por la planta fue determinado como combinación del rendimiento y de la concentración en planta. Bajo condiciones de humedad por encima de capacidad de campo, con lixiviación, el Zn tomado por la judía disminuyó en el cultivo actual con respecto al cultivo anterior. Sin embargo, en el cultivo de lino, bajo condiciones de humedad por debajo de la capacidad de campo, se obtuvieron cantidades de Zn tomado superiores en el cultivo actual con respecto al anterior. Esta tendencia también se observó, en ambos casos, con el porcentaje de Zn usado por la planta. Summary Zinc is essential for healthy growth and reproduction of plants, animals and humans. Zinc deficiency is one of the most widespread micronutrient deficiency in different crops, and affect different agricultural areas. Agronomic biofortification of crops produced by an increased of Zn in plant, is one way to avoid Zn deficiency in animals and humans Sources with inorganic Zn, such as ZnSO4, have been used traditionally. Although, in recent years, Zn complexes are used as sources of this micronutrient, the provide high concentrations of soluble and available Zn in soil. However, the aging of the source in the soil could cause significant changes in their availability to plants. When an inorganic source of Zn is added to soil, Zn forms more soluble and extractability lose activity over time, transforming into forms more stable and less bioavailable. This study examines the residual effect of different natural and synthetic Zn complexes on navy bean and flax crops, under two different moisture conditions (above and below field capacity, respectively) and in two different soils (acid and calcareous). Fertilizers were applied to the previous crop in three different doses (0, 5 y 10 mg Zn kg-1 soil). The easily leachable Zn was estimated by extraction with 0.1 M BaCl2. Under conditions of moisture above field capacity, the percentage of leachable Zn in the calcareous soil was higher than in acid soil. In the case of navy bean experiment, performed in moisture conditions of above field capacity, amounts extracted of easily leachable Zn were compared with the real leachable Zn. Correlation analysis between the leachable Zn and the estimate was only valid for complex with high mobility and for each soil separately. Under moisture conditions below field capacity, the concentration of bioavailable easily leachable Zn showed highly significant positive correlations with the concentration of available soil Zn. The available Zn was estimated with several commonly used extraction methods: DTPA-TEA, AB-DTPA, Mehlich-3 and LMWOAs. These concentrations were higher in acidic soil than in the calcareous. The different methods used to estimate the available Zn showed highly significant positive correlations with each other. The distribution of Zn in the different fractions of soil was estimated with different sequential extractions. The sequential extractions showed a decrease between the two crops (the previous and current) at the most labile Zn fraction and an increase in the concentration of Zn associated with the less labile fractions, such as carbonates, oxides and organic matter. A positive and highly significant correlation was obtained between the concentrations of Zn associated with more labile fractions (WSEX and WS + EXC, navy bean and flax experiments, respectively) and available Zn concentrations determined by the different methods. Dry matter yield and Zn concentration in plants were determined in plant. Yield and Zn concentration in plant were higher with the residual concentrations of the higher dose applied (10 mg Zn kg-1) than with the lower dose (5 mg Zn kg-1), also these parameters showed higher values with application of this dose than with not Zn application. The increase of Zn concentration in plant with Zn treatments, respect to the control, was greater in the acid soil than in the calcareous. The Zn concentrations in plant indicated that in the calcareous soil, new applications of Zn are desirable in subsequent crops to maintain suitable concentrations in plant. 15 The highest concentrations of Zn in navy bean plant, performed under moisture conditions above the field capacity, were obtained with the residual effect of Zn-HEDTA at the dose of 10 mg Zn kg-1 (280.87 mg Zn kg-1) in the acid soil, and with the residual effect of Zn- DTPA-HEDTA-EDTA at a dose of 10 mg Zn kg-1 (49.89 mg Zn kg-1) in the calcareous soil. In the flax crop, performed under moisture conditions below field capacity, the highest Zn concentrations in plant were obtained with the residual effect of Zn-AML at the dose of 10 mg Zn kg-1 (224.75 Zn mg kg-1) and with the residual effect of Zn-EDTA at a dose of 10 mg Zn kg-1 (99.83 mg Zn kg-1) in the calcareous soil. The Zn uptake was determined as a combination of yield and Zn concentration in plant. Under moisture conditions above field capacity, with leaching, Zn uptake by navy bean decreased in the current crop, respect to the previous crop. However, in the flax crop, under moisture conditions below field capacity, Zn uptake was higher in the current crop than in the previous. This trend is also observed in both cases, with the percentage of Zn used by the plant
Resumo:
- Resumen La hipótesis que anima esta tesis doctoral es que algunas de las características del entorno urbano, en particular las que describen la accesibilidad de su red de espacio público, podrían estar relacionadas con la proporción de viajes a pie o reparto modal, que tiene cada zona o barrio de Madrid. Uno de los puntos de partida de dicha hipótesis que el entorno urbano tiene una mayor influencia sobre los viaje a pie que en sobre otros modos de transporte, por ejemplo que en los viajes de bicicleta o en transporte público; y es que parece razonable suponer que estos últimos van a estar más condicionadas por ejemplo por la disponibilidad de vías ciclistas, en el primer caso, o por la existencia de un servicio fiable y de calidad, en el segundo. Otra de las motivaciones del trabajo es que la investigación en este campo de la accesibilidad del espacio público, en concreto la denominada “Space Syntax”, ha probado en repetidas ocasiones la influencia de la red de espacio público en cómo se distribuye la intensidad del tráfico peatonal por la trama urbana, pero no se han encontrado referencias de la influencia de dicho elemento sobre el reparto modal. De acuerdo con la hipótesis y con otros trabajos anteriores se propone una metodología basada en el análisis empírico y cuantitativo. Su objetivo es comprobar si la red de espacio público, independientemente de otras variables como los usos del suelo, incluso de las variables de ajenas entorno no construido, como las socioeconómicas, está o no relacionada estadísticamente con la proporción de peatones viajes en las zonas urbanas. Las técnicas estadísticas se utilizan para comprobar sistemáticamente la asociación de las variables del entorno urbano, denominadas variables independientes, con el porcentaje de viajes a pie, la variable dependiente. En términos generales, la metodología es similar a la usada en otros trabajos en este campo como los de CERVERÓ y KOCKLEMAN (1997), CERVERÓ y DUNCAN (2003), o para los que se utilizan principalmente en la revisión general de TRB (2005) o, más recientemente, en ZEGRAS (2006) o CHATMAN (2009). Otras opciones metodológicas, como los métodos de preferencias declaradas (ver LOUVIERE, HENSHER y SWAIT, 2000) o el análisis basado en agentes (PENN & TURNER, 2004) fueron descartados, debido a una serie de razones, demasiado extensas para ser descritas aquí. El caso de estudio utilizado es la zona metropolitana de Madrid, abarcándola hasta la M-50, es decir en su mayor parte, con un tamaño aproximado de 31x34 Km y una población de 4.132.820 habitantes (aproximadamente el 80% de la población de la región). Las principales fuentes de datos son la Encuesta Domiciliaria de Movilidad de 2004 (EDM04), del Consorcio Regional de Transportes de Madrid que es la última disponible (muestra: > 35.000 familias,> 95.000 personas), y un modelo espacial del área metropolitana, integrando el modelo para calcular los índices de Space Syntax y un Sistema de Información Geográfica (SIG). La unidad de análisis, en este caso las unidades espaciales, son las zonas de transporte (con una población media de 7.063 personas) y los barrios (con una población media de 26.466 personas). Las variables del entorno urbano son claramente el centro del estudio. Un total de 20 índices (de 21) se seleccionan de entre los más relevantes encontrados en la revisión de la producción científica en este campo siendo que, al mismo tiempo, fueran accesibles. Nueve de ellos se utilizan para describir las características de los usos del suelo, mientras que otros once se usan para describir la red de espacios públicos. Estos últimos incluyen las variables de accesibilidad configuracional, que son, como se desprende de su título, el centro del estudio propuesto. La accesibilidad configuracional es un tipo especial de accesibilidad que se basa en la configuración de la trama urbana, según esta fue definida por HILLIER (1996), el autor de referencia dentro de esta línea de investigación de Space Syntax. Además se incluyen otras variables de la red de espacio público más habituales en los estudios de movilidad, y que aquí se denominan características geométricas de los elementos de la red, tales como su longitud, tipo de intersección, conectividad, etc. Por último se incluye además una variable socioeconómica, es decir ajena al entorno urbano, para evaluar la influencia de los factores externos, pues son varios los que pueden tener un impacto en la decisión de caminar (edad, género, nivel de estudios, ingresos, tasa de motorización, etc.). La asociación entre las variables se han establecido usando análisis de correlación (bivariante) y modelos de análisis multivariante. Las primeras se calculan entre por pares entre cada una de las 21 variables independientes y la dependiente, el porcentaje de viajes a pie. En cuanto a los segundos, se han realizado tres tipos de estudios: modelo multivariante general lineal, modelo multivariante general curvilíneo y análisis discriminante. Todos ellos son capaces de generar modelos de asociación entre diversas variables, pudiéndose de esta manera evaluar con bastante precisión en qué medida cada modelo reproduce el comportamiento de la variable dependiente, y además, el peso o influencia de cada variable en el modelo respecto a las otras. Los resultados fundamentales del estudio se expresan en dos modelos finales alternativos, que demuestran tener una significativa asociación con el porcentaje de viajes a pie (R2 = 0,6789, p <0,0001), al explicar las dos terceras partes de su variabilidad. En ellos, y en general en todo el estudio realizado, se da una influencia constante de tres índices en particular, que quedan como los principales. Dos de ellos, de acuerdo con muchos de los estudios previos, corresponden a la densidad y la mezcla de usos del suelo. Pero lo más novedoso de los resultados obtenidos es que el tercero es una medida de la accesibilidad de la red de espacio público, algo de lo que no había referencias hasta ahora. Pero, ¿cuál es la definición precisa y el peso relativo de cada uno en el modelo, es decir, en la variable independiente? El de mayor peso en la mayor parte de los análisis realizados es el índice de densidad total (n º residentes + n º puestos de trabajo + n º alumnos / Ha). Es decir, una densidad no sólo de población, sino que incluye algunas de las actividades más importantes que pueden darse una zona para generar movilidad a pie. El segundo que mayor peso adquiere, llegando a ser el primero en alguno de los análisis estadísticos efecturados, es el índice de accesibuilidad configuracional denominado integración de radio 5. Se trata de una medida de la accesibilidad de la zona, de su centralidad, a la escala de, más un menor, un distrito o comarca. En cuanto al tercero, obtiene una importancia bastante menor que los anteriores, y es que representa la mezcla de usos. En concreto es una medida del equilibrio entre los comercios especializados de venta al por menor y el número de residentes (n º de tiendas especializadas en alimentación, bebidas y tabaco / n º de habitantes). Por lo tanto, estos resultados confirman buena parte de los de estudios anteriores, especialmente los relativas a los usos del suelo, pero al mismo tiempo, apuntan a que la red de espacio público podría tener una influir mayor de la comprobada hasta ahora en la proporción de peatones sobre el resto de modos de transportes. Las razones de por qué esto puede ser así, se discuten ampliamente en las conclusiones. Finalmente se puede precisar que dicha conclusión principal se refiere a viajes de una sola etapa (no multimodales) que se dan en los barrios y zonas del área metropolitana de Madrid. Por supuesto, esta conclusión tiene en la actualidad, una validez limitada, ya que es el resultado de un solo caso — Abstract The research hypothesis for this Ph.D. Thesis is that some characteristics of the built environment, particularly those describing the accessibility of the public space network, could be associated with the proportion of pedestrians in all trips (modal split), found in the different parts of a city. The underlying idea is that walking trips are more sensitive to built environment than those by other transport modes, such as for example those by bicycle or by public transport, which could be more conditioned by, e.g. infrastructure availability or service frequency and quality. On the other hand, it has to be noted that the previously research on this field, in particular within Space Syntax’s where this study can be referred, have tested similar hypothesis using pedestrian volumes as the dependent variable, but never against modal split. According to such hypothesis, research methodology is based primarily on empirical quantitative analysis, and it is meant to be able to assess whether public space network, no matter other built environment and non-built environment variables, could have a relationship with the proportion of pedestrian trips in urban areas. Statistical techniques are used to check the association of independent variables with the percentage of walking in all trips, the dependent one. Broadly speaking this methodology is similar to that of previous studies in the field such as CERVERO&KOCKLEMAN (1997), CERVERO & DUNCAN (2003), or to those used mainly in the general review of T.R.B. (2005) or, more recently in ZEGRAS (2006) or CHATMAN (2009). Other methodological options such as stated choice methods (see LOUVIERE, HENSHER & SWAIT, 2000) or agent based analysis (PENN & TURNER, 2004), were discarded, due to a number of reasons, too long to be described here. The case study is not the entire Madrid’s metropolitan area, but almost (4.132.820 inhabitants, about 80% of region´s population). Main data sources are the Regional Mobility Home Based Survey 2004 (EDM04), which is the last available (sample: >35.000 families, > 95.000 individuals), and a spatial model of the metropolitan area, developed using Space Syntax and G.I.S. techniques. The analysis unit, in this case spatial units, are both transport zones (mean population = 7.063) and neighborhoods (mean population = 26.466). The variables of the built environment are clearly the core of the study. A total of 20 (out of 21) are selected from among those found in the literature while, at the same time, being accessible. Nine out of them are used to describe land use characteristics while another eleven describe the network of public spaces. Latter ones include configurational accessibility or Space Syntax variables. This is a particular sort of accessibility related with the concept of configuration, by HILLIER (1996), one of the main authors of Space Syntax, But it also include more customary variables used in mobility research to describe the urban design or spatial structure (here public space network), which here are called geometric characteristics of the such as its length, type of intersection, conectivity, density, etc. Finally a single socioeconomic variable was included in order to assess the influence non built environment factors that also may have an impact on walking (age, income, motorization rate, etc.). The association among variables is worked out using bi-variate correlation analysis and multivariate-analysis. Correlations are calculated among the 21 independent variables and the dependent one, the percentage of walking trips. Then, three types of multi-variate studies are run: general linear, curvilinear and discriminant multi-variate analysis. The latter are fully capable of generating complex association models among several variables, assessing quite precisely to what extent each model reproduces the behavior of the dependent variable, and also the weight or influence of each variable in the model. This study’s results show a consistent influence of three particular indexes in the two final alternative models of the multi-variate study (best, R2=0,6789, p<0,0000). Not surprisingly, two of them correspond to density and mix of land uses. But perhaps more interesting is that the third one is a measure of the accessibility of the public space network, a variable less important in the literature up to now. Additional precisions about them and their relative weight could also be of some interest. The density index is not only about population but includes most important activities in an area (nº residents + nº jobs+ nº students/Ha). The configurational index (radius 5 integration) is a measure of the accessibility of the area, i.e. centrality, at the scale of, more a less, a district. Regarding the mix of land uses index, this one is a measure of the balance between retail, in fact local basic retail, and the number of residents (nº of convenience shops / nº of residents). Referring to their weights, configurational index (radius 5 integration) gets the higher standardized coefficient of the final equation. However, in the final equations, there are a higher number of indexes coming from the density or land use mix categories than from public space network enter. Therefore, these findings seem to support part of the field’s knowledge, especially those concerning land uses, but at the same time they seem to bring in the idea that the configuration of the urban grid could have an influence in the proportion of walkers (as a part of total trips on any transport mode) that do single journey trips in the neighborhoods of Madrid, Spain. Of course this conclusion has, at present, a limited validity since it’s the result of a single case. The reasons of why this can be so, are discussed in the last part of the thesis.
Resumo:
El funcionamiento de las glorietas es sensible a las características geométricas de los elementos que componen el diseño. Generalmente el diseño geométrico es llevado a cabo mediante procedimientos manuales e iterativos, lo que genera un elevado consumo de tiempo del proyectista. Durante el proceso, los ingenieros tratan de encontrar una solución satisfactoria al problema, tanto en planta como en alzado, aplicando unos criterios derivados de normativas y de la propia experiencia del proyectista. Esta tarea es compleja y laboriosa debido al elevado número de variables, y puede ser simplificada mediante la elaboración de unos algoritmos adecuados. En este artículo se presenta el planteamiendo de una metodología que servirá de base para el desarrollo de un modelo de optimización que proporcione la geometría de la glorieta en planta en base a dos objetivos: la consistencia de las velocidades de circulación y la eficiencia operativa. La eficiencia operativa se caracteriza mediante la demora media de los vehículos y su estudio determina el número de carriles necesarios en las entradas y en la calzada anular. La optimización de la consistencia de las velocidades tiene como objetivo reducir los conflictos y la accidentalidad, además de contribuir a la mejora de la eficiencia de la circulación, ya que permite simplificar la tarea de incorporación de los vehículos en el flujo de la calzada anular. Para su cálculo es necesario determinar previamente las trayectorias de los vehículos y los perfiles de velocidades de las trayectorias más rápidas. Una buena consistencia debe minimizar la variación de velocidad entre los elementos geométricos consecutivos y la velocidad relativa entre corrientes de tráfico en conflicto. Para resolver el problema de optimización se plantea un procedimiento heurístico basado en algoritmos genéticos. El modelo requiere de unos procedimientos para la generación de forma aleatoria de la geometría de la glorieta y para el cálculo de las trayectorias de los vehículos y de las funciones objetivo a partir de la geometría, junto al diseño de unos operadores genéticos que tengan en consideración las interacciones que se presentan entre los elementos que definen la geometría de la glorieta.
Resumo:
Este proyecto de fin de carrera tiene como objetivo obtener una visión detallada de los sistemas y tecnologías de grabación y reproducción utilizadas para aplicaciones de audio 3D y entornos de realidad virtual, analizando las diferentes alternativas existentes, su funcionamiento, características, detalles técnicos y sus ámbitos de aplicación. Como punto de partida se estudiará la teoría psicoacústica y la localización de fuentes sonoras en el espacio, base para el estudio de los sistemas de audio 3D. Se estudiará tanto la espacialización sonora en un espacio real y la espacialización virtual (simulación mediante procesado de información de la localización de fuentes sonoras), en los que intervienen algunos fenómenos acústicos y psicoacústicos como ITD, o diferencia de tiempo que existe entre una señal acústica que llega a los pabellones auditivos, la ILD, o diferencia de intensidad o amplitud que hay entre la señal que llega a los pabellones auditivos y la localización espacial mediante otra serie de mecanismos biaurales. Tras una visión general de la teoría psicoacústica y la espacialización sonora, se analizarán con detalle los elementos de grabación y reproducción existentes para audio 3D. Concretamente, a lo largo del proyecto se profundizará en el funcionamiento del sistema estéreo, caracterizado por el posicionamiento sonoro mediante la utilización de dos canales; del sistema biaural, caracterizado por reconstruir campos sonoros mediante el uso de las HRTF; de los sistemas multicanal, detallando gran parte de las alternativas y configuraciones existentes; del sistema Ambiophonics, caracterizado por implementar filtros de cruce; del sistema Ambisonics, y sus diferentes formatos y técnicas de codificación y decodificación; y del sistema Wavefield Synthesis, caracterizado por recrear ambientes sonoros en grandes espacios. ABSTRACT This project aims to get a detailed view of recording and reproducing systems and technologies used to 3D audio applications and virtual reality environments, analyzing the different alternatives available, their functioning, features, technical details and their different scopes of applications. As a starting point, will be studied the psychoacoustic theory and the localization of sound sources in space, basis for the 3D audio study. Will be studied both the spacialization of sound sources in real space as virtual spatialization of sound sources (simulation by information processing of localization of sound sources), in which involves some acoustic and psychoacoustic phenomena like ITD (or the Interaural time difference), the ILD, (or the Interaural Level Difference) and spatial localization by another set of binaural mechanisms. After a general overview of the psychoacoustics theory and the sound spatialization, will be analyzed in detail existing methods of recording and reproducing for 3D audio. Specifically, during the project will analyze the characteristics of the stereo systems, characterized by sound positioning using two channels; the binaural systems, characterized by reconstructing sound fields by using the HRTF; the multichannel systems, detailing many of the existing alternatives and configurations; the Ambiophonics system, which is characterized by implementing crosstalk elimination techniques; the Ambiosonics system, and its various formats and encoding and decoding techniques; and the Wavefield Synthesis system, characterized by recreate soundscapes in large spaces.
Resumo:
El alcornoque tiene un gran valor ambiental, como integrante de los ecosistemas forestales mediterráneos, e interés comercial por el valor de la bellota (alimentación del cerdo ibérico), el carbón, la madera y sobre todo por las aplicaciones industriales del corcho. Las posibilidades de mejora genética del alcornoque, como las de otras especies forestales, están limitadas por sus largos ciclos reproductivos y porque su propagación vegetativa mediante estaquillado solo es posible en estados muy juveniles. Por ello este sistema de propagación tiene muy poca, o ninguna, utilidad práctica en la mejora genética. La embriogénesis somática es la vía más apropiada para la clonación de muchas especies forestales y ha hecho posible el desarrollo a gran escala de plantaciones multivarietales de coníferas. En alcornoque es posible la regeneración completa de árboles adultos mediante embriogénesis somática. Con los protocolos actuales (en medio semisólido), los embriones se generan formando acúmulos y en la fase de multiplicación conviven embriones en distintos estados de desarrollo. Es un sistema asincrónico, con baja eficacia para la propagación en masa, que no elimina completamente las dificultades para el desarrollo de programas de mejora genética del alcornoque. En otras especies la utilización de medios líquidos ha mejorado: la sincronización, productividad de los cultivos, el manejo y reducido los costes de producción. Por ello el desarrollo de suspensiones embriogénicas de alcornoque se plantea como una vía para aumentar la eficacia de la propagación clonal a gran escala. En la presente tesis se desarrollan cultivos embriogénicos de alcornoque en medio líquido. El capítulo 3 aborda el establecimiento y mantenimiento de suspensiones, el capítulo 4 el desarrollo de una fase de proliferación en medio líquido y el capítulo 5 la utilización de sistemas de cultivo en medio líquido, estacionarios y de inmersión temporal, como vía para favorecer la maduración de los embriones somáticos. Para iniciar los cultivos en medio líquido se emplearon agregados de embriones tomados de la fase de proliferación en medio semisólido. Cuando estos agregados se inocularon directamente en medio líquido no se logró el establecimiento de las suspensiones. El establecimiento se consiguió empleando como inóculo las células y Resumen pequeños agregados embriogénicos, de tamaño comprendido entre 41 y 800 μm, desprendidas por agitación breve de los agregados de embriones. El mantenimiento se logró inoculando en baja densidad masas embriogénicas compactas de tamaño comprendido entre 0,8 y 1,2 mm. Estas suspensiones, muy heterogéneas, mantuvieron su capacidad de proliferación y de regeneración de embriones al menos durante diez subcultivos consecutivos. El protocolo de iniciación y mantenimiento, desarrollado inicialmente con un solo genotipo, fue eficaz cuando se probó sobre otros 11 genotipos de alcornoque. En la fase de proliferación se ensayaron tres tipos de envase y tres velocidades de agitación. La combinación envase × velocidad determinó el intercambio gaseoso, la disponibilidad de oxígeno y el estrés hidrodinámico. Los agregados embriogénicos de alcornoque crecieron incluso en condiciones de hipoxia no siendo la disponibilidad de oxígeno un factor limitante del crecimiento para tasas de trasferencia de oxígeno comprendidas entre 0,11 h-1 y 1,47 h-1. Por otra parte la producción de biomasa creció con el estrés hidrodinámico para valores de índice de cizalladura inferiores a 5 x 10-3 cm min-1. La mayor producción de biomasa se obtuvo con matraces Erlenmeyer de 100 ml y alta velocidad de agitación (160 rpm) mientras que la diferenciación de embriones se vio favorecida por bajas velocidades de agitación (60 rpm) asociadas con bajas disponibilidades de oxígeno. La posibilidad de madurar embriones de alcornoque en medio líquido se estudió utilizando sistemas de inmersión permanente y sistemas de inmersión temporal. En inmersión permanente no se diferenciaron embriones cotiledonares (posiblemente por hiperhidricidad). Los sistemas de inmersión temporal permitieron obtener embriones maduros en estado cotiledonar y capaces de regenerar plantas in vitro. Concentraciones de sacarosa superiores a 60 g l-1 y frecuencias de inmersión iguales o inferiores a una diaria, tuvieron efectos negativos para el desarrollo de los embriones somáticos. En los sistemas de inmersión temporal los parámetros físico-químicos del medio de cultivo se mantuvieron estables y no se observó ninguna limitación de nutrientes. No obstante, estos sistemas se vieron afectados por la evaporación que generó el flujo de aire necesario para desplazar el líquido en cada periodo de inmersión. Abstract ABSTRACT Cork oak is one of the most important tree species of the Mediterranean ecosystem. Besides its high environmental value has a great economic interest due to the sustainable production of acorns (to feed the Iberian pig) charcoal, timber and cork, which is a renewable natural product with various technological applications. As happens with other forest species, cork oak genetic improvement programs are limited by their long life cycles and because vegetative propagation by cuttings it´s only possible in very juvenile plants. Hence this propagation system is useless or has little practical use for breeding cork oak. Plant regeneration by somatic embryogenesis is the most suitable way for cloning many forest species, and it is the enabling technology which has allowed the establishment of large-scale conifer multi-varietal plantations. Clonal plant regeneration of mature cork oak trees can be achieved through somatic embryogenesis. Somatic embryos at different stages of development and forming clusters are produced during the multiplication phase with current protocols (using semisolid medium). This is an asynchronous low-efficient process not suitable for mass propagation, and therefore it does not solve the difficulties presented by cork oak breeding programs. Culture in liquid medium has been used with other species to improve: synchronization, yield, handling, and to reduce production costs. Thus the development of cork oak embryogenic suspension cultures is envisaged as a way to increase the efficiency of large scale clonal propagation. The thesis herein develops cork oak embryogenic cultures in liquid medium. In chapter 3 establishment and maintenance of suspension cultures are developed, chapter 4 studies proliferation phase in liquid medium and chapter 5 considers the use of different systems of culture in liquid medium, both stationary and temporary immersion, as a way to promote somatic embryos maturation. Clusters of embryos taken from proliferating cultures on semisolid medium were used to initiate the cultures in liquid medium. When these clusters were inoculated directly in liquid medium establishment of suspension cultures was not executed. However using, as initial inoculum, cells and cell aggregates with a size between 41 and 800 μm detached from these clusters of embryos, subjected to a brief shaking, suspension cultures could be established. Suspension maintenance was achieved by inoculating compact embryogenic Abstract clumps with a size between 0.8 and 1.2 mm at low density. The suspension cultures, very heterogeneous, retained both their proliferation and embryo regeneration capacity for at least ten consecutive subcultures. The initiation and maintenance protocol, initially developed with a single genotype, was effective when tested on 11 additional genotypes of cork oak. In proliferation phase three types of vessels and three different levels of agitation were assayed. The combination vessel × orbiting speed determined gas exchange, oxygen availability and hydrodynamic stress. Cork oak embryogenic aggregates grew even under hypoxia conditions; oxygen availability at transfer rates between 0.11 and 1.47 h-1 was not a limiting factor for growth. Furthermore the biomass production was increased with hydrodynamic stress when shear rate values were of less than 5 x 10-3 cm min-1. The highest biomass production was obtained with 100 ml Erlenmeyer flask and high stirring speed (160 rpm) while the differentiation of embryos was favored by low agitation speeds (60 rpm) associated with low oxygen availability. The possibility to mature cork oak somatic embryos in liquid medium was studied using both permanent immersion systems and temporary immersion systems. Cotyledonary embryos did not differentiate in permanent immersion conditions (probably due to hyperhydricity). Temporary immersion systems allowed obtaining mature cotyledonary embryos, which were able to regenerate plants in vitro. Sucrose concentrations above 60 g l-1 and immersion frequencies equal to or lower than one each 24 h had negative effects on somatic embryo development. Physicochemical parameters of the culture medium in temporary immersion systems were stable and showed no limitation of nutrients. However, these systems were affected by the evaporation generated by the airflow necessary to relocate the medium at each immersion period.
Resumo:
El objeto del proyecto es determinar los métodos estadísticos adecuados para la evaluación de los resultados de un ejercicio de intercomparación entre laboratorios para ensayos de aptitud de áridos para hormigón, mortero y balasto. Los ensayos estudiados son los aludidos en la norma UNE-EN 12620:2002 de áridos para hormigón, UNE-EN 13139:2003 para mortero, y UNE-EN 13450:2003 para balasto, que pueden clasificarse según las propiedades a determinar: - Geométricas - Mecánicas y Físicas - Térmicas y de Alteración - Químicas Los criterios aplicables para el desarrollo de los trabajos son los exigidos por la Entidad Nacional de Acreditación (ENAC) para laboratorios acreditados conforme a la Norma UNE-EN ISO/IEC 17025 y para proveedores acreditados conforme a la Norma UNE-EN ISO/IEC 17043. ABSTRACT The purpose of the project is to determine the appropriate statistical methods to evaluate the results of an intercomparison exercise among laboratories for proficiency testing of aggregates for concrete, mortar and ballast. The studied assays are mentioned in the UNE-EN 12620:2002 standard of aggregates for concrete, UNE-EN 13139:2003 for mortar, and UNE-EN 13450:2003 for ballast, which can be classified according to the properties to determine: - Geometric - Mechanical and Physical - Thermal and Alteration - Chemical The criteria for the development of the work are those required by the National Accreditation Body (ENAC) for laboratories accredited according to the UNE-EN ISO / IEC 17025 and for suppliers according to the UNE-EN ISO / IEC 17043.
Resumo:
El enjarje es la zona del arranque de la bóveda en la que nervios y molduras se tallan unidos, y esto es posible gracias a una eficaz estrategia constructiva, capaz de dar lugar a una gran variedad de resultados, incluyendo diversos tipos de cruce de molduras(Rabasa 2000, Rabasa 2007, Rabasa 2011). Un caso especial es el enjarje de nervios que emergen del muro sin pilastra ni ménsula y que convergen en un punto. El primer ejemplo se localiza en 1335 en el refectorio de la abadía de Bebenhausen(Michler 1998, 67), cerca de Stuttgart. En esta zona fronteriza entre Francia y Alemania se estaba experimentando con nervios que emergen del muro de manera directa desde principios del XIV, generalmente evitando intersecciones demasiado complejas; Bebenhausenes un ejemplo sobresaliente en este entorno de innovación constructiva. Otro hito en este desarrollo lo protagoniza, a mediados del siglo XIV, la Sala de Teología de El Palacio de los Papas de Aviñón, con unos enjarjes de molduras cruzadas, no convergentes, de cuidado diseño y ejecución, que ofrecen un aspecto un tanto masivo debido a la sencillez de los perfiles de los nervios (Domenge2009).1 A partir de este momento, el foco de esta innovación se moverá hacia el sur de Francia, con ejemplos tan destacables como el claustro de la catedral de Narbona, donde encontramos tres enjarjes diferentes y consecutivos, uno de ellos también de nervios que convergen en un punto.2 El mecenazgo de los duques de Borgoña será fundamental en este período aunque, lamentablemente, en Dijon no quedan edificios que den testimonio de ese florecimiento constructivo. A principios del siglo XV Guillem Sagrera hará de los enjarjes de molduras cruzadas su sello personal, centrando en las intersecciones complejas la muestra de su gran capacidad como proyectista y cantero. Su obra se desarrolla en el Rosellón, Mallorca y Nápoles. En la sala capitular de la catedral de Perpiñán, y dentro de la gran variedad de soluciones para enjarjes que el maestro desarrolla en ella, encontramos un enjarje de las características del de Bebenhausen o Narbona (Senent 2012). Contemporáneamente a Sagrera,y en Valencia y sus alrededores, se construyen tres ejemplos diferentes con enjarjes de nervios que emergen de un punto. Con tan pocos precedentes, es sorprendente localizar en un área tan pequeña estos ejemplos similares. La gran calidad de su ejecución, la dificultad de clara atribución de dichas obras a uno o varios autores, y el hecho de tratarse de fábricas de gran importancia y envergadura, suscitan gran interés. Se encuentran en este episodio el gran claustro de la cartuja de Valdecristo (Altura), el refectorio del monasterio de Santa María de la Valldigna (Tavernes de la Valldigna) y el claustro del monasterio de la Trinidad en Valencia. Diseñar un enjarje de estas características no es algo mecánico ni su resultado es fortuito, sino fruto de una voluntad clara. Los canteros habían comprendido las reglas geométricas, compositivas y constructivas del gótico y, gracias a su formación y maestría, eran capaces de proponer nuevas soluciones, empleando plantillas y líneas directrices(Rabasa y Pérez de los Ríos 2013).Mediante el análisis geométrico y constructivo de cada uno de estos casos valencianos pretendemos arrojar luz sobre el modo de concepción de los mismos y contrastar si en los tres casos se siguen las mismas reglas; comprobaremos que, a pesar de las similitudes, nos encontramos con tres soluciones diferentes en la ejecución práctica y el detalle.
Resumo:
La aplicación de las estrategias que promuevan la eficiencia energética y la sostenibilidad en el sector de la construcción es una tarea de fundamental importancia que estamos llamados a llevar a cabo como ciudadanos, profesionales e investigadores. Esta tesis doctoral se enmarca dentro de los trabajos de investigación llevados a cabo en los últimos años que, en la línea más general de analizar sistemas a la vez energéticamente eficientes y beneficiosos para la mejora del confort de los usuarios, se han centrado en la caracterización de los efectos sobre edificios y medioambiente derivados de la aplicación de fachadas vegetales en el ámbito arquitectónico. La investigación parte del análisis del papel que las envolventes vegetales han tenido en relación a la arquitectura a lo largo de la Historia, para luego examinar su papel actual que, más allá de su reconocido valor estético, cada vez más cobra una función arquitectónica propia. Prueba de ello es la creciente integración de las superficies vegetales experimentada en los últimos años tanto en entornos arquitectónicos como urbanos; reflejo, a su vez, del desarrollo gradual de nuevas investigaciones sobre fachadas vegetales y de la difusión de diferentes sistemas en el mercado. Tras realizar un análisis detallado de los resultados obtenidos hasta el momento en el campo de la investigación y una vez detectadas sus carencias, se procede a plantear el objetivo general de esta tesis: analizar el comportamiento térmico de una solución constructiva que incorpore un elemento vegetal, a través de la monitorización de un prototipo experimental a escala real, así como, generar una herramienta flexible que permita predecir el comportamiento térmico de determinados tipos de fachadas vegetales, posibilitando su utilización en contextos diferentes al de estudio. Con el fin de elegir el sistema de fachada vegetal más adecuado para el estudio experimental, se realizan un análisis y una catalogación de los sistemas de fachadas vegetales existentes en el mercado. Para cada sistema, se destacan las principales características, las ventajas y los inconvenientes. Para evaluar la aplicabilidad del sistema a gran escala, se fijan unos criterios de selección basados en el grado de industrialización, la eficiencia energética y la sostenibilidad. Finalmente, se elige el sistema más adecuado para el estudio experimental: sistema con elementos modulares industrializados prevegetados compuestos por cajas contenedoras de sustrato y vegetación perenne. Como siguiente paso, se procede al diseño del experimento y se da comienzo a la fase experimental que comprende más de tres años, distinguiéndose dos etapas. En ambas, la experimentación se basa en la comparación de dos cerramientos idénticos cuya única diferencia está constituida por una capa de vegetación existente en uno de ellos. En una primera etapa, a través de un tratamiento estadístico de los datos, se analiza el comportamiento energético de un cerramiento sin aislante con el objetivo de caracterizar térmicamente el elemento vegetal (sustrato más vegetación), eliminado las variables relativas a la composición del cerramiento. En una segunda etapa, se monitoriza un cerramiento con aislante con el fin de verificar la efectividad energética del sistema vegetal en cerramientos aislados. Tras corroborar la eficacia energética de dicho sistema, incluso en cerramientos aislados, se concluye el trabajo con el desarrollo de un modelo de predicción del comportamiento térmico de determinados tipos de fachadas vegetales. El modelo, de rápida y sencilla utilización, permite estimar el comportamiento térmico de una fachada vegetal en función de la temperatura exterior, la humedad relativa del aire en el exterior y la irradiancia global. Dicho modelo, desarrollado a partir de los datos tomados durante la monitorización, ha sido validado experimentalmente mostrando un elevado grado de fiabilidad. ABSTRACT Mettere in atto strategie di promozione dell'e_cienza energetica e della sostenibilità nel settore delle costruzioni è un compito di fondamentale importanza che siamo chiamati a svolgere, come cittadini, professionisti e ricercatori. Questa tesi si colloca all'interno delle ricerche che, nella linea generale di sviluppo di sistemi che siano sia effcienti dal punto di vista energetico sia vantaggiosi dal punto di vista del miglioramento del comfort degli utenti, negli ultimi anni si sono occupate di indagare gli effetti sulle costruzioni e sull'ambiente derivati dall'applicazione di facciate verdi negli edifici. La ricerca si sviluppa partendo dall'analisi del ruolo che coperture e facciate verdi hanno avuto nel corso della storia dell'Architettura per poi giungere ad esaminare il loro ruolo nell'attualit_a: oltre a un roconosciuto valore estetico in maniera crescente queste tecnologie sono chiamate a svolgere una funzione architettonica propria. Ciò è dimostrato dalla crescente integrazione di superfici verdi sia a livello architettonico sia a livello urbano registrata negli ultimi anni, che è a sua volta conseguenza del graduale sviluppo di nuove ricerche sulle facciate verdi e della diffusione nel mercato di differenti sistemi. Dopo aver realizzato un'analisi dettagliata dei risultati ottenuti finora nel campo della ricerca e una volta individuate le loro carenze, si procede a fissare l'obiettivo generale di questa tesi: analizzare il comportamento termico di una soluzione costruttiva che incorpora un elemento di vegetale attraverso il monitoraggio di un prototipo sperimentale in scala reale, così come generare uno strumento essibile che consenta di prevedere il comportamento termico di alcuni tipi di facciate verdi, possibilitando il suo uso in contesti diversi da quello studiato. Al fine di scegliere il sistema di facciata verde pi_u adatto allo studio sperimentale, si effettua un'analisi e una catalogazione dei sistemi attualmente esistenti nel mercato. Per ogni sistema si mettono in evidenza le sue principali caratteristiche, i vantaggi e gli svantaggi, e si fissano criteri di selezione basati sul livello di industrializzazione del sistema, sulla sua efficienza energetica e sulla sostenibilità, con il fine ultimo di promuovere l'applicabilità del sistema a larga scala. Infine, si sceglie il sistema più adeguato per lo studio sperimentale: il sistema industrializzato modulare composto da pannelli prevegetati con substrato e vegetazione perenne. Come passo successivo, si procede allo sviluppo dell'esperimento e si dà inizio alla sperimentazione, composta da due fasi, che si sviluppa durante più di tre anni. In entrambe le fasi, la sperimentazione si basa sul confronto di due serramenti identici la cui unica differenza è costituita dallo strato di vegetazione presente in uno di essi. Nella prima fase, attraverso un trattamento statistico dei dati, si analizza il comportamento energetico di un involucro non isolato per caratterizzare termicamente l'elemento vegetale (vegetazione più substrato), eliminando le variabili relative alla composizione del serramento. Nella seconda fase, si studia un involucro isolato con il fine di verificare l'efficacia energetica del sistema verde in serramenti isolati. Dopo aver dimostrato che il sistema è effciente anche quando applicato in involucri isolati, il lavoro si conclude con lo sviluppo di un modello predittivo del comportamento termico di alcuni tipi di facciate verdi. Il modello, veloce e di semplice utilizzo, permette la stima del comportamento termico di una facciata verde conoscendo la temperatura esterna, l'umidità relativa esterna e l'irradianza globale. Questo modello, sviluppato a partire da dati di monitoraggio, è stato validato sperimentalmente mostrando un elevato grado di precisione.