1000 resultados para ANALISIS DEL SUELO
Resumo:
Es importante poder conocer la deformación que sufre una estructura en momentos concretos por carga, temperatura y comportamiento del suelo, refiriéndola a un marco externo estable. Esto puede realizarse mediante un control geodésico de deformaciones. La posterior comparación entre las coordenadas obtenidas de las diversas campañas de control, nos darán los movimientos relativos de la presa (o vectores de deformación) y alrededores, indicando si ha sufrido alguna deformación, información de suma importancia a la hora del mantenimiento y detección de posibles incidencias ocurridas en la estructura. La presa de La Tajera, ubicada en el río Tajuña en su tramo de cabecera, cuenta con una cuenca vertiente de 595 km2, desde la cual se atienden la mayoría de las demandas de la cuenca. La presa de titularidad estatal, lleva en servicio desde el año 1994. En Octubre de 2010, la Confederación Hidrográfica encargó la reobservación de la red geodésica de control y la comparación con la campaña de 1993 de la presa de La Antes de entrar en carga, con el embalse vacío y a altas temperaturas, se detectó una fisura en el paramento de aguas abajo, a lo largo de la transición entre bóveda y zócalo, extendiéndose hasta la clave de la galería perimetral. Motivo por el cual, se realizaron entre 2001 y 2002, varios trabajos de reparación, debido a los cuales se obstruyó parte del acceso a la infraestructura de control. La infraestructura de control de la presa de La Tajera consta de: - Red de pilares de control (incluyendo ménsulas de paramento en el extradós del muro de presa, en dos niveles.). - Red de nivelación trigonométrica de precisión de ménsulas de paramento. - Nivelación geométrica de precisión de las líneas existentes. Debido a la falta de control de geodésico desde el 1993, la comparación entre grupos de coordenadas, de tan solo dos épocas diferentes, aportó menos información que la que se hubiera obtenido haciendo controles anuales, puesto que no se pudo discernir entre movimientos atribuidos al asentamiento, carga, temperatura, fisuras u otros. En el 1993 se utilizó para la observación de la red el láser submilimétrico ME-5000, actualmente descatalogado, debido a lo cual, en el 2010 se optó por usar otro instrumento de gran precisión, para aprovechar la precisión del grupo de observaciones del 93, una Estación Total TRIMBLE S6, puesto que los requerimientos técnicos de precisión, quedaron cubiertos con sus precisiones instrumentales. Debido lo anterior, hubo que buscar un sistema común, coherente y riguroso de cálculo, para relacionar ambos grupos de observaciones bajo unos criterios comunes y poder así realizar un estudio comparativo de resultados. Previo a la observación, además de todas las verificaciones rutinarias, se uso un estudio de puntería por desorientación sobre los miniprimas, que concluía con la introducción de un casquillo suplementario de 13 mm, para evitar un posible error. También se realizó un estudio, para determinar el error producido, en las medidas de distancia, por la presión y la temperatura en el electrodistanciómetro. Como dato a tener en cuenta sobre las estaciones robóticas, decir que, durante la observación de la red de pilares hubo que detener el desagüe de la presa, puesto que las vibraciones producidas por este, impedían al sistema de puntería automática (Autolock) fijar la dirección a la estación visada. La nivelación trigonométrica de las ménsulas de paramento se hizo, en ambos años, por Nivelación trigonométrica de Precisión, descomponiendo la figura en triángulos independientes y observando cenitales recíprocos y simultáneos, con 3 teodolitos Wild T2 provistos de placas Nitrival pequeñas, esta técnica tiende a compensar errores de coeficiente de refracción y de esfericidad. Un error en la distancia geométrica repercute en función del coseno del ángulo cenital. Como en nuestro caso la determinación de distancias fue milimétrica, y las alturas de instrumentos eran las mismas, la precisión que obtuvimos en la determinación de desniveles fue submilimétrica. Las líneas de nivelación existentes se observaron, como en 1993, con nivelación geométrica de precisión, realizada con un equialtímetro NA2 provisto de micrómetro y observando sobre mira con escala ínvar. En los cálculos se usaron como coordenadas de referencia las obtenidas en 1993, de manera que los residuales mostraban directamente los vectores deformación. El control del 1993 se realizo con el embalse vació y a altas temperaturas, el control de 2010 se realizó con el embalse en carga máxima y con bajas temperaturas, este motivo se tuvo en cuenta a la hora de los cálculos y las interpretaciones de los vectores de deformación. Previo al trabajo de campo se realizó un reconocimiento como comprobación del estado de visuales entre pilares, el estado de los mismos, así como de los clavos de nivelación, para proceder posteriormente a realizar trabajos de tala entre visuales, limpieza de señales, y suplir las señales perdidas. El proyecto contiene la descripción del historial de control, de las actuaciones realizadas, los resultados obtenidos y toda la información relevante disponible, con las oportunas referencias a la campaña previa.
Resumo:
Como cualquier encinar que eligiésemos a fin de concretar en él nuestro estudio, quedaría enclavado dentro de la masa general de encina que puebla el término de Villanueva de Córdoba, sometida toda ella al mismo tratamiento y sobre la que gravitan los mismos problemas, creemos conveniente dividir nuestro trabajo en dos partes, comprendiendo la primera esas cuestiones de índole general, no sólo dentro del término de Villanueva, sino comunes a todo el valle de los Pedroches, haciendo resaltar los problemas que en la actualidad se presentan y sus soluciones adecuadas: tratando en la segunda de las características, tratamiento y distintos aprovechamientos que posee, de que es objeto y rinde una finca concreta que posea las condiciones que se nos señala de “tener una producción frutal no inferior de la necesaria para el cebo o engorde de una piara de trescientos cerdos”. Siguiendo esta directriz, tratamos en la primera parte de la evolución histórico-jurídica, primero, y selvícola, después, de la masa encinar del término; pasamos a ocuparnos después de los tratamientos de que son objeto, del suelo y vuelo; estudiamos detenidamente la cuestión de plagas con los remedios que se han puesto y cabe poner en práctica, y, por último, tratamos de los distintos aprovechamientos de que son objeto estos encinares. En la segunda parte concretamos nuestro estudio sobre el monte “Las Navas” de propiedad particular en cuanto a sus estados legal, natural y forestal, y determinamos su capacidad en ganado deducida de su posibilidad en fruto y el rendimiento en los distintos aprovechamientos de que es objeto la finca. Resaltamos de antemano los tres problemas pendientes de solución, de gran trascendencia en cuanto al estado actual y futuro y de los encinares y su economía general: la extinción de plagas, la regeneración artificial del arbolado y el aprovechamiento del fruto mediante su conservación o transformación. El primer problema, siempre de actualidad, y de posible realización, que por su persistencia ha adquirido caracteres de catástrofe, es de lamentar que quede sin resolver después de los importantes trabajos realizados por el antiguo Servicio de Estudio y Extinción de Plagas Forestales, adscrito al Cuerpo de Montes. El segundo problema, el de la regeneración de los encinares, lo encontramos de necesaria solución, a pesar de la imposibilidad de los particulares que creen en la indefinida longevidad de la encina; pues es ya grande la extensión de la zona desarbolada o casi desarbolada, sin que su suelo produzca apenas utilidad alguna después de la desaparición del arbolado; y cierto el estado decadente del vuelo de algunas fincas. Y, por último, la cuestión de la conservación del fruto en grandes cantidades, o, mejor aún, su transformación en harina y conservación de la misma, es de gran transcendencia económica y su solución resolvería el problema del total y apropiado aprovechamiento de la bellota. Ilustran nuestro trabajo una pequeña colección de fotografías relacionadas con los distintos asuntos tratados, un pequeño muestrario de lo distintos tipos de fruto de la localidad y de diversas variedades de encina, y varias modalidades de las puestas de L. dispar y M. neustria, sin que hayamos podido recoger ninguna de T. viridana como era nuestro propósito. …
Resumo:
El interés cada vez mayor por las redes de sensores inalámbricos pueden ser entendido simplemente pensando en lo que esencialmente son: un gran número de pequeños nodos sensores autoalimentados que recogen información o detectan eventos especiales y se comunican de manera inalámbrica, con el objetivo final de entregar sus datos procesados a una estación base. Los nodos sensores están densamente desplegados dentro del área de interés, se pueden desplegar al azar y tienen capacidad de cooperación. Por lo general, estos dispositivos son pequeños y de bajo costo, de modo que pueden ser producidos y desplegados en gran numero aunque sus recursos en términos de energía, memoria, velocidad de cálculo y ancho de banda están enormemente limitados. Detección, tratamiento y comunicación son tres elementos clave cuya combinación en un pequeño dispositivo permite lograr un gran número de aplicaciones. Las redes de sensores proporcionan oportunidades sin fin, pero al mismo tiempo plantean retos formidables, tales como lograr el máximo rendimiento de una energía que es escasa y por lo general un recurso no renovable. Sin embargo, los recientes avances en la integración a gran escala, integrado de hardware de computación, comunicaciones, y en general, la convergencia de la informática y las comunicaciones, están haciendo de esta tecnología emergente una realidad. Del mismo modo, los avances en la nanotecnología están empezando a hacer que todo gire entorno a las redes de pequeños sensores y actuadores distribuidos. Hay diferentes tipos de sensores tales como sensores de presión, acelerómetros, cámaras, sensores térmicos o un simple micrófono. Supervisan las condiciones presentes en diferentes lugares tales como la temperatura, humedad, el movimiento, la luminosidad, presión, composición del suelo, los niveles de ruido, la presencia o ausencia de ciertos tipos de objetos, los niveles de tensión mecánica sobre objetos adheridos y las características momentáneas tales como la velocidad , la dirección y el tamaño de un objeto, etc. Se comprobara el estado de las Redes Inalámbricas de Sensores y se revisaran los protocolos más famosos. Así mismo, se examinara la identificación por radiofrecuencia (RFID) ya que se está convirtiendo en algo actual y su presencia importante. La RFID tiene un papel crucial que desempeñar en el futuro en el mundo de los negocios y los individuos por igual. El impacto mundial que ha tenido la identificación sin cables está ejerciendo fuertes presiones en la tecnología RFID, los servicios de investigación y desarrollo, desarrollo de normas, el cumplimiento de la seguridad y la privacidad y muchos más. Su potencial económico se ha demostrado en algunos países mientras que otros están simplemente en etapas de planificación o en etapas piloto, pero aun tiene que afianzarse o desarrollarse a través de la modernización de los modelos de negocio y aplicaciones para poder tener un mayor impacto en la sociedad. Las posibles aplicaciones de redes de sensores son de interés para la mayoría de campos. La monitorización ambiental, la guerra, la educación infantil, la vigilancia, la micro-cirugía y la agricultura son solo unos pocos ejemplos de los muchísimos campos en los que tienen cabida las redes mencionadas anteriormente. Estados Unidos de América es probablemente el país que más ha investigado en esta área por lo que veremos muchas soluciones propuestas provenientes de ese país. Universidades como Berkeley, UCLA (Universidad de California, Los Ángeles) Harvard y empresas como Intel lideran dichas investigaciones. Pero no solo EE.UU. usa e investiga las redes de sensores inalámbricos. La Universidad de Southampton, por ejemplo, está desarrollando una tecnología para monitorear el comportamiento de los glaciares mediante redes de sensores que contribuyen a la investigación fundamental en glaciología y de las redes de sensores inalámbricos. Así mismo, Coalesenses GmbH (Alemania) y Zurich ETH están trabajando en diversas aplicaciones para redes de sensores inalámbricos en numerosas áreas. Una solución española será la elegida para ser examinada más a fondo por ser innovadora, adaptable y polivalente. Este estudio del sensor se ha centrado principalmente en aplicaciones de tráfico, pero no se puede olvidar la lista de más de 50 aplicaciones diferentes que ha sido publicada por la firma creadora de este sensor específico. En la actualidad hay muchas tecnologías de vigilancia de vehículos, incluidos los sensores de bucle, cámaras de video, sensores de imagen, sensores infrarrojos, radares de microondas, GPS, etc. El rendimiento es aceptable, pero no suficiente, debido a su limitada cobertura y caros costos de implementación y mantenimiento, especialmente este ultimo. Tienen defectos tales como: línea de visión, baja exactitud, dependen mucho del ambiente y del clima, no se puede realizar trabajos de mantenimiento sin interrumpir las mediciones, la noche puede condicionar muchos de ellos, tienen altos costos de instalación y mantenimiento, etc. Por consiguiente, en las aplicaciones reales de circulación, los datos recibidos son insuficientes o malos en términos de tiempo real debido al escaso número de detectores y su costo. Con el aumento de vehículos en las redes viales urbanas las tecnologías de detección de vehículos se enfrentan a nuevas exigencias. Las redes de sensores inalámbricos son actualmente una de las tecnologías más avanzadas y una revolución en la detección de información remota y en las aplicaciones de recogida. Las perspectivas de aplicación en el sistema inteligente de transporte son muy amplias. Con este fin se ha desarrollado un programa de localización de objetivos y recuento utilizando una red de sensores binarios. Esto permite que el sensor necesite mucha menos energía durante la transmisión de información y que los dispositivos sean más independientes con el fin de tener un mejor control de tráfico. La aplicación se centra en la eficacia de la colaboración de los sensores en el seguimiento más que en los protocolos de comunicación utilizados por los nodos sensores. Las operaciones de salida y retorno en las vacaciones son un buen ejemplo de por qué es necesario llevar la cuenta de los coches en las carreteras. Para ello se ha desarrollado una simulación en Matlab con el objetivo localizar objetivos y contarlos con una red de sensores binarios. Dicho programa se podría implementar en el sensor que Libelium, la empresa creadora del sensor que se examinara concienzudamente, ha desarrollado. Esto permitiría que el aparato necesitase mucha menos energía durante la transmisión de información y los dispositivos sean más independientes. Los prometedores resultados obtenidos indican que los sensores de proximidad binarios pueden formar la base de una arquitectura robusta para la vigilancia de áreas amplias y para el seguimiento de objetivos. Cuando el movimiento de dichos objetivos es suficientemente suave, no tiene cambios bruscos de trayectoria, el algoritmo ClusterTrack proporciona un rendimiento excelente en términos de identificación y seguimiento de trayectorias los objetos designados como blancos. Este algoritmo podría, por supuesto, ser utilizado para numerosas aplicaciones y se podría seguir esta línea de trabajo para futuras investigaciones. No es sorprendente que las redes de sensores de binarios de proximidad hayan atraído mucha atención últimamente ya que, a pesar de la información mínima de un sensor de proximidad binario proporciona, las redes de este tipo pueden realizar un seguimiento de todo tipo de objetivos con la precisión suficiente. Abstract The increasing interest in wireless sensor networks can be promptly understood simply by thinking about what they essentially are: a large number of small sensing self-powered nodes which gather information or detect special events and communicate in a wireless fashion, with the end goal of handing their processed data to a base station. The sensor nodes are densely deployed inside the phenomenon, they deploy random and have cooperative capabilities. Usually these devices are small and inexpensive, so that they can be produced and deployed in large numbers, and so their resources in terms of energy, memory, computational speed and bandwidth are severely constrained. Sensing, processing and communication are three key elements whose combination in one tiny device gives rise to a vast number of applications. Sensor networks provide endless opportunities, but at the same time pose formidable challenges, such as the fact that energy is a scarce and usually non-renewable resource. However, recent advances in low power Very Large Scale Integration, embedded computing, communication hardware, and in general, the convergence of computing and communications, are making this emerging technology a reality. Likewise, advances in nanotechnology and Micro Electro-Mechanical Systems are pushing toward networks of tiny distributed sensors and actuators. There are different sensors such as pressure, accelerometer, camera, thermal, and microphone. They monitor conditions at different locations, such as temperature, humidity, vehicular movement, lightning condition, pressure, soil makeup, noise levels, the presence or absence of certain kinds of objects, mechanical stress levels on attached objects, the current characteristics such as speed, direction and size of an object, etc. The state of Wireless Sensor Networks will be checked and the most famous protocols reviewed. As Radio Frequency Identification (RFID) is becoming extremely present and important nowadays, it will be examined as well. RFID has a crucial role to play in business and for individuals alike going forward. The impact of ‘wireless’ identification is exerting strong pressures in RFID technology and services research and development, standards development, security compliance and privacy, and many more. The economic value is proven in some countries while others are just on the verge of planning or in pilot stages, but the wider spread of usage has yet to take hold or unfold through the modernisation of business models and applications. Possible applications of sensor networks are of interest to the most diverse fields. Environmental monitoring, warfare, child education, surveillance, micro-surgery, and agriculture are only a few examples. Some real hardware applications in the United States of America will be checked as it is probably the country that has investigated most in this area. Universities like Berkeley, UCLA (University of California, Los Angeles) Harvard and enterprises such as Intel are leading those investigations. But not just USA has been using and investigating wireless sensor networks. University of Southampton e.g. is to develop technology to monitor glacier behaviour using sensor networks contributing to fundamental research in glaciology and wireless sensor networks. Coalesenses GmbH (Germany) and ETH Zurich are working in applying wireless sensor networks in many different areas too. A Spanish solution will be the one examined more thoroughly for being innovative, adaptable and multipurpose. This study of the sensor has been focused mainly to traffic applications but it cannot be forgotten the more than 50 different application compilation that has been published by this specific sensor’s firm. Currently there are many vehicle surveillance technologies including loop sensors, video cameras, image sensors, infrared sensors, microwave radar, GPS, etc. The performance is acceptable but not sufficient because of their limited coverage and expensive costs of implementation and maintenance, specially the last one. They have defects such as: line-ofsight, low exactness, depending on environment and weather, cannot perform no-stop work whether daytime or night, high costs for installation and maintenance, etc. Consequently, in actual traffic applications the received data is insufficient or bad in terms of real-time owed to detector quantity and cost. With the increase of vehicle in urban road networks, the vehicle detection technologies are confronted with new requirements. Wireless sensor network is the state of the art technology and a revolution in remote information sensing and collection applications. It has broad prospect of application in intelligent transportation system. An application for target tracking and counting using a network of binary sensors has been developed. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices in order to have a better traffic control. The application is focused on the efficacy of collaborative tracking rather than on the communication protocols used by the sensor nodes. Holiday crowds are a good case in which it is necessary to keep count of the cars on the roads. To this end a Matlab simulation has been produced for target tracking and counting using a network of binary sensors that e.g. could be implemented in Libelium’s solution. Libelium is the enterprise that has developed the sensor that will be deeply examined. This would allow the appliance to spend much less energy when transmitting information and to make more independent devices. The promising results obtained indicate that binary proximity sensors can form the basis for a robust architecture for wide area surveillance and tracking. When the target paths are smooth enough ClusterTrack particle filter algorithm gives excellent performance in terms of identifying and tracking different target trajectories. This algorithm could, of course, be used for different applications and that could be done in future researches. It is not surprising that binary proximity sensor networks have attracted a lot of attention lately. Despite the minimal information a binary proximity sensor provides, networks of these sensing modalities can track all kinds of different targets classes accurate enough.
Resumo:
El injerto en hortalizas es uno de los temas de más actualidad en el panorama hortícola, no solo español, sino occidental, y recalcamos occidental, pues en muchos países que no corresponden a ese ámbito, sobre todo asiáticos: Japón, Corea, China, Filipinas, etc., esta es una técnica que cuenta con una gran difusión desde hace décadas, siendo, por ejemplo en Japón, la mayoría de sus cultivos de cucurbitáceas y solanáceas realizados con planta injertada. A finales de los noventa quedó claro que el empleo de bromuro de metilo tenía una fecha de caducidad y que las zonas que tenían una fuerte dependencia de este desinfectante de suelo debían de buscar alternativas a un plazo lo más corto posible, con un punto añadido sobre etapas anteriores, debían ser alternativas lo más respetuosas posible con el medio ambiente y que no incrementaran, de forma importante, los costes de producción. En la zona centro y concretamente en los invernaderos de la Comunidad de Madrid y zonas cercanas de Toledo y Guadalajara el pepino era y es el cultivo predominante, los horticultores empleaban el bromuro de metilo de forma sistemática para desinfectar sus suelos y la desaparición de este producto les planteaba una gran incertidumbre, lo que llevó a que desde diferentes instancias se buscaran diferentes alternativas. Tras analizar las posibilidades que se podían implementar y conocido el buen resultado que había dado el injerto en sandía en Almería, se decidió acometer los trabajos que conforman esta Tesis Doctoral, planteando en la zona, diferentes ensayos con la idea de conocer, si el injerto en pepino, con los cultivares empleados habitualmente, podía ser una alternativa real para los horticultores, tanto de Madrid, como los de las zonas cercanas de Toledo y Guadalajara. Se pretendía conocer sobre todo las repercusiones agronómicas y si esta técnica podría emplearse en solitario o era necesario complementarla con otras alternativas: desinfectantes químicos, solarización, biofumigación e incluso desinfección con vapor de agua. Los ensayos fueron realizados de forma secuencial entre el año 1999 y el 2011, comprobándose en primer lugar que el empleo de portainjertos híbridos de calabaza era posible con los cultivares de pepino corto tipo español, mayoritariamente empleados en los últimos años del siglo XX y primeros del XXI, fundamentalmente: Serena. Tras los primeros ensayos, Shintoza parecía el portainjerto híbrido de calabaza (Cucurbita maxima x C. moschata) con mejores perspectivas de empleo, pues presentaba la ventaja adicional de ser bien conocido por los semilleros que producen planta injertada al ser, en esos momentos, el portainjerto más empleado en sandía, lo que garantizaba por su lado, su empleo en pepino, y que los horticultores pudiesen disponer de planta injertada. Más adelante los trabajos se encaminaron hacia la determinación de la densidad y tipo de poda más adecuado para la planta injertada, realizándose múltiples ensayos en esta dirección, que culminaron con la conclusión de que el extravigor que los portainjertos conferían a las plantas permitía conducir estas a dos o más brazos (se suelen emplear dos, por mejor adaptación a los trabajos de manejo de la planta por parte de los agricultores), con lo que se podría disminuir la densidad de planta y por tanto ahorrar en este capítulo, cosa que preocupaba y preocupa a los agricultores. Se llegó a determinar que es posible reducir la densidad de plantación en alrededor de un 25%, estando la densidad de brazos más adecuada entre 3 y 3.5 br•m-2. Tras las primeras decisiones tomadas sobre el portainjerto y la densidad más adecuada, se continuó con el estudio de adaptación de estas propuestas a los nuevos cultivares que las empresas de semillas iban proponiendo y los agricultores adoptando. Estas acciones se complementaron con la introducción de nuevos portainjertos susceptibles de sustituir a Shintoza o rotar con él para cambiar de sistema radicular, lo que es conveniente cuando se emplean, como es el caso, portainjertos que no son resistentes a nematodos, principalmente de la especie Meloidogyne incognita, el mayor problema en la zona, debido al suelo. Cultivares como Trópico, en un primer momento, y Urano y Motril más recientemente, se adaptaron muy bien a esta técnica. Entre los portainjertos que mostraron buena adaptación a la técnica de injerto y suficientemente buena compatibilidad con la mayoría de los cultivares ensayados destacan: RS-841, Strongtosa y Camel. Azman también mostró un comportamiento relevante, pero este portainjerto no podrá ser empleado, al ser recientemente retirado del mercado por la empresa que lo obtuvo y comercializó Aunque no era el objetivo principal de esta Tesis Doctoral, se ha comprobado que puede ser interesante combinar el empleo del injerto con otras técnicas alternativas al bromuro de metilo para superar los problemas debidos a enfermedades del suelo o nematodos, pero debe seguirse trabajando pues este es un tema en continua evolución, tanto si se trata de desinfectantes, a la mayoría de los cuales les está siendo retirado el permiso para su comercialización, como de otros métodos como la biofumigación o el empleo de vapor de agua. Queda muy claro que el injerto puede considerarse entre los métodos respetuosos con el medio ambiente, si no el que más, en lo que alternativas al bromuro de metilo se refiere. También en otro momento, se comprobó que con plantas injertadas es posible reducir el aporte de nutrientes, sobre todo nitrógeno, lo que además de un ahorro supone una mejora más desde el punto de vista medioambiental. En definitiva, queda demostrado que es factible el empleo del injerto en pepino corto tipo español, que las selecciones de los híbridos entre Cucurbita maxima y C. moschata que habitualmente se están empleando en sandía son también de aplicación en estos pepinos y que su empleo puede llevarnos a producciones suficientemente remuneradoras, alargándose en muchos casos el ciclo y no modificando, de forma apreciable, la calidad. Queda también demostrado que aunque los portainjertos no sean resistentes a nematodos, su extravigor les hace desarrollarse, desde el punto de vista productivo, suficientemente, llegando por tanto, a “convivir” con ese problema. Al no ser resistentes los portainjertos, y permanecer e incluso agravarse el problema de nematodos es conveniente poder contar con diferentes portainjertos que nos permitan rotar entre ellos y utilizar diferentes sistemas radiculares que harán menos fácil el parasitismo de los nematodos, como recomiendan los nematólogos que se haga. ABSTRACT Vegetable grafting is one of the most current practices in horticulture, not only in Spain, but also in other Western and Asian countries, such as Japan, South Korea, China, the Philippines, etc. This is a decades-old, widespread technique: In fact, most cucurbit and solanaceous crops in Japan and Korea are grafted. At the end of the 1990s, it was clear that methyl bromide had an expiry date. Consequently, the areas strongly dependant on this soil disinfectant had to look for alternatives as quickly as possible. Besides, these had to be as environmentally friendly as possible and should not increase production costs significantly. The cucumber has been and still is the most important crop in greenhouses of the Comunidad de Madrid and in areas near Toledo and Guadalajara. Cucumber growers used methyl bromide systematically to disinfect the soil. The banning of this chemical product brought about uncertainty, which encouraged the search for different alternatives. After analyzing the different possibilities and taking into account the good results of watermelon grafting in Almería, it was decided to carry out the works that make up this doctoral thesis. Different trials were made in order to know if the cultivars used in cucumber grafting might be a real alternative for farmers, not only in Madrid, but also in the areas near Toledo and Guadalajara. The main aim was to assess the agronomic repercussions and whether that technique could be used alone, or if other complementary alternatives, such as chemical disinfectants, solarisation, biofumigation, or even steam disinfection, were necessary. Trials were carried out sequentially from 1999 to 2011. It was observed that the use of pumpkin hybrid rootstocks could be applied to cultivars of Spanish short cucumbers, mainly grown in the late 20th and early 21st centuries eg Serena. After the early trials, Shintoza (Cucurbita maxima x C. moschata), a pumpkin hybrid rootstock, seemed to be the best option, as it had the additional advantage of being well known by nurseries growing grafting plants. Bearing this in mind, Shintoza was then the hybrid rootstock to be used in cucumbers and consequently growers could have grafted plants at their disposal. Later on, research was focused on density and the most adequate type of pruning, by carrying out several trials. These experiments showed that, the extra vigour the rootstocks gave to the plants, allowed them to have two or three stems, (normally nurserymen use two, as it is easier for them to manage the plants). These findings would lead to the lessening the density of the plant and thus reduce costs, something which worried and still worries farmers. It was stated that it would be possible to reduce the density of the plants by about 25%, the optimum density of the stems ranging from 3 to 3.5 stem-m-2. Once decisions were taken both on the rootstock and the appropriate density, we went on to study how to apply these proposals to the new cultivars which the seed companies were proposing and the farmers were applying. These measures were complemented with the introduction of new rootstocks capable of replacing Shintoza, or rotating with it in order to change the root system. This is particularly necessary when rootstocks, non-resistant to nematodes, mainly of the species Meloidogyne incognita, are used. This is the main problem due to the soil of that area. Cultivars such as Trópico, at first, and Urano and Motril, more recently, adapted quite well to this technique. Among the rootstocks which adapted well to grafting and which were compatible with most tested cultivars, were, in particular, RS-841 Strongtosa and Camel. The behaviour of Azman was worth studying, but this rootstock was removed from the market by the company which had bought and commercialized it. Although not the main purpose of the research, it was observed that combining grafting with other alternatives to methyl bromide in order to overcome problems due to soil diseases or nematodes may be worthwhile. However, further research is needed, as this topic is in constant evolution, not only when we come to disinfectants, most of which are being affected by the removal of the permit for commercialization, but also when we refer to other techniques such as biofumigation or the use of steam. Results also showed that grafted plants may reduce the amount of fertilizers, particularly nitrogen, used: This means both saving money and the protection of the environment. We may conclude by saying that grafting Spanish short cucumbers is feasible, that the selections of the hybrids between Cucurbita maxima and C. moschata, habitually used in watermelon grafting, can also be applied to these cucumbers. It can also be concluded that the use of these grafting techniques may lead to profitable yields, by lengthening the growing cycle in many cases and by maintaining the quality to a large extent. Although these rootstocks are not resistant to nematodes, the results showed that their extra vigour enables them to develop in terms of production, and thus they cope with this problem. Since these rootstocks are not resistant to nematodes and the problem with these nematodes may even worsen, it is recommended that different types of rootstocks should be available to enable both the rotation and the use of different root systems, which will encourage the parasitism of nematodes.
Resumo:
El objeto de esta tesis doctoral es encontrar, mediante herramientas estadísticas, un modelo matemático que prediga la evolución temporal de las concentraciones de los hidrocarburos totales del petróleo (TPH) en un proceso de biorremediación de suelos contaminados con gasoleo. Obtenido el modelo matemático realizar las comparaciones pertinentes para determinar la eficiencia de distintos tratamientos, la influencia tanto del suelo como del nivel de concentración. Para cumplir este objetivo se realizó un diseño de experimentos que tomaba en cuenta dos tipos de suelos, dos niveles de concentración de hidrocarburo y seis tratamientos. Se realizaron en total 1824 ensayos en laboratorio repartidos en 8 campañas de campo durante un año de experiencia tanto en parcelas de 4 x 4 m como en microcosmos. Los resultados obtenidos muestran que el proceso de biorremediación se puede ajustar a un comportamiento exponencial, que es una ecuación de cinética de primer orden, y que las comparaciones realizadas han mostrado resultados satisfactorios de la eficiencia de algunos tratamientos. ABSTRACT The purpose of this thesis is using statistical tools find a mathematical model to predict the time evolution of the total petroleum hydrocarbons (TPH) concentrations in the bioremediation process of diesel contaminated soil. Retrieved mathematical model make relevant comparisons to determine the efficiency of different treatments and the influence of both soil and concentration levels. To achieve this goal a design of experiments was developed, it took into account two types of soil, two concentration levels of hydrocarbon and six treatments. There were a total of 1824 laboratory tests spread over 8 field campaigns during a year of experience in both plots of 4 x 4 m in microcosm. The results obtained show that the bioremediation process can be adjusted to an exponential model, it is an equation of kinetic of first order and that the comparisons have shown satisfactory results of the efficiency of some treatments.
Resumo:
Un estudio geofísico mediante resonancia se realiza mediante la excitación del agua del subsuelo a partir de la emisión de una intensidad variable a lo largo de un cable extendido sobre la superficie en forma cuadrada o circular. El volumen investigado depende del tamaño de dicho cable, lo cual, junto con la intensidad utilizada para la excitación del agua determina las diferentes profundidades del terreno de las que se va a extraer información, que se encuentran entre 10 y 100 m, habitualmente. La tesis doctoral presentada consiste en la adaptación del Método de Resonancia Magnética para su utilización en aplicaciones superficiales mediante bucles de tamaño reducido. Dicha información sobre el terreno en la escala desde decímetros a pocos metros es interesante en relación a la física de suelos y en general en relación a diferentes problemas de Ingeniería, tanto de extracción de agua como constructiva. Una vez realizada la revisión del estado de conocimiento actual del método en relación a sus aplicaciones usuales, se estudian los problemas inherentes a su adaptación a medidas superficiales. Para solventar dichos problemas se han considerado dos líneas de investigación principales: En primer lugar se realiza un estudio de la influencia de las características del pulso de excitación emitido por el equipo en la calidad de las medidas obtenidas, y las posibles estrategias para mejorar dicho pulso. El pulso de excitación es un parámetro clave en la extracción de información sobre diferentes profundidades del terreno. Por otro lado se busca la optimización del dispositivo de medida para su adaptación al estudio de los primeros metros del suelo mediante el equipo disponible, tratándose éste del equipo NumisLITE de la casa Iris Instruments. ABSTRACT Magnetic Resonance Sounding is a geophysical method performed through the excitation of the subsurface water by a variable electrical intensity delivered through a wire extended on the surface, forming a circle or a square. The investigated volume depends on the wire length and the intensity used, determining the different subsurface depths reached. In the usual application of the method, this depth ranges between 10 and 100 m. This thesis studies the adaptation of the above method to more superficial applications using smaller wire loops. Information about the subsurface in the range of decimeter to a few meters is interesting regarding physics of soils, as well as different Engineering problems, either for water extraction or for construction. After a review of the nowadays state of the art of the method regarding its usual applications, the special issues attached to its use to perform very shallow measures are studied. In order to sort out these problems two main research lines are considered: On the one hand, a study about the influence of the characteristics of the emitted pulse in the resulting measure quality is performed. Possible strategies in order to improve this pulse are investigated, as the excitation pulse is a key parameter to obtain information from different depths of the subsurface. On the other hand, the study tries to optimize the measurement device to its adaptation to the study of the first meters of the ground with the available instrumentation, the NumisLITE equipment from Iris Instruments.
Resumo:
Se presenta una formulación matemática para los fenómenos acoplados de deformación del suelo y difusión, la llamada consolidación, que incluye los efectos de respuesta elastoplástica del suelo y deformaciones finitas. Se obtienen las ecuaciones variacionales del problema de contorno tanto en sus casos no lineal como linealizado de forma que puedan incorporarse directamente a programas de elementos finitos. El tratamiento algorítmico de la elastoplasticidad con deformaciones finitas para la fase sólida está basado en una descomposición multiplicativa y se acopla con el algoritmo de flujo del fluido a través de la presión neutra de Kirchhoff. Las ecuaciones de la cantidad de movimiento y conservación de la masa se escriben tanto para la fase sólida como para la fluida siguiendo el movimiento de la matriz sólida, combinándolas a continuación mediante la teoría general de mezclas. Puesto que la masa del fluido no tiene que conservarse en la región definida por la matriz sólida, se permite también que la densidad saturada de la mezcla suelo-agua varíe con la deformación del suelo a través del Jacobiano.
Resumo:
El suelo es un importante recurso natural que necesita ser preservado y mejorado para permitirle mantener su calidad y capacidad productiva, para ello se deben proponer y aplicar prácticas sostenibles que permitan recuperar aquellos suelos degradados por un mal manejo del hombre, como por ejemplo la salinización. El objetivo planteado fue evaluar la biorecuperación de un suelo con problemas salino-sódico con la aplicación de dos proporciones (1,5 y 3% (p/p)) de tres enmiendas orgánicas: compost, vermicompost sólido y Lemna mesclados o no con el 100% de los requerimientos de fosfoyeso, generándose 15 tratamientos (incluyendo tres controles). La evaluación se realizó a través de tres ensayos: 1. Columnas simuladas de suelo. 2. Evolución de CO2 y 3. Crecimiento de plántulas de tomate. El suelo objeto de estudio está clasificado my como Fluventic Haplustepts, y fue tomado de una zona de la Hacienda Alto Viento, con una latitud de 10° 2' 15 N y una longitud de 72 ° 34' 15 W, en el estado de Zulia – Venezuela. Se tomó una muestra compuesta por 20 submuestras de 20 cm de profundidad del área problema, se secó al aire (2,3% de humedad), se tamizó y homogenizó. El suelo y las enmiendas orgánicas fueron caracterizadas. Los materiales orgánicos; compost y vermicompost fueron procesados en la misma Hacienda con el uso de estiércol de ganado bovino; la Lemna fue recolectada de orillas del Lago de Maracaibo en la ciudad de Maracaibo. El suelo se mezcló a las proporciones indicadas se le midió respiración basal y el efecto sobre la germinación de semillas de tomate y se empaquetó en un tubo de polietileno de 7,1 cm de diámetro y 70 a 90 cm de longitud, según la altura de la mezcla del suelo con la enmienda. El fondo de cada columna fue rellenado con 40 cm de arena lavada para facilitar el drenaje. En cada columna se utilizó la misma cantidad de suelo (1055 mg), la altura que ocupó dentro de las columnas dependió del tipo de enmienda orgánica y su proporción, la cual modificó la Da del suelo (1,328±0,05 g•cm-3). La altura dentro de la columna varió desde 20 cm para el suelo sin enmienda hasta 38,33±0,8 cm para el suelo enmendado con Lemna al 3,0%. Transcurrido el periodo de tres meses tiempo en el cual el suelo enmendado y colocado en las columnas fue lavado con una cantidad de agua que equivalente a la tasa de infiltración, la cual se calculó a partir de la precipitación anual de la zona y las perdidas por evaporación y escorrentía; se fraccionó en tres secciones de 7, 7 y 6 cm de longitud, y el suelo de cada fracción se secó al aire y se tamizó, y se le midió CEextr, pH, cationes en solución y cationes extraíbles para calcular el RAS y el PSI. Se tomó una cantidad equivalente de cada sección para conformar una muestra de 50 g de suelos a los cuales se le midió respiración basal e igualmente se tomó suelo para evaluar la germinación y crecimiento de plántulas de tomate. Se detectaron diferencias significativa (p<0,05) entre tratamientos, según la prueba de Tukey, para la variables evaluadas, aunque no hubo diferencias entre las proporciones ni entre la utilización del fosfoyeso mezclado con las enmiendas orgánicas. La enmienda que mostró menos potencial en la bio remediación fue la Lemna por sus altos contenidos de Na+. La metodología de las columnas simuladas del suelo, bajo las condiciones de estudio, no fue del todo adecuada para evaluar la bio remediación debido que en el suelo control por efecto de la aplicación de agua también hubo recuperación del mismo por su disminución en el la CE, RAS y PSI y en algunas variables su recuperación fue mayor que en aquellos enmendados con Lemna. Tomando en la respuesta del cultivo la mejor enmienda fue el vermicompost Abstract The soil is an important natural resource that needs to be preserved and improved to maintain its quality and production potential. Therefore, it is necessary to propose and apply sustainable practices that permit the recovery of soils that have been degraded by inadequate management, among these saline soils. The objective of this study was to evaluate the bioremediation of a saline-sodic soil through the application of two proportions (1,5 and 3% (p/p) of three organic amendments: compost, vermicompost and Lemna, mixed or not with gypsum phosphate, resulting in 15 treatments (including 3 controls). The evaluation was conducted through three tests: 1. Simulated soil columns. 2. Evolution of CO2 and 3. Growth of tomato seedlings The soil under evaluation was classified as Fluventic Haplustepts and was collected from the Alto Viento farm located at 10° 2' 15 North Latitude and 72° 34' 15 West longitude, in Zulia State, Venezuela. A composite soil sample, integrated of 20 subsamples taken to a depth of 20 cm collected in the problem area, was air dried (2.3 % moisture), sieved and homogenized. Soil and organic amendments were characterized. Organic material for the compost and vermicompost were obtained on the farm using cattle manure, whereas the Lemna was collected from the shores of Lake Maracaibo outside Maracaibo city. The soil was mixed in the above-mentioned proportions and its baseline respiration rate and effect on the germination of tomato seeds were recorded. Soil was packed in a PVC pipe (7,1 cm diameter and 70-90 cm length) to simulate a soil column. The bottom of each column was filled out with 40 cm of washed sand to facilitate drainage. The same amount of soil was used in each column (1,055 mg), but the height of the column varied according to the organic amendment and its proportion, which modified the apparent density of the soil (1,328±0,05 g•cm-3). The height of each column varied from 20 cm for the soil without amendment to 38,33±0,8 cm for the soil with 3% Lemna. After three months, the soil was treated with water (using the equivalent of the problem area infiltration rate), and was divided into three sections (7, 7 and 6 cm length). The soil from each section was air dried, sieved and its cationic exchange capacity, pH, cation solutions and extractable cations were measured to estimate RAS and PSI. An equivalent portion of each section was collected to compose a 50 g soil sample, and baseline respiration rate and tomato seedlings growth were recorded. Statistical differences (p<0,05) were observed among treatments for the variables under evaluation. Tukey test showed no differences among the proportions of organic amendments nor with the addition of gypsum phosphate to the organic amendments. The amendment which showed the lowest bioremediation potential was the Lemna, as a result of its high Na+ concentration. Under the conditions of this study, the soil column methodology used showed limitations to evaluate bioremediation because the control soil column, after being rinsed with water, also showed improvements as CE, RAS and PSI values were reduced. For some variables, the improvement noted in the control soil column surpassed those obtained with the soil amended with Lemna. Based on the best crop response amendment was vermicompost 3%.
Resumo:
Las aplicaciones de la teledetección al seguimiento de lo que ocurre en la superficie terrestre se han ido multiplicando y afinando con el lanzamiento de nuevos sensores por parte de las diferentes agencias espaciales. La necesidad de tener información actualizada cada poco tiempo y espacialmente homogénea, ha provocado el desarrollo de nuevos programas como el Earth Observing System (EOS) de la National Aeronautics and Space Administration (NASA). Uno de los sensores que incorpora el buque insignia de ese programa, el satélite TERRA, es el Multi-angle Imaging SpectroRadiometer (MISR), diseñado para capturar información multiangular de la superficie terrestre. Ya desde los años 1970, se conocía que la reflectancia de las diversas ocupaciones y usos del suelo variaba en función del ángulo de observación y de iluminación, es decir, que eran anisotrópicas. Tal variación estaba además relacionada con la estructura tridimensional de tales ocupaciones, por lo que se podía aprovechar tal relación para obtener información de esa estructura, más allá de la que pudiera proporcionar la información meramente espectral. El sensor MISR incorpora 9 cámaras a diferentes ángulos para capturar 9 imágenes casi simultáneas del mismo punto, lo que permite estimar con relativa fiabilidad la respuesta anisotrópica de la superficie terrestre. Varios trabajos han demostrado que se pueden estimar variables relacionadas con la estructura de la vegetación con la información que proporciona MISR. En esta Tesis se ha realizado una primera aplicación a la Península Ibérica, para comprobar su utilidad a la hora de estimar variables de interés forestal. En un primer paso se ha analizado la variabilidad temporal que se produce en los datos, debido a los cambios en la geometría de captación, es decir, debido a la posición relativa de sensores y fuente de iluminación, que en este caso es el Sol. Se ha comprobado cómo la anisotropía es mayor desde finales de otoño hasta principios de primavera debido a que la posición del Sol es más cercana al plano de los sensores. También se ha comprobado que los valores máximo y mínimo se van desplazando temporalmente entre el centro y el extremo angular. En la caracterización multiangular de ocupaciones del suelo de CORINE Land Cover que se ha realizado, se puede observar cómo la forma predominante en las imágenes con el Sol más alto es convexa con un máximo en la cámara más cercana a la fuente de iluminación. Sin embargo, cuando el Sol se encuentra mucho más bajo, ese máximo es muy externo. Por otra parte, los datos obtenidos en verano son mucho más variables para cada ocupación que los de noviembre, posiblemente debido al aumento proporcional de las zonas en sombra. Para comprobar si la información multiangular tiene algún efecto en la obtención de imágenes clasificadas según ocupación y usos del suelo, se han realizado una serie de clasificaciones variando la información utilizada, desde sólo multiespectral, a multiangular y multiespectral. Los resultados muestran que, mientras para las clasificaciones más genéricas la información multiangular proporciona los peores resultados, a medida que se amplían el número de clases a obtener tal información mejora a lo obtenido únicamente con información multiespectral. Por otra parte, se ha realizado una estimación de variables cuantitativas como la fracción de cabida cubierta (Fcc) y la altura de la vegetación a partir de información proporcionada por MISR a diferentes resoluciones. En el valle de Alcudia (Ciudad Real) se ha estimado la fracción de cabida cubierta del arbolado para un píxel de 275 m utilizando redes neuronales. Los resultados muestran que utilizar información multiespectral y multiangular puede mejorar casi un 20% las estimaciones realizadas sólo con datos multiespectrales. Además, las relaciones obtenidas llegan al 0,7 de R con errores inferiores a un 10% en Fcc, siendo éstos mucho mejores que los obtenidos con el producto elaborado a partir de datos multiespectrales del sensor Moderate Resolution Imaging Spectroradiometer (MODIS), también a bordo de Terra, para la misma variable. Por último, se ha estimado la fracción de cabida cubierta y la altura efectiva de la vegetación para 700.000 ha de la provincia de Murcia, con una resolución de 1.100 m. Los resultados muestran la relación existente entre los datos espectrales y los multiangulares, obteniéndose coeficientes de Spearman del orden de 0,8 en el caso de la fracción de cabida cubierta de la vegetación, y de 0,4 en el caso de la altura efectiva. Las estimaciones de ambas variables con redes neuronales y diversas combinaciones de datos, arrojan resultados con R superiores a 0,85 para el caso del grado de cubierta vegetal, y 0,6 para la altura efectiva. Los parámetros multiangulares proporcionados en los productos elaborados con MISR a 1.100 m, no obtienen buenos resultados por sí mismos pero producen cierta mejora al incorporarlos a la información espectral. Los errores cuadráticos medios obtenidos son inferiores a 0,016 para la Fcc de la vegetación en tanto por uno, y 0,7 m para la altura efectiva de la misma. Regresiones geográficamente ponderadas muestran además que localmente se pueden obtener mejores resultados aún mejores, especialmente cuando hay una mayor variabilidad espacial de las variables estimadas. En resumen, la utilización de los datos proporcionados por MISR ofrece una prometedora vía de mejora de resultados en la media-baja resolución, tanto para la clasificación de imágenes como para la obtención de variables cuantitativas de la estructura de la vegetación. ABSTRACT Applications of remote sensing for monitoring what is happening on the land surface have been multiplied and refined with the launch of new sensors by different Space Agencies. The need of having up to date and spatially homogeneous data, has led to the development of new programs such as the Earth Observing System (EOS) of the National Aeronautics and Space Administration (NASA). One of the sensors incorporating the flagship of that program, the TERRA satellite, is Multi-angle Imaging Spectroradiometer (MISR), designed to capture the multi-angle information of the Earth's surface. Since the 1970s, it was known that the reflectance of various land covers and land uses varied depending on the viewing and ilumination angles, so they are anisotropic. Such variation was also related to the three dimensional structure of such covers, so that one could take advantage of such a relationship to obtain information from that structure, beyond which spectral information could provide. The MISR sensor incorporates 9 cameras at different angles to capture 9 almost simultaneous images of the same point, allowing relatively reliable estimates of the anisotropic response of the Earth's surface. Several studies have shown that we can estimate variables related to the vegetation structure with the information provided by this sensor, so this thesis has made an initial application to the Iberian Peninsula, to check their usefulness in estimating forest variables of interest. In a first step we analyzed the temporal variability that occurs in the data, due to the changes in the acquisition geometry, i.e. the relative position of sensor and light source, which in this case is the Sun. It has been found that the anisotropy is greater from late fall through early spring due to the Sun's position closer to the plane of the sensors. It was also found that the maximum and minimum values are displaced temporarily between the center and the ends. In characterizing CORINE Land Covers that has been done, one could see how the predominant form in the images with the highest sun is convex with a maximum in the camera closer to the light source. However, when the sun is much lower, the maximum is external. Moreover, the data obtained for each land cover are much more variable in summer that in November, possibly due to the proportional increase in shadow areas. To check whether the information has any effect on multi-angle imaging classification of land cover and land use, a series of classifications have been produced changing the data used, from only multispectrally, to multi-angle and multispectral. The results show that while for the most generic classifications multi-angle information is the worst, as there are extended the number of classes to obtain such information it improves the results. On the other hand, an estimate was made of quantitative variables such as canopy cover and vegetation height using information provided by MISR at different resolutions. In the valley of Alcudia (Ciudad Real), we estimated the canopy cover of trees for a pixel of 275 m by using neural networks. The results showed that using multispectral and multiangle information can improve by almost 20% the estimates that only used multispectral data. Furthermore, the relationships obtained reached an R coefficient of 0.7 with errors below 10% in canopy cover, which is much better result than the one obtained using data from the Moderate Resolution Imaging Spectroradiometer (MODIS), also onboard Terra, for the same variable. Finally we estimated the canopy cover and the effective height of the vegetation for 700,000 hectares in the province of Murcia, with a spatial resolution of 1,100 m. The results show a relationship between the spectral and the multi-angle data, and provide estimates of the canopy cover with a Spearman’s coefficient of 0.8 in the case of the vegetation canopy cover, and 0.4 in the case of the effective height. The estimates of both variables using neural networks and various combinations of data, yield results with an R coefficient greater than 0.85 for the case of the canopy cover, and 0.6 for the effective height. Multi-angle parameters provided in the products made from MISR at 1,100 m pixel size, did not produce good results from themselves but improved the results when included to the spectral information. The mean square errors were less than 0.016 for the canopy cover, and 0.7 m for the effective height. Geographically weighted regressions also showed that locally we can have even better results, especially when there is high spatial variability of estimated variables. In summary, the use of the data provided by MISR offers a promising way of improving remote sensing performance in the low-medium spatial resolution, both for image classification and for the estimation of quantitative variables of the vegetation structure.
Resumo:
Esta tesis analiza las acciones de los pobladores en la creación, consolidación y transformación de su hábitat y en su relación con la política pública de vivienda y barrio en Chile. A partir de la observación directa en terreno y de la revisión de material proveniente de diversas fuentes afirmamos que, aunque los pobladores han hecho un trabajo de producción del hábitat de gran magnitud y generalizado, las políticas públicas no han reconocido suficientemente su papel en la construcción de la ciudad, no han incorporado a cabalidad las potencialidades e innovaciones surgidas de sus prácticas y estrategias, y nunca les han abierto un espacio claro en la toma de decisiones y en la puesta en obra de los programas habitacionales. En el contexto latinoamericano, la política habitacional chilena de los últimos 20 años se ha considerado un éxito y un ejemplo a seguir, puesto que ha demostrado ser eficaz en la disminución del déficit habitacional. Sin embargo, ha tenido efectos urbanos y sociales nefastos, como la construcción de extensos bolsones periféricos de pobreza que se degradan aceleradamente, y la desintegración social que genera la expulsión de los sin casa a la periferia, donde pierden sus redes familiares y sociales. Desde una trinchera opuesta, los allegados, los sin casa que viven al alero de otras familias y representan la mayoría de la demanda por vivienda, exigen quedarse en barrios ya consolidados y evitan las periferias, en parte por mantener una red familiar y social que se sustenta en la proximidad física, en parte por los equipamientos y servicios con que cuentan estos barrios y la cercanía a las fuentes de empleo. Al mismo tiempo, los responsables de diseñar la política habitacional no han buscado establecer una forma de colaboración con los pobladores —principales receptores de la política— con el fin ajustar los programas públicos a las necesidades de las familias de bajos ingresos y a las realidades socioculturales de sus barrios. Por el contrario, han privilegiado una alianza con el sector privado, que conoce muy limitadamente las demandas de las familias. Así, en lugar de construir ciudades más justas, la política habitacional ha alimentado un mercado inmobiliario sustentado en la especulación del suelo y fomentado la industria de la construcción. La pregunta que guía esta investigación es cómo incorporar el conocimiento acumulado y los procedimientos probados por los pobladores al diseño y la implementación de programas habitacionales y urbanos que promuevan procesos de regeneración de las poblaciones y mejoren la distribución de la vivienda social en la ciudad. Sostenemos que los pobladores, a lo largo de una trayectoria de más de medio siglo, han adquirido y consolidado todas las competencias para construir vivienda, mejorar sus barrios e incorporarse a la discusión sobre ordenamiento territorial. Así, hoy están capacitados para asumir un papel protagónico en la definición de políticas públicas que apunte a la construcción de ciudades más sostenibles y equitativas. La producción social del hábitat vinculada al derecho a la ciudad y a la participación de los pobladores «desde abajo» está bastante documentada en la literatura latinoamericana. En Chile se han escrito numerosos trabajos y evaluaciones sobre la política habitacional, pero los estudios sobre el movimiento de pobladores, enfocados desde las ciencias sociales o multidisciplinares, tienen un auge primero, durante los años 60 y principios de los 70 y luego, en la segunda mitad de los 80, pero posteriormente dejan de publicarse, a excepción de algunas investigaciones de historia urbana o social. En cuanto a los estudios que abordan las acciones de los pobladores desde una mirada puesta en los resultados de la producción y la gestión habitacional y urbana, estos han sido especialmente escasos y ninguno abarca un período largo. La tesis aborda entonces las acciones específicas que emprenden los pobladores a distintas escalas territoriales —el conjunto, el barrio, la población, la ciudad y el país—, su relación con la política habitacional y su articulación con los demás actores que intervienen en la producción material del hábitat. Lo realizado por los pobladores se estudia a la luz del largo plazo, desde la promulgación de la primera ley de vivienda en 1906 hasta nuestros días, con el énfasis puesto entre los años 1990 y 2010, período de producción masiva y sostenida de vivienda social, financiada por el Estado y construida por el sector privado en la periferia urbana, y más detalladamente entre 2006 y 2010, cuando los pobladores irrumpen con la «gestión vecinal» y la «autogestión» como medios para implementar los programas habitacionales del gobierno. Para ello se recorre toda la trayectoria y se complementa con procesos particulares, a la manera de un lente de acercamiento con el cual se focalizan y amplifican trece casos de estudios, para ilustrar modos de producción y gestión concretos y mostrar cómo estos se inscriben en modos de hacer genéricos de los pobladores. Finalmente, con el lente centrado en el último ciclo de este proceso escribimos el capítulo inédito de los últimos veinte años de esta historia. Primero se realiza la reconstrucción de tres casos de estudio «en profundidad», que incluyen la génesis, la consolidación y las transformaciones del conjunto o barrio. Estos casos de estudio «en profundidad» se ponen en perspectiva reconstruyendo la trayectoria histórica de la producción y gestión realizada por los pobladores. Esta reconstrucción de largo período se profundiza con tres casos de estudio «específicos», de dimensión histórica, que tratan el conflicto del acceso a suelo. Finalmente se analizan las interrogantes que plantean estos procesos hoy en día para la producción y gestión de vivienda y barrio a futuro, a partir de entrevistas a actores claves y de la reconstrucción de siete casos de estudio «específicos» de acceso a suelo ilustrativos del período actual. La tesis sustenta que los pobladores, con las acciones de gestión y autogestión que realizan desde 2006, e interviniendo en la discusión sobre los instrumentos de planificación territorial a partir del mismo año, se sitúan actualmente en una nueva plataforma de acción y negociación desde la cual pueden incorporarse, con todas las competencias necesarias, a la definición de las políticas públicas y así dotarlas de pertinencia y coherencia para contribuir a superar la pobreza con respuestas más acorde a sus realidades. ABSTRACT This thesis analyzes the actions of pobladores in the creation, consolidation and transformation of their habitat and their relationship with Chilean public housing and neighbourhood policy. Through direct observation in the field and the review of material from various sources we can affirm that although the pobladores have undertaken widespread work in the production of their environment, public policies have not sufficiently recognized their role in the construction of the city. Public policy has failed to fully incorporate the potential and innovation arising from practices and strategies employed by social housing recipients and has never opened a clear space for them in decision-making or the commissioning work of the housing programs. Within the Latin America context, the Chilean housing policy of the past 20 years has been considered a success and an example to follow given that it has proven effective in reducing the housing deficit. However it has had disastrous urban and social effects, such as construction of large peripheral pockets of poverty that degrade rapidly, and generates social disintegration through the expulsion of the homeless to the periphery, where they lose their family and social networks. On another front those homeless who live under the roof of relatives and who represent the majority of demand for social housing, request to stay in consolidated neighbourhoods avoiding the periphery, partly to maintain family and social networks based on physical proximity and partly because of the facilities and services available in these neighbourhoods and their adjacency to sources of employment. At the same time, those responsible for designing housing policy have not sought to establish a form of collaboration with the pobladores in order to adjust the public programs to the needs of low-income families and the socio-cultural realities of their neighbourhoods. On the contrary an alliance with the private sector has been favored, a sector which has very limited knowledge of the demands of the recipients. Therefore instead of building more equal cities, housing policy has fueled a housing market which supports land speculation and promotes the construction industry. The question leading this research is how to incorporate the accumulated knowledge and proven procedures of the pobladores in the design and implementation of programs that promote housing and urban regeneration processes and which could improve the distribution of social housing in the city. We maintain that social housing recipients over the course of half a century have acquired and consolidated all the skills to build housing, improve neighborhoods and join the discussion on city planning. These residents are now capable of assuming a leading role in defining public policies that aim to build more sustainable and equitable cities. The social production of the environment linked to the right to the city and resident participation from the «bottom-up» is well documented in Latin American literature. In Chile there are extensive written works and assessments on housing policy with multidisciplinary or social science studies on the movement of the pobladores peaking during the 60’s and early 70’s and then again in the second half of the 80’s but afterwards this stops, with the exception of some research on social or urban history. As for studies that address the actions of the pobladores looking at the results of production and housing and urban management these have been particularly scarce and none of which cover a long period of time. The thesis then addresses the specific actions undertaken by the pobladores at different territorial levels; the housing development, the neighbourhood, the community, the city and State, and their relation to housing policy and its coordination with other actors involved in the production process of the built environment. The accomplishments of the pobladores is studied over the long term, since the enactment of the first housing law in 1906 to the present, with an emphasis between 1990 and 2010, a period of mass production and sustained social housing which was State-funded and built by the private sector in the urban periphery, and in particular between 2006 and 2010, when the pobladores break with the «neighborhood management» and «self-management» as a means to implement the housing programs of the government. To this end the entire process is outlined and is complemented by specific processes which are placed under a lens in order to focus and amplify thirteen case studies illustrating actual ways of production and management and to show how these ways of doing things are generic to the pobladores. Finally, with the lens focused on the last cycle of this process we write the new chapter of the last twenty years of this history. First there is a reconstruction of three case studies «in depth», including their origins, consolidation and the transformation of the sector or neighborhood. These «in depth» case studies are put into perspective reconstructing the historical trajectory of the production and management by the pobladores. This reconstruction over a long period is given great depth by three «specific» case studies, of historical importance, dealing with the conflict of access to land. Finally we analyze the questions raised by these processes for the production and management of housing and neighborhood in the future, based on interviews with key players and the reconstruction of seven case studies specifically regarding access to land and which are illustrative of current practice. The thesis maintains that since 2006 the pobladores through actions of management and selfmanagement and their intervention in the debate on territorial planning has placed them on a new platform for action and negotiation from which they can incorporate themselves, with all the necessary capacities, in the definition of public policy and therefore provide it with a pertinence and coherence to help towards overcoming poverty with answers more according to their realities.
Resumo:
El Zn es un elemento esencial para el crecimiento saludable y reproducción de plantas, animales y humanos. La deficiencia de Zn es una de las carencias de micronutrientes más extendidas en muchos cultivos, afectando a grandes extensiones de suelos en diferentes áreas agrícolas. La biofortificación agronómica de diferentes cultivos, incrementando la concentración de micronutriente Zn en la planta, es un medio para evitar la deficiencia de Zn en animales y humanos. Tradicionalmente se han utilizado fertilizantes de Zn inorgánicos, como el ZnSO4, aunque en los últimos años se están utilizado complejos de Zn como fuentes de este micronutriente, obteniéndose altas concentraciones de Zn soluble y disponible en el suelo. Sin embargo, el envejecimiento de la fuente en el suelo puede causar cambios importantes en su disponibilidad para las plantas. Cuando se añaden al suelo fuentes de Zn inorgánicas, las formas de Zn más solubles pierden actividad y extractabilidad con el paso del tiempo, transformándose a formas más estables y menos biodisponibles. En esta tesis se estudia el efecto residual de diferentes complejos de Zn de origen natural y sintético, aplicados en cultivos previos de judía y lino, bajo dos condiciones de riego distintas (por encima y por debajo de la capacidad de campo, respectivamente) y en dos suelos diferentes (ácido y calizo). Los fertilizantes fueron aplicados al cultivo previo en tres dosis diferentes (0, 5 y 10 mg Zn kg-1 suelo). El Zn fácilmente lixiviable se estimó con la extracción con BaCl2 0,1M. Bajo condiciones de humedad por encima de la capacidad de campo se obtuvieron mayores porcentajes de Zn lixiviado en el suelo calizo que en el suelo ácido. En el caso del cultivo de judía realizado en condiciones de humedad por encima de la capacidad de campo se compararon las cantidades extraídas con el Zn lixiviado real. El análisis de correlación entre el Zn fácilmente lixiviable y el estimado sólo fue válido para complejos con alta movilidad y para cada suelo por separado. Bajo condiciones de humedad por debajo de la capacidad de campo, la concentración de Zn biodisponible fácilmente lixiviable presentó correlaciones positivas y altamente significativas con la concentración de Zn disponible en el suelo. El Zn disponible se estimó con varios métodos de extracción empleados habitualmente: DTPA-TEA, DTPA-AB, Mehlich-3 y LMWOAs. Estas concentraciones fueron mayores en el suelo ácido que en el calizo. Los diferentes métodos utilizados para estimar el Zn disponible presentaron correlaciones positivas y altamente significativas entre sí. La distribución del Zn en las distintas fracciones del suelo fue estimada con diferentes extracciones secuenciales. Las extracciones secuenciales mostraron un descenso entre los dos cultivos (el anterior y el actual) en la fracción de Zn más lábil y un aumento en la concentración de Zn asociado a fracciones menos lábiles, como carbonatos, óxidos y materia orgánica. Se obtuvieron correlaciones positivas y altamente significativas entre las concentraciones de Zn asociado a las fracciones más lábiles (WSEX y WS+EXC, experimento de la judía y lino, respectivamente) y las concentraciones de Zn disponible, estimadas por los diferentes métodos. Con respecto a la planta se determinaron el rendimiento en materia seca y la concentración de Zn en planta. Se observó un aumento del rendimiento y concentraciones con el efecto residual de la dosis mayores (10 mg Zn kg-1) con respecto a la dosis inferior (5 mg Zn 12 kg-1) y de ésta con respecto a la dosis 0 (control). El incremento de la concentración de Zn en todos los tratamientos fertilizantes, respecto al control, fue mayor en el suelo ácido que en el calizo. Las concentraciones de Zn en planta indicaron que, en el suelo calizo, serían convenientes nuevas aplicaciones de Zn en posteriores cultivos para mantener unas adecuadas concentraciones en planta. Las mayores concentraciones de Zn en la planta de judía, cultivada bajo condiciones de humedad por encima de la capacidad de campo, se obtuvieron en el suelo ácido con el efecto residual del Zn-HEDTA a la dosis de 10 mg Zn kg-1 (280,87 mg Zn kg-1) y en el suelo calizo con el efecto residual del Zn-DTPA-HEDTA-EDTA a la dosis de 10 mg Zn kg-1 (49,89 mg Zn kg-1). En el cultivo de lino, cultivado bajo condiciones de humedad por debajo de la capacidad de campo, las mayores concentraciones de Zn en planta ese obtuvieron con el efecto residual del Zn-AML a la dosis de 10 mg Zn kg-1 (224,75 mg Zn kg-1) y en el suelo calizo con el efecto residual del Zn-EDTA a la dosis de 10 mg Zn kg-1 (99,83 mg Zn kg-1). El Zn tomado por la planta fue determinado como combinación del rendimiento y de la concentración en planta. Bajo condiciones de humedad por encima de capacidad de campo, con lixiviación, el Zn tomado por la judía disminuyó en el cultivo actual con respecto al cultivo anterior. Sin embargo, en el cultivo de lino, bajo condiciones de humedad por debajo de la capacidad de campo, se obtuvieron cantidades de Zn tomado superiores en el cultivo actual con respecto al anterior. Esta tendencia también se observó, en ambos casos, con el porcentaje de Zn usado por la planta. Summary Zinc is essential for healthy growth and reproduction of plants, animals and humans. Zinc deficiency is one of the most widespread micronutrient deficiency in different crops, and affect different agricultural areas. Agronomic biofortification of crops produced by an increased of Zn in plant, is one way to avoid Zn deficiency in animals and humans Sources with inorganic Zn, such as ZnSO4, have been used traditionally. Although, in recent years, Zn complexes are used as sources of this micronutrient, the provide high concentrations of soluble and available Zn in soil. However, the aging of the source in the soil could cause significant changes in their availability to plants. When an inorganic source of Zn is added to soil, Zn forms more soluble and extractability lose activity over time, transforming into forms more stable and less bioavailable. This study examines the residual effect of different natural and synthetic Zn complexes on navy bean and flax crops, under two different moisture conditions (above and below field capacity, respectively) and in two different soils (acid and calcareous). Fertilizers were applied to the previous crop in three different doses (0, 5 y 10 mg Zn kg-1 soil). The easily leachable Zn was estimated by extraction with 0.1 M BaCl2. Under conditions of moisture above field capacity, the percentage of leachable Zn in the calcareous soil was higher than in acid soil. In the case of navy bean experiment, performed in moisture conditions of above field capacity, amounts extracted of easily leachable Zn were compared with the real leachable Zn. Correlation analysis between the leachable Zn and the estimate was only valid for complex with high mobility and for each soil separately. Under moisture conditions below field capacity, the concentration of bioavailable easily leachable Zn showed highly significant positive correlations with the concentration of available soil Zn. The available Zn was estimated with several commonly used extraction methods: DTPA-TEA, AB-DTPA, Mehlich-3 and LMWOAs. These concentrations were higher in acidic soil than in the calcareous. The different methods used to estimate the available Zn showed highly significant positive correlations with each other. The distribution of Zn in the different fractions of soil was estimated with different sequential extractions. The sequential extractions showed a decrease between the two crops (the previous and current) at the most labile Zn fraction and an increase in the concentration of Zn associated with the less labile fractions, such as carbonates, oxides and organic matter. A positive and highly significant correlation was obtained between the concentrations of Zn associated with more labile fractions (WSEX and WS + EXC, navy bean and flax experiments, respectively) and available Zn concentrations determined by the different methods. Dry matter yield and Zn concentration in plants were determined in plant. Yield and Zn concentration in plant were higher with the residual concentrations of the higher dose applied (10 mg Zn kg-1) than with the lower dose (5 mg Zn kg-1), also these parameters showed higher values with application of this dose than with not Zn application. The increase of Zn concentration in plant with Zn treatments, respect to the control, was greater in the acid soil than in the calcareous. The Zn concentrations in plant indicated that in the calcareous soil, new applications of Zn are desirable in subsequent crops to maintain suitable concentrations in plant. 15 The highest concentrations of Zn in navy bean plant, performed under moisture conditions above the field capacity, were obtained with the residual effect of Zn-HEDTA at the dose of 10 mg Zn kg-1 (280.87 mg Zn kg-1) in the acid soil, and with the residual effect of Zn- DTPA-HEDTA-EDTA at a dose of 10 mg Zn kg-1 (49.89 mg Zn kg-1) in the calcareous soil. In the flax crop, performed under moisture conditions below field capacity, the highest Zn concentrations in plant were obtained with the residual effect of Zn-AML at the dose of 10 mg Zn kg-1 (224.75 Zn mg kg-1) and with the residual effect of Zn-EDTA at a dose of 10 mg Zn kg-1 (99.83 mg Zn kg-1) in the calcareous soil. The Zn uptake was determined as a combination of yield and Zn concentration in plant. Under moisture conditions above field capacity, with leaching, Zn uptake by navy bean decreased in the current crop, respect to the previous crop. However, in the flax crop, under moisture conditions below field capacity, Zn uptake was higher in the current crop than in the previous. This trend is also observed in both cases, with the percentage of Zn used by the plant
Resumo:
Esta investigación se ha dividido en tres etapas, primero se analizó el efecto de los hidrocarburos (crudos liviano, extrapesado y gasoil) a razón de dosis bajas 2 y 4 % p/p, y altas 30, 40 y 50 % p/p en un suelo arenoso de la Mesa de Guanipa en Venezuela, empleando técnicas analíticas e instrumentales para su caracterización, también se determinó el efecto que tienen estos contaminantes sobre la actividad biológica del suelo durante 29 días de incubación. La segunda fase consistió en aplicar un tratamiento térmico a una velocidad máxima de calentamiento de 0,33 ºC/min por 2h, a muestras de suelo de la zona central de España, contaminado con gasoil a razón de 2, 4, 10, 20, 50 % p/p. En la última fase se utilizó una propuesta de la deshalogenación química, en suelos contaminados con 413, 95, 14,2 ppm de askarel, y en aceites minerales con 363, 180, 100, 94 ppm de askarel. Los resultados mostraron, que el efecto que causan los hidrocarburos en el suelo dependen de las características propias del suelo, su entorno, concentración y composición del hidrocarburo, con respecto a las curvas acumuladas de mg C - CO2 /100 g de suelo, se observó que los hidrocarburos inhiben la biomasa microbiana en los suelos. Para el tratamiento térmico los resultados han mostrado una eliminación del gasoil en un 94,11 % en la muestra que contenía 2% gasoil, 95,85 % para la muestra del 4 %, 98,48 % para la muestra del 10 %, 99,45 % para la del 20 % y finalmente 99,51 % para la del 50 % gasoil, se observó que la adición del gasoil al suelo produce cambios significativos con respecto al testigo, luego del tratamiento térmico la fracción de la materia orgánica en el suelo disminuyó significativamente. La deshalogenación química propuesta en aceites dieléctricos como en suelos resultó satisfactoria. En aceites han resultado 8 tratamientos con eliminaciones del cloro por encima del 50 % y en suelos 4 tratamientos con 50 % de eliminación. Además se ha experimentado con la urea para el caso del suelo contaminado dando eliminación de un 80,4 % del cloro, y con etanol como agente oxidante en los aceites dieléctricos, resultando un 40 % de eliminación.
Resumo:
- Resumen La hipótesis que anima esta tesis doctoral es que algunas de las características del entorno urbano, en particular las que describen la accesibilidad de su red de espacio público, podrían estar relacionadas con la proporción de viajes a pie o reparto modal, que tiene cada zona o barrio de Madrid. Uno de los puntos de partida de dicha hipótesis que el entorno urbano tiene una mayor influencia sobre los viaje a pie que en sobre otros modos de transporte, por ejemplo que en los viajes de bicicleta o en transporte público; y es que parece razonable suponer que estos últimos van a estar más condicionadas por ejemplo por la disponibilidad de vías ciclistas, en el primer caso, o por la existencia de un servicio fiable y de calidad, en el segundo. Otra de las motivaciones del trabajo es que la investigación en este campo de la accesibilidad del espacio público, en concreto la denominada “Space Syntax”, ha probado en repetidas ocasiones la influencia de la red de espacio público en cómo se distribuye la intensidad del tráfico peatonal por la trama urbana, pero no se han encontrado referencias de la influencia de dicho elemento sobre el reparto modal. De acuerdo con la hipótesis y con otros trabajos anteriores se propone una metodología basada en el análisis empírico y cuantitativo. Su objetivo es comprobar si la red de espacio público, independientemente de otras variables como los usos del suelo, incluso de las variables de ajenas entorno no construido, como las socioeconómicas, está o no relacionada estadísticamente con la proporción de peatones viajes en las zonas urbanas. Las técnicas estadísticas se utilizan para comprobar sistemáticamente la asociación de las variables del entorno urbano, denominadas variables independientes, con el porcentaje de viajes a pie, la variable dependiente. En términos generales, la metodología es similar a la usada en otros trabajos en este campo como los de CERVERÓ y KOCKLEMAN (1997), CERVERÓ y DUNCAN (2003), o para los que se utilizan principalmente en la revisión general de TRB (2005) o, más recientemente, en ZEGRAS (2006) o CHATMAN (2009). Otras opciones metodológicas, como los métodos de preferencias declaradas (ver LOUVIERE, HENSHER y SWAIT, 2000) o el análisis basado en agentes (PENN & TURNER, 2004) fueron descartados, debido a una serie de razones, demasiado extensas para ser descritas aquí. El caso de estudio utilizado es la zona metropolitana de Madrid, abarcándola hasta la M-50, es decir en su mayor parte, con un tamaño aproximado de 31x34 Km y una población de 4.132.820 habitantes (aproximadamente el 80% de la población de la región). Las principales fuentes de datos son la Encuesta Domiciliaria de Movilidad de 2004 (EDM04), del Consorcio Regional de Transportes de Madrid que es la última disponible (muestra: > 35.000 familias,> 95.000 personas), y un modelo espacial del área metropolitana, integrando el modelo para calcular los índices de Space Syntax y un Sistema de Información Geográfica (SIG). La unidad de análisis, en este caso las unidades espaciales, son las zonas de transporte (con una población media de 7.063 personas) y los barrios (con una población media de 26.466 personas). Las variables del entorno urbano son claramente el centro del estudio. Un total de 20 índices (de 21) se seleccionan de entre los más relevantes encontrados en la revisión de la producción científica en este campo siendo que, al mismo tiempo, fueran accesibles. Nueve de ellos se utilizan para describir las características de los usos del suelo, mientras que otros once se usan para describir la red de espacios públicos. Estos últimos incluyen las variables de accesibilidad configuracional, que son, como se desprende de su título, el centro del estudio propuesto. La accesibilidad configuracional es un tipo especial de accesibilidad que se basa en la configuración de la trama urbana, según esta fue definida por HILLIER (1996), el autor de referencia dentro de esta línea de investigación de Space Syntax. Además se incluyen otras variables de la red de espacio público más habituales en los estudios de movilidad, y que aquí se denominan características geométricas de los elementos de la red, tales como su longitud, tipo de intersección, conectividad, etc. Por último se incluye además una variable socioeconómica, es decir ajena al entorno urbano, para evaluar la influencia de los factores externos, pues son varios los que pueden tener un impacto en la decisión de caminar (edad, género, nivel de estudios, ingresos, tasa de motorización, etc.). La asociación entre las variables se han establecido usando análisis de correlación (bivariante) y modelos de análisis multivariante. Las primeras se calculan entre por pares entre cada una de las 21 variables independientes y la dependiente, el porcentaje de viajes a pie. En cuanto a los segundos, se han realizado tres tipos de estudios: modelo multivariante general lineal, modelo multivariante general curvilíneo y análisis discriminante. Todos ellos son capaces de generar modelos de asociación entre diversas variables, pudiéndose de esta manera evaluar con bastante precisión en qué medida cada modelo reproduce el comportamiento de la variable dependiente, y además, el peso o influencia de cada variable en el modelo respecto a las otras. Los resultados fundamentales del estudio se expresan en dos modelos finales alternativos, que demuestran tener una significativa asociación con el porcentaje de viajes a pie (R2 = 0,6789, p <0,0001), al explicar las dos terceras partes de su variabilidad. En ellos, y en general en todo el estudio realizado, se da una influencia constante de tres índices en particular, que quedan como los principales. Dos de ellos, de acuerdo con muchos de los estudios previos, corresponden a la densidad y la mezcla de usos del suelo. Pero lo más novedoso de los resultados obtenidos es que el tercero es una medida de la accesibilidad de la red de espacio público, algo de lo que no había referencias hasta ahora. Pero, ¿cuál es la definición precisa y el peso relativo de cada uno en el modelo, es decir, en la variable independiente? El de mayor peso en la mayor parte de los análisis realizados es el índice de densidad total (n º residentes + n º puestos de trabajo + n º alumnos / Ha). Es decir, una densidad no sólo de población, sino que incluye algunas de las actividades más importantes que pueden darse una zona para generar movilidad a pie. El segundo que mayor peso adquiere, llegando a ser el primero en alguno de los análisis estadísticos efecturados, es el índice de accesibuilidad configuracional denominado integración de radio 5. Se trata de una medida de la accesibilidad de la zona, de su centralidad, a la escala de, más un menor, un distrito o comarca. En cuanto al tercero, obtiene una importancia bastante menor que los anteriores, y es que representa la mezcla de usos. En concreto es una medida del equilibrio entre los comercios especializados de venta al por menor y el número de residentes (n º de tiendas especializadas en alimentación, bebidas y tabaco / n º de habitantes). Por lo tanto, estos resultados confirman buena parte de los de estudios anteriores, especialmente los relativas a los usos del suelo, pero al mismo tiempo, apuntan a que la red de espacio público podría tener una influir mayor de la comprobada hasta ahora en la proporción de peatones sobre el resto de modos de transportes. Las razones de por qué esto puede ser así, se discuten ampliamente en las conclusiones. Finalmente se puede precisar que dicha conclusión principal se refiere a viajes de una sola etapa (no multimodales) que se dan en los barrios y zonas del área metropolitana de Madrid. Por supuesto, esta conclusión tiene en la actualidad, una validez limitada, ya que es el resultado de un solo caso — Abstract The research hypothesis for this Ph.D. Thesis is that some characteristics of the built environment, particularly those describing the accessibility of the public space network, could be associated with the proportion of pedestrians in all trips (modal split), found in the different parts of a city. The underlying idea is that walking trips are more sensitive to built environment than those by other transport modes, such as for example those by bicycle or by public transport, which could be more conditioned by, e.g. infrastructure availability or service frequency and quality. On the other hand, it has to be noted that the previously research on this field, in particular within Space Syntax’s where this study can be referred, have tested similar hypothesis using pedestrian volumes as the dependent variable, but never against modal split. According to such hypothesis, research methodology is based primarily on empirical quantitative analysis, and it is meant to be able to assess whether public space network, no matter other built environment and non-built environment variables, could have a relationship with the proportion of pedestrian trips in urban areas. Statistical techniques are used to check the association of independent variables with the percentage of walking in all trips, the dependent one. Broadly speaking this methodology is similar to that of previous studies in the field such as CERVERO&KOCKLEMAN (1997), CERVERO & DUNCAN (2003), or to those used mainly in the general review of T.R.B. (2005) or, more recently in ZEGRAS (2006) or CHATMAN (2009). Other methodological options such as stated choice methods (see LOUVIERE, HENSHER & SWAIT, 2000) or agent based analysis (PENN & TURNER, 2004), were discarded, due to a number of reasons, too long to be described here. The case study is not the entire Madrid’s metropolitan area, but almost (4.132.820 inhabitants, about 80% of region´s population). Main data sources are the Regional Mobility Home Based Survey 2004 (EDM04), which is the last available (sample: >35.000 families, > 95.000 individuals), and a spatial model of the metropolitan area, developed using Space Syntax and G.I.S. techniques. The analysis unit, in this case spatial units, are both transport zones (mean population = 7.063) and neighborhoods (mean population = 26.466). The variables of the built environment are clearly the core of the study. A total of 20 (out of 21) are selected from among those found in the literature while, at the same time, being accessible. Nine out of them are used to describe land use characteristics while another eleven describe the network of public spaces. Latter ones include configurational accessibility or Space Syntax variables. This is a particular sort of accessibility related with the concept of configuration, by HILLIER (1996), one of the main authors of Space Syntax, But it also include more customary variables used in mobility research to describe the urban design or spatial structure (here public space network), which here are called geometric characteristics of the such as its length, type of intersection, conectivity, density, etc. Finally a single socioeconomic variable was included in order to assess the influence non built environment factors that also may have an impact on walking (age, income, motorization rate, etc.). The association among variables is worked out using bi-variate correlation analysis and multivariate-analysis. Correlations are calculated among the 21 independent variables and the dependent one, the percentage of walking trips. Then, three types of multi-variate studies are run: general linear, curvilinear and discriminant multi-variate analysis. The latter are fully capable of generating complex association models among several variables, assessing quite precisely to what extent each model reproduces the behavior of the dependent variable, and also the weight or influence of each variable in the model. This study’s results show a consistent influence of three particular indexes in the two final alternative models of the multi-variate study (best, R2=0,6789, p<0,0000). Not surprisingly, two of them correspond to density and mix of land uses. But perhaps more interesting is that the third one is a measure of the accessibility of the public space network, a variable less important in the literature up to now. Additional precisions about them and their relative weight could also be of some interest. The density index is not only about population but includes most important activities in an area (nº residents + nº jobs+ nº students/Ha). The configurational index (radius 5 integration) is a measure of the accessibility of the area, i.e. centrality, at the scale of, more a less, a district. Regarding the mix of land uses index, this one is a measure of the balance between retail, in fact local basic retail, and the number of residents (nº of convenience shops / nº of residents). Referring to their weights, configurational index (radius 5 integration) gets the higher standardized coefficient of the final equation. However, in the final equations, there are a higher number of indexes coming from the density or land use mix categories than from public space network enter. Therefore, these findings seem to support part of the field’s knowledge, especially those concerning land uses, but at the same time they seem to bring in the idea that the configuration of the urban grid could have an influence in the proportion of walkers (as a part of total trips on any transport mode) that do single journey trips in the neighborhoods of Madrid, Spain. Of course this conclusion has, at present, a limited validity since it’s the result of a single case. The reasons of why this can be so, are discussed in the last part of the thesis.
Resumo:
La Tesis, formalmente, es parte de la que consta desde 1.975 en la biblioteca de la Escuela con la signatura 20024. Manteniendo el mismo título, estudia la evolución de la teoría de la restamración y del análisis de los centros históricos a través de la bibliografía publicada en los últimos veinte años y, de algunas actuaciones realizadas en Sevilla durante el mismo período. El resultado está presentado, siguiendo el orden del índice General, en cinco volúmenes: I resumen, II El desarrollo general del tema, III Apéndices, IV bibliografía publicada en los últimos veinte años y, V glosario de términos. Para identificar los orígenes y antecedentes de la teoría de la restauración arquitectónica y de su evolución, el estudio se encuentra desarrollado en cuatro capítulos: Una visión general; La restauración en España en el siglo XX hasta 1.976; Los últimos veinte años 1975 - 1.996 y, El estudio de los centros históricos. En el primero, se perfila el origen, la evolución y el estado actual de la cuestión dentro del ámbito internacional. Al respecto, se destacan las relaciones entre los hechos y las opiniones en Europa y en América. Las consecuencias de la revolución francesa, de la revolución industrial, de la segunda guerra mundial y del movimiento moderno sobre el patrimonio ya construido a través de los cambios en el marco legal; de la opinión de los más destacados profesionales que se han pronimciado sobre el tema, entre otros: Vitet, Viollet le Duc, Ruskin, Morris, Boito, Riegl, Giovannoni, Brandi. Paralelamente, también se hace referencia a la formación del arquitecto y a la participación de otras disciplinas en la restam-ación del patrimonio cultiual construido. En el segundo capítulo, se estudia el proceso de adscripción de los especialistas españoles a las corrientes internacionales de la restauración y la forma como inició la "restauración perceptiva" en los escritos de los "restauradores" que habían asumido el pensamiento de Viollet le Duc, representados por Lampérez y de los "antirrestauradores" que defendían la postura de Ruskin. La tercera vía sugerida por Boito, debido a su distanciamiento razonado de los dos anteriores, no se la encuentra identificada de manera específica en ningún autor español de esta época pero sí a través de la adopción generalizada de la casuística, del "caso por caso". Durante la República, "la elaboración teórica perderá el carácter de debate enconado que había caracterizado el desarrollo de decenios anteriores lo cual, unido a que la escasa diuación del período impide la formación de una tradición teórica, hace que las contribuciones no sean cuantiosas" Posteriormente, cuando el trabajo teórico de Torres Balbás puesto de manifiesto en centenares de artículos y en las obras de la Alhambra, permitía advertir su aporte al enriquecimiento de los principios internacionales de la restauración, sobrevino la guerra civil y con ella el inicio de un largo período de aletargamiento. Él, en 1.931 había asistido a la conferencia de Expertos para la protección realizada en Atenas para presentar su trabajo titulado: "Evolución del criterio respecto a la restauración de monimientos en la España actual". De esa reunión surgió la Carta Internacional que treinta y tres años después, serviría de referente a la Carta de Venecia, el documento de más amplia repercusión en el ámbito de la protección del patrimonio cultural edificado (arquitectura y centros históricos). La continuidad de los congresos de especialistas iniciada a fines del siglo pasado, se interrumpió en la década de los cuarenta. Debido a las consecuencias de la segunda guerra mundial se aprobó la "Convención de La Haya sobre protección de los Bienes Culturales en caso de conflicto armado". A partir de entonces, los moniunentos (la restaiuración) quedarán inmersos en luia nueva concepción, más general y amplia que, después de ser profundizada por Giannini, será adoptada en la Ley del Patrimonio Histórico Español, vigente desde 1.985. Los primeros pronimciamientos del movimiento de la arquitectm-a moderna y después las sendas Cartas de Atenas (1.931, 1.933) habían ubicado a la restaiuación en una situación perfectamente acotada dentro de la cual prolongaban su vida todas las otras corrientes: historicista, ecléctica, nacionalista, neoromántica, etc. En un lado se ubicaron los "modernos" y en el otro los "conservacionistas". Solamente a fines de los años setenta, demostradas las insuficiencias "modernas", ésta reiterativa compartiamentación tratará de ser superada. En el tercer capítulo se estudia detalladamente el aporte bibliográfico al tema y se evidencia la forma cómo, por exceso de doctrina y, coetáneamente, de una escasa teoría, terminada la dictadm-a en España, la situación del patrimonio arquitectónico seguía pareciéndose mucho a aquella descrita por Torres Balbás sesenta años antes: "un tremendo deterioro", debido a la especulación inmobiliaria y a la falta de vma política cultiu-al. El peso del régimen anterior parece haber sido tal que, pocas cosas escaparon a su control. Gracias al ambiente democrático, según la bibliografía revisada, la actitud de los especialistas en "lo nuevo" frente a "lo antiguo" también cambió. La norma, desde entonces ha perdido contundencia pero no su vigencia. Después del agotamiento terminológico al que llegó la restam-ación en los años setenta, Sola Morales introdujo, por primera vez en España ima palabra familiar entre los italianos pero novedosa en castellano: "intervención". A partir de este momento se adoptaron los principios del "restauro crítico" italiano y se provocó el cuestionamiento sobre la rehabilitación. En 1.983, por primera vez en español aparece resiunida y ordenada por Antón Capitel, una "Discusión crítica sobre las Teorías de la Restam^ación arquitectónica". Será parte constitutiva del libro publicado en 1.988 "Metamorfosis de monumentos". Emergía de un período esencialmente confuso pero de reflexión a la que se integraron los arqueólogos, historiadores, críticos, etc, debido particularmente a dos circunstancias: la infrautilización del patrimonio construido en los centros históricos y la consecuente "fiebre restauradora y rehabilitadora". En los últimos veinte años, según 524 registros publicados en España de un total de 799 que constan en el índice onomástico de la bibliografía estudiada, la notable influencia del pensamiento italiano sobre el tema de la tesis, solamente ha servido para matizar la tradición doctrinaria local, incapaz de extraer de su enorme tradición práctica, un componente teórico generador propio. Lo dicho se constata al analizar dos importantes obras ejecutadas en Sevilla durante el período de preparación del Quinto Centenario: la Cartuja y el Palacio de Manara. La primera no ha conseguido evidenciar su objetivo cultural. La restaiu"ación en el Palacio de Manara ha logrado recuperar la distribución tipológica de una importante casa señorial del centro histórico de Sevilla pero, contrariamente a lo que se proclama, tampoco tiene características para convertirse en un modelo a seguir. En el último capítulo se estudia la relación entre la restamación arquitectónica y el centro histórico. Si a éste se lo reconoce como una unidad homogénea, su protección intermediada por la intervención en sus monumentos tendría una apreciable limitación pues, esa arquitectura sin aquella connotación no podría garantizar la protección de todo el "conjunto". De esta circunstancia emerge el planeamiento como el único reciuso técnico capaz de garantizar la protección integral de la arqmtectura. Sin embargo, en España, el planeamiento de protección sigue dependiendo de la filosofía de la Ley del Suelo. No de la de Cultura. Debido a ello, todavía no es posible apreciar una postm-a de lo "antiguo" frente a lo "nuevo" en forma semejante a la conocida actitud de quienes están edificando lo "nuevo" hacia lo "antiguo". Esta es la situación que en el futuro deberá superar la "restauración" arquitectónica y la "protección" en los centros históricos para hacer propicia una reflexión teórica dinámica. Complementariamente, a manera de conclusión, entre otros puntos se ha verificado: En cantidad, en calidad y en diversidad, el contenido de los registros bibliográficos de las dos últimas décadas en España, son superiores a los de épocas anteriores pero, en cuanto a profundidad, las diferencias se hacen imperceptibles. No existe una teoría de la restam-ación tomada como un. conjunto de conocimientos especulativos independientes de su aplicación. Existen algunos componentes dispersos que, desde luego, constituyen un cuerpo doctrinal (en cuanto normativo) con indudables contenidos conceptuales que a la vez podrían constituir los fragmentos sueltos de una posible teoría. El fracaso en la delimitación del ámbito del restam-o y en la construcción de una teoría general sobre la restauración de monumentos en España no quita ni pone importancia a las intervenciones en el patrimonio edilicio con alto valor social agregado realizadas en los últimos veinte años. Eso sí, dificulta identificar una actitud profesional y académica generalizadas frente al patrimonio cultural edificado. No es posible afirmar que las intervenciones de los últimos años estén sometidas a una teoría general o específica ni tampoco decir que hay una "escuela regional" entendida como una tradición de haceres, actitudes o características resultantes commies en las restam-aciones del patrimonio arquitectónico. Obedecen al cumplimiento de la doctrina tradicional que bien podría convertirse en el pragmático empleo de un recurso artificio con connotación ética. En la restauración - a diferencia de la arquitectura de nueva planta- pareciera ser necesario y más fácil identificar la relación entre ética y estética; por lo tanto, habría una especie de obligación social de explicar la razón de ser de las obras tanto como la forma de ejecutarlas. Como conclusión, operativa y parte de ese corpus teórico -que no teoría propiamente dicha- se ha elaborado lui GLOSARIO de términos especializados sobre el tema.
Resumo:
La implantación de un nuevo hospital incrementa el tráfico de la zona y cambia el uso del suelo de las áreas cercanas a su localización. Para el planificador resulta de gran utilidad la aplicación de modelos matemáticos para estimar los viajes generados y poder prevenir los impactos negativos. Este trabajo tiene como objetivo principal examinar la concentración de viajes generados en cuatro hospitales seleccionados de Madrid y cinco hospitales brasileños, utilizando los modelos del ?Institute of Transportation Engenieers? ITE, comparados con los modelos desarrollados y con los flujos reales. Una vez realizado el análisis y aplicada la metodología comparativa, se han obtenido unos resultados distantes para el caso de los flujos reales en Madrid. En cambio, para los hospitales brasileños los modelos planteados se pueden aprovechar, sobre todo para la estimación de los viajes en vehículo privado.