803 resultados para 310603 Control de la erosión


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los nogales son especies pertenecientes a la familia Juglandaceae, ampliamente distribuidos por las zonas templadas y subtropicales del planeta. Son apreciados desde la antigüedad por la calidad de sus frutos y su madera. Su grado de domesticación es relativamente bajo comparado con cultivos alimenticios, e incluso respecto a otras especies forestales. Aunque el mercado de la madera de nogal suele mover grandes cantidades de dinero, su producción está basada principalmente en explotaciones extensivas, creciendo bajo sistemas poco tecnificados. Algunos intentos se han realizado en los EUA y Europa para la obtención de variedades madereras de nogal, pero ya sea por sus prolongados ciclos biológicos, por la complejidad genética de los caracteres sobre los que habría que incidir, por la escasa experiencia acumulada en programas de mejoramiento o por las limitaciones de los protocolos comerciales de reproducción asexual disponibles, lo cierto es que no existen genotipos seleccionados y destinados para tal fin. Poseer la capacidad de reproducir asexualmente los genotipos selectos es el complemento necesario de los programas de mejoramiento genético. Igualmente constituye la base de cualquier sistema productivo intensivo. Los sistemas de propagación vegetativa tradicionales en la familia Juglandaceae, además de ser inefectivos para la producción de elevados volúmenes de plantas, implican una gran complejidad en su ejecución y sus resultados suelen ser impredecibles. La micropropagación se plantea como la mejor alternativa para superar las dificultades de estas técnicas. Sin embargo, los nogales son considerados como altamente recalcitrantes al cultivo de tejidos, lo que provoca que sólo muy pocos genotipos sean propagados de forma comercial. Varias fases de la micropropagación de los nogales son especialmente conflictivas, e inciden de manera individual, y en su conjunto, sobre el resultado final. El control de los contaminantes microbianos, junto con la emisión de sustancias fenólicas y el decaimiento de los cultivos dificultan el establecimiento in vitro de la gran mayoría de los genotipos. La re-emergencia de microorganismos durante la proliferación es una fuente de pérdidas importante que también puede conducir al fracaso de la micropropagación. Las bajas tasas de enraizamiento y la elevada mortalidad registrada durante la aclimatación, unidas a factores genéticos, terminan por limitar la utilización comercial de esta tecnología a unos pocos genotipos. Con el objetivo de desarrollar un protocolo de micropropagación pre-comercial para el nogal híbrido maderero, se incidió en la solución de los principales problemas que dificultan la definición de ésta como una tecnología funcional para la producción de clones de ortetos selectos, al menos, para aquellos genotipos que pudieron ser establecidos in vitro. Así, aquí se presenta una metodología para el establecimiento in vitro que reduce la complejidad de esta fase y mejora el porcentaje de éxito durante la introducción. Igualmente se profundizó en el saneamiento de material contaminado y en el desarrollo de una herramienta que sirva para abordar el control de la re-emergencia microbiana durante la proliferación. También se analizan los elementos claves de este protocolo que garantizan la obtención de microbrotes de calidad enraizables, potencialmente capaces de soportar el paso a condiciones ex vitro. La evaluación de aspectos como la sustitución del FeEDTA por el FeEDDHA como fuente hierro, la introducción del Floroglucinol en el medio de cultivo de proliferación y la determinación de una fuente de carbono adecuada para la formación de las raíces, junto con un manejo adecuado de la fase previa a la pre-inducción radical, fueron determinantes en la micropropagación de hasta 14 genotipos de nogal híbrido maderero. Adicionalmente, la realización de un análisis detallado del sistema radical permitió comprobar que la metodología propuesta favorece la producción de raíces que están conectadas vascularmente con el tallo, lo que unido a la presencia de estomas morfológicamente normales, permite reducir las pérdidas por estas causas y favorece el proceso de endurecimiento. Como complemento del programa de mejora y de clonación, se abordó el desarrollo de una herramienta que permitiera identificar y diferenciar las selecciones. Buscando combinar la simplicidad de la técnica con el máximo poder discriminativo posible, se eligió el uso de marcadores genéticos del tipo SSR. En una primera aproximación, se evaluó la conveniencia de emplear primers previamente publicados (Woeste et al. 2002) y utilizados en varias especies de la familia Juglandaceae (Dangl et al. 2005, Victory et al. 2006, Ross-Davis y Woeste 2008, entre otros autores). A pesar de que la mayoría de las parejas de cebadores evaluadas rindieron productos de amplificación interpretables, su capacidad de clasificación conjunta fue muy reducida y de uso muy limitado en una población afectada por un alto grado de parentesco. Por esta razón fue necesario desarrollar una batería de marcadores microsatélites diseñados específicamente para el nogal híbrido maderero. De las 700 regiones secuenciadas, finalmente 24 parejas demostraron ser funcionales y lo suficientemente polimórficas como para discriminar entre medios hermanos. Al ser utilizadas 10 de las nuevas parejas de primers, junto con 2 de la genoteca desarrollada por Woeste et al. (2002), en una población diferente fue posible genotipar con una PID del orden de 10-11, lo que abre la posibilidad de utilizar este set de marcadores de novo dentro de la familia Juglandaceae.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo forma parte del proyecto “Health aware enhanced range wireless power transfer systems”, conocido por el acrónimo de ETHER. Los grupos investigadores que forman parte de ETHER involucran a dos instituciones, Universidad Politécnica de Cataluña (UPC) y Universidad Politécnica de Madrid (UPM). En este caso, el trabajo ha sido llevado a cabo en el marco del Centro de Electrónica Industrial(CEI) de la UPM. Además, este trabajo es el tercero en una sucesión de estudios realizados por el CEI con el objetivo de lograr implementar un sistema de carga inalámbrica en un marcapasos. Los trabajos previos al desarrollado son los realizados por Miguel Gifford y María Gonzalez. Otros trabajos del CEI han servido de guía. El principal objetivo de la aplicación, es evitar las operaciones que se llevan a cabo actualmente para la sustitución de la batería de los marcapasos implantados en pacientes. Este periodo de sustitución es del orden de cuatro años, lo que depende del tipo de marcapasos y las circunstancias en las que se vea envuelto el paciente. Se pretende lograr la carga del dispositivo causando la menor molestia posible al paciente sin afectar a su salud. El sistema de carga inalámrica o WPT1, está basado en inducción magnética resonante, conocida como RIC2. Esta tecnología se fundamenta en el uso de bobinas acopladas como elemento transmisor de energía. A su vez, la impedancia de estas bobinas, es compensada mediante el uso de condensadores, obteniendo circuitos resonantes. Mediante el uso de RIC se logran mejores características técnicas para la transmisión de energía en el rango medio. Esto permite salvar la distancia entre el elemento generador y la batería del marcapasos, incluso ante la existencia de tejido orgánico entre las dos bobinas. Se han considerado dos posibilidades de configuraci´on del sistema. Dos etapas: se dispone de dos bobinas, emisora y receptora. Esta configuración supone trabajar a altas frecuencias para conseguir transferencia de energías efectivas teniendo en cuenta las especificaciones del marcapasos. Tres etapas: se dispone de tres bobinas, emisora, intermedia y receptora. Se mejora el alcance, permitiendo trabajar a menores frecuencias, pero complicando el control y la implementación del sistema. Sin embargo, el foco de los esfuerzos invertidos en este trabajo, es el estudio del sistema de optimización que se introduce en las configuraciones anteriormente descritas. La optimización se centra en conseguir máxima transferencia de potencia, quedando relegado a un segundo plano el rendimiento. Esto se justifica por las características de la aplicación donde la principal limitación es la viabilidad del sistema. Asímismo, la viabilidad viene impuesta por la potencia que consume el marcapasos y la que es capaz de suministrar el sistema. Este sistema de optimización se basa en la regulación en frecuencia y en la adaptación de la impedancia de carga. Este último método es estudiado, y se basa en lograr una impedancia de carga igual al complejo conjugado de la impedancia de salida, logrando máxima transferencia de potencia. El sistema de optimización hace uso de varias estructuras de control de electrónica de potencia. Inversor: Se sitúa en la etapa emisora y permite controlar la frecuencia de trabajo del sistema. Rectificador activo: Se sitúa en la etapa receptora y controla el desfase entre intensidad y tensión. Convertidor CC-CC: Se sitúa en la etapa receptora, tras el rectificador. Controla la amplitud de la tensión.Mediante el uso conjunto del rectificador y el convertidor es posible controlar la impedancia de la carga. Se ha realizado un análisis teórico para determinar el punto de funcionamiento óptimo del sistema, y posteriormente, se han validado estos resultados mediante simulaciones. Se demuestra que la potencia transferida por el sistema WTP se multiplica por cinco respecto de la solución original, es decir, en ausencia del sistema de optimización. Además se logra mayor robustez, ya que el control activo del sistema proporciona mayor adaptabilidad ante condiciones alejadas de las de diseño. El trabajo realizado se ha prolongado durante un periodo de doscientos días efectivos con una dedicación de 360 horas de trabajo. El coste total asignado al desempeño del trabajo es de 16.678,94 euros.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La protección de las aguas subterráneas es una prioridad de la política medioambiental de la UE. Por ello ha establecido un marco de prevención y control de la contaminación, que incluye provisiones para evaluar el estado químico de las aguas y reducir la presencia de contaminantes en ellas. Las herramientas fundamentales para el desarrollo de dichas políticas son la Directiva Marco del Agua y la Directiva Hija de Aguas Subterráneas. Según ellas, las aguas se consideran en buen estado químico si: • la concentración medida o prevista de nitratos no supera los 50 mg/l y la de ingredientes activos de plaguicidas, de sus metabolitos y de los productos de reacción no supera el 0,1 μg/l (0,5 μg/l para el total de los plaguicidas medidos) • la concentración de determinadas sustancias de riesgo es inferior al valor umbral fijado por los Estados miembros; se trata, como mínimo, del amonio, arsénico, cadmio, cloruro, plomo, mercurio, sulfatos, tricloroetileno y tetracloroetileno • la concentración de cualquier otro contaminante se ajusta a la definición de buen estado químico enunciada en el anexo V de la Directiva marco sobre la política de aguas • en caso de superarse el valor correspondiente a una norma de calidad o a un valor umbral, una investigación confirma, entre otros puntos, la falta de riesgo significativo para el medio ambiente. Analizar el comportamiento estadístico de los datos procedentes de la red de seguimiento y control puede resultar considerablemente complejo, debido al sesgo positivo que suelen presentar dichos datos y a su distribución asimétrica, debido a la existencia de valores anómalos y diferentes tipos de suelos y mezclas de contaminantes. Además, la distribución de determinados componentes en el agua subterránea puede presentar concentraciones por debajo del límite de detección o no ser estacionaria debida a la existencia de tendencias lineales o estacionales. En el primer caso es necesario realizar estimaciones de esos valores desconocidos, mediante procedimientos que varían en función del porcentaje de valores por debajo del límite de detección y el número de límites de detección aplicables. En el segundo caso es necesario eliminar las tendencias de forma previa a la realización de contrastes de hipótesis sobre los residuos. Con esta tesis se ha pretendido establecer las bases estadísticas para el análisis riguroso de los datos de las redes de calidad con objeto de realizar la evaluación del estado químico de las masas de agua subterránea para la determinación de tendencias al aumento en la concentración de contaminantes y para la detección de empeoramientos significativos, tanto en los casos que se ha fijado un estándar de calidad por el organismo medioambiental competente como en aquéllos que no ha sido así. Para diseñar una metodología que permita contemplar la variedad de casos existentes, se han analizado los datos de la Red Oficial de Seguimiento y Control del Estado Químico de las Aguas Subterráneas del Ministerio de Agricultura, Alimentación y Medio Ambiente (Magrama). A continuación, y dado que los Planes Hidrológicos de Cuenca son la herramienta básica de las Directivas, se ha seleccionado la Cuenca del Júcar, dada su designación como cuenca piloto en la estrategia de implementación común (CIS) de la Comisión Europea. El objetivo principal de los grupos de trabajo creados para ello se dirigió a implementar la Directiva Derivada de Agua Subterráneas y los elementos de la Directiva Marco del Agua relacionadas, en especial la toma de datos en los puntos de control y la preparación del primer Plan de Gestión de Cuencas Hidrográficas. Dada la extensión de la zona y con objeto de analizar una masa de agua subterránea (definida como la unidad de gestión en las Directivas), se ha seleccionado una zona piloto (Plana de Vinaroz Peñiscola) en la que se han aplicado los procedimientos desarrollados con objeto de determinar el estado químico de dicha masa. Los datos examinados no contienen en general valores de concentración de contaminantes asociados a fuentes puntuales, por lo que para la realización del estudio se han seleccionado valores de concentración de los datos más comunes, es decir, nitratos y cloruros. La estrategia diseñada combina el análisis de tendencias con la elaboración de intervalos de confianza cuando existe un estándar de calidad e intervalos de predicción cuando no existe o se ha superado dicho estándar. De forma análoga se ha procedido en el caso de los valores por debajo del límite de detección, tomando los valores disponibles en la zona piloto de la Plana de Sagunto y simulando diferentes grados de censura con objeto de comparar los resultados obtenidos con los intervalos producidos de los datos reales y verificar de esta forma la eficacia del método. El resultado final es una metodología general que integra los casos existentes y permite definir el estado químico de una masa de agua subterránea, verificar la existencia de impactos significativos en la calidad del agua subterránea y evaluar la efectividad de los planes de medidas adoptados en el marco del Plan Hidrológico de Cuenca. ABSTRACT Groundwater protection is a priority of the EU environmental policy. As a result, it has established a framework for prevention and control of pollution, which includes provisions for assessing the chemical status of waters and reducing the presence of contaminants in it. The measures include: • criteria for assessing the chemical status of groundwater bodies • criteria for identifying significant upward trends and sustained concentrations of contaminants and define starting points for reversal of such trends • preventing and limiting indirect discharges of pollutants as a result of percolation through soil or subsoil. The basic tools for the development of such policies are the Water Framework Directive and Groundwater Daughter Directive. According to them, the groundwater bodies are considered in good status if: • measured or predicted concentration of nitrate does not exceed 50 mg / l and the active ingredients of pesticides, their metabolites and reaction products do not exceed 0.1 mg / l (0.5 mg / l for total of pesticides measured) • the concentration of certain hazardous substances is below the threshold set by the Member States concerned, at least, of ammonium, arsenic, cadmium, chloride, lead, mercury, sulphates, trichloroethylene and tetrachlorethylene • the concentration of other contaminants fits the definition of good chemical status set out in Annex V of the Framework Directive on water policy • If the value corresponding to a quality standard or a threshold value is exceeded, an investigation confirms, among other things, the lack of significant risk to the environment. Analyzing the statistical behaviour of the data from the monitoring networks may be considerably complex due to the positive bias which often presents such information and its asymmetrical distribution, due to the existence of outliers and different soil types and mixtures of pollutants. Furthermore, the distribution of certain components in groundwater may have concentrations below the detection limit or may not be stationary due to the existence of linear or seasonal trends. In the first case it is necessary to estimate these unknown values, through procedures that vary according to the percentage of values below the limit of detection and the number of applicable limits of detection. In the second case removing trends is needed before conducting hypothesis tests on residuals. This PhD thesis has intended to establish the statistical basis for the rigorous analysis of data quality networks in order to conduct the evaluation of the chemical status of groundwater bodies for determining upward and sustained trends in pollutant concentrations and for the detection of significant deterioration in cases in which an environmental standard has been set by the relevant environmental agency and those that have not. Aiming to design a comprehensive methodology to include the whole range of cases, data from the Groundwater Official Monitoring and Control Network of the Ministry of Agriculture, Food and Environment (Magrama) have been analysed. Then, since River Basin Management Plans are the basic tool of the Directives, the Júcar river Basin has been selected. The main reason is its designation as a pilot basin in the common implementation strategy (CIS) of the European Commission. The main objective of the ad hoc working groups is to implement the Daughter Ground Water Directive and elements of the Water Framework Directive related to groundwater, especially the data collection at control stations and the preparation of the first River Basin Management Plan. Given the size of the area and in order to analyze a groundwater body (defined as the management unit in the Directives), Plana de Vinaroz Peñíscola has been selected as pilot area. Procedures developed to determine the chemical status of that body have been then applied. The data examined do not generally contain pollutant concentration values associated with point sources, so for the study concentration values of the most common data, i.e., nitrates and chlorides have been selected. The designed strategy combines trend analysis with the development of confidence intervals when there is a standard of quality and prediction intervals when there is not or the standard has been exceeded. Similarly we have proceeded in the case of values below the detection limit, taking the available values in Plana de Sagunto pilot area and simulating different degrees of censoring in order to compare the results obtained with the intervals achieved from the actual data and verify in this way the effectiveness of the method. The end result is a general methodology that integrates existing cases to define the chemical status of a groundwater body, verify the existence of significant impacts on groundwater quality and evaluate the effectiveness of the action plans adopted in the framework of the River Basin Management Plan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tamaño y densidad son atributos imprescindibles para la caracterización de cualquier ciudad, sin embargo no siempre se les presta la misma atención. Mientras la densidad ocupa un lugar destacado en cualquier manual de planificación urbana, como variable crítica para modular la intervención urbanística, el tamaño de la ciudad tiende a tomarse como un imponderable más allá del control de la planificación. Sin embargo, no está claro que ambas variables se puedan analizar de forma autónoma, ya que las interrelaciones entre ambas son significativas. Con el fin de evaluar cómo se influyen mutuamente tamaño y densidad se plantea una metodología novedosa adaptada a las nuevas formas contemporáneas de urbanización que combina una delimitación funcional de las áreas urbanas con un análisis de su morfología en términos de densidad y compacidad. Los resultados obtenidos a partir de una muestra de 47 áreas urbanas españolas permiten clarificar algunos aspectos de la relación entre tamaño y densidad. Las grandes metrópolis españolas presentan valores relativamente altos de densidad y compacidad, pero los valores más elevados de ambos valores están presentes en áreas urbanas de tamaño intermedio o pequeño. En realidad se puede apreciar una enorme diversidad entre las áreas urbanas intermedias y pequeñas que desaparece casi por completo en las más grandes. Otro aspecto reseñable es la constatación de que densidad y compacidad son variables absolutamente independientes: existen áreas urbanas densas y compactas, pero también densas y poco compactas, o compactas pero poco densas. Sobre esta base, se propone una caracterización de la tipología tradicional de las ciudades españolas. Las áreas urbanas del Cantábrico presentan una alta densidad pero baja compacidad, en gran medida por la difícil orografía; por el contrario la áreas urbanas del interior presentan baja densidad y valores muy diversos de compacidad. Finalmente las áreas urbanas mediterráneas se caracterizan más por su alta compacidad que por su densidad, que es muy variable. En general los resultados obtenidos reflejan adecuadamente aspectos conocidos de la diversidad urbana española, pero también otros menos evidentes. Las conclusiones del estudio están muy mediatizadas por el contexto español, pero la metodología empleada ha demostrado ser de gran utilidad para el análisis de los territorios urbanos contemporáneos. ABSTRACT Size and density are essential attributes for characterizing cities, however they don't always deserve the same attention. While density is considered a critical variable in every urban planning guidebook, city size tends to be taken as an imponderable beyond the control of planning. However, it is unclear whether both variables can be analyzed independently, because their reciprocal influences are evident. To assess how city size and urban density influence each other, we propose a new methodology adapted to contemporary forms of urbanization, bringing together urban areas functional delimitation and morphological analysis in terms of density and compactness. Results obtained from a sample of 47 Spanish urban areas clarify some aspects of the size-density link. The largest Spanish urban areas are relatively dense and compact, but the highest values of both density and compactness are found in intermediate or small urban areas. Actually there is a huge diversity among intermediate and small urban areas which almost disappears in larger ones. Another noteworthy aspect is the realization that density and compactness are absolutely independent variables: there are dense and compact urban areas, but also low-density compact, and low-compactness dense areas. On this basis, we make a revision of the tradicional classification of Spanish urban areas. Cantabrian urban areas display high density and low compactness, largely because of the difficult terrain; on the contrary, inland urban areas exhibit low density and very different values of compactness. Finally, Mediterranean urban areas are characterized more by its high compactness than by its density, which is remarkably variable. In general results accurately reflect known aspects of Spanish urban diversity, but they also expose less obvious attributes. These findings may be closedly related to Spanish context, but the methodology has proven a useful tool for analyzing contemporary urban areas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La colonia experimental de Schorlemerallee y las villas Am Rupenhorn son dos proyectos concluidos en 1930 por los hermanos Wassili y Hans Luckhardt con Alfons Anker en Berlín. Ambos proyectos forman parte del mismo proceso, que comienza en la Colonia -una exploración sobre el lenguaje moderno en una serie de fases sucesivas- y culmina con las Villas. Éstas últimas, realizadas inmediatamente después de la Colonia, son la síntesis de esa experiencia, aunque finalmente acabaron trascendiéndola, ya que se convirtieron en un modelo sobre la casa en la naturaleza, sobre la idea de la villa clásica y sobre los nuevos modos de habitar, alcanzando con el tiempo la condición de canon moderno. A pesar de ello, no es esta condición lo más importante. Lo singular en este caso, es el propio proceso de proyecto –Colonia versus Villas- un verdadero experimento en su concepción, método y resultados, a través del cual sus autores investigan nuevas tecnologías aplicadas a nuevas formas de habitar y desarrollan un nuevo lenguaje, cuyo resultado son unos prototipos tecnológicos, con los que pretenden, como diría Mies van der Rohe: “Me he esforzado por construir una arquitectura para una sociedad tecnológica. He intentado que todo resultara razonable y claro.....para que cualquiera pueda hacer arquitectura.” El momento y lugar no pueden ser más propicios: Berlín entre 1924 y 1930, en el mismo origen del Movimiento Moderno. El experimento se plantea con auténtico rigor científico. Los arquitectos diseñan, construyen y financian su proyecto, controlando todas sus variables. Especialmente, por lo insólito, es el control de la variable económica. Porque este factor, la economía, es para ellos una clave fundamental del proceso. Se trataba de demostrar que la Nueva Arquitectura (o Neues Bauen, como les gustaba denominarla) era capaz de construir mejor y más rápido la vivienda para una nueva sociedad. La revolución y la vanguardia van de la mano: son el Zeitgeist o espíritu de la época, un contexto que es parte sustancial del proceso, y como lo calificarían los Smithson, un contexto heroico. El concepto se centra en la tríada Bauhaus: diseño + tecnología x economía. En cuanto al método, se fijan una serie de parámetros –las variables del experimento- que se agrupan en tres categorías distintas: topología, tipología y tecnología. La combinación de las variables de cada categoría dará lugar a un sistema con unas características determinadas: una definición del espacio, una forma, un lenguaje y una tecnología, características que permiten establecer las reglas para su desarrollo. Los sistemas resultantes son tres, denominados según su doble condición tipológica/ tecnológica: 1. Sistema de muro de carga: Viviendas adosadas en zig-zag o Mauerwerksbauten. 2. Sistema de esqueleto de acero: Viviendas aisladas o Stahlskelettbauten 3. Sistema de hormigón armado: Viviendas en hilera recta o Betonbauten Las villas Am Rupenhorn se plantean a continuación como verificación de este proceso: la síntesis de las categorías desarrolladas en la Colonia. Pero llegan en un momento de gracia, justo cuando los Luckhardt y Anker se encuentran profundamente implicados en el proceso de desarrollo de un nuevo lenguaje y con la reciente experiencia de la Colonia, que ha sido un éxito en casi todos los aspectos posibles. “En 1930, están en la cumbre”, como diría su mejor crítico y antiguo colaborador: Achim Wendschuh. En las Villas, los arquitectos integran su lenguaje, ya plenamente moderno, con sus experiencias previas: las que los relacionan con su reciente expresionismo (que se podría calificar como Kunstwollen) y con la tradición clásica de la cultura arquitectónica alemana: el sentido del material que deben a Semper y la sensibilidad hacia el paisaje, que toman de Schinkel. El extraordinario interés de las Villas se debe a factores como el tratamiento de la relación dual, poco habitual en la arquitectura moderna, la síntesis de lenguajes y las circunstancias de su momento histórico, factores que las han convertido en una propuesta única e irrepetible de una de las vías experimentales más interesantes y desconocidas de la Modernidad. ABSTRACT The experimental Housing Estate of Schorlemerallee and the Am Rupenhorn Villas are two projects completed by the brothers Wassili and Hans Luckhardt with Alfons Anker in Berlin in 1930. Both projects are part of the same process, starting with the Housing Estate --an exploration of the modern language in a series of phases- which culminates with the Villas project. The Villas Am Ruperhorn, designed immediately after the Housing development, are the synthesis and crowning point of this experience, even finally over passing it, since they have become a model of the house in nature, related with both the ideal of the classical villa and the new ways of life, reaching the condition of a modern canon. However, this is not its most important issue. The most remarkable condition is the project process itself -Housing versus Villas- a true experiment in concept, method and results, in which the authors research new technologies for new ways of living, developing an innovative language, with results in new prototypes, in the way Mies van der Rohe was looking for: “I have tried to make an architecture for a technological society. I have wanted to keep everything reasonable and clear… to have an architecture that anybody can do." The time and place could not be more favourable: Berlin from 1924 to 1930, in the very origin of Modern Movement. The experiment takes place with genuine scientific accuracy. Architects design, build and finance their own project, controlling all variables. Especially, and quite unusual, the control of the economic variable. Precisely the economic factor is for them a fundamental key to the process. It was shown to prove that the new architecture (or Neues Bauen, as they liked to call it) was able to build not only faster, better and more efficient dwellings for a new society, but also at lower cost. Revolution and Avant-garde use to move forward together, because they share the Zeitgeist --or time's spirit--, a context which is a substantial part of the process, and as the Alison & Peter Smithsons would describe, an heroic context. The concept focuses on the Bauhaus triad: Design + Technology x Economy. For the method, a number of variables are fixed --the experimental parameters-- that are later grouped into three distinct categories: Topology, Typology and Technology. The combination of these variables within each category gives way to several systems, with specific characteristics: a definition of space, a form, a language and a technology, thus allowing to establish the rules for its development: The resulting systems are three, called by double typological / technological issue: 1. Terraced Housing in zig-zag or Mauerwerksbauten (bearing wall system) 2. Detached Housing or Stahlskelettbauten (steel skeleton system) 3. Terraced Housing in one row or Betonbauten (reinforced concrete system) The Am Rupenhorn Villas are planned as the check of this process: the synthesis of the categories developed all through the Housing Estate research. The Am Ruperhorn project is developed in a crucial moment, just as the Luckhardts and Anker are deeply involved in the definition process of a new language after the recent experience of Schorlemerallee, which has been a success in almost all possible aspects. "In 1930, they are on the top” has said his best critic and long-time collaborator, Achim Wendschuh. In the Villas, the authors make up their fully modern language with their own background, related with their recent Expressionist trend (Kunstwollen) and with the classical tradition of the German architectural culture: the notion of material related with Semper and the sensible approach to the landscape, linked with Schinkel. Its extraordinary interest lay on diverse factors, such as dual relationships, unusual in modern architecture, synthesis of languages and circumstances of their historical moment, all factors that have become a unique and unrepeatable proposal in one of the most extraordinary experimental ways of Modernity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto fin de carrera trata de mejorar los sistemas actuales de control en la visualización de diapositivas. La solución adoptada constará de un sistema con modelo cliente-servidor. El servidor formado por un mini ordenador, en este caso una Raspberry Pi, que estará conectado al proyector de video. Este servidor se mantendrá a la espera de recibir una conexión entrante vía Bluetooth. Una vez se realice la conexión interpretará los comandos mandados por el cliente a través de una API con formato JSON y realizará las acciones indicadas para el control de la presentación. El cliente será una aplicación móvil para dispositivos Android. A través de ella el profesor accederá al servidor escaneando un código QR que será proyectado y una vez conectado enviará los comandos de control de la presentación, tales como abrir una presentación, avanzar y retroceder diapositiva, etc. La solución final deberá ser eficiente, sencilla de utilizar y con un bajo coste para resultar atractiva y ser así útil en el mundo real. Para ello se contará con valores añadidos como el poder iniciar la presentación desde el dispositivo móvil, el mostrar las notas de la diapositiva actual o contar con un temporizador para permitir un mejor control sobre el tiempo disponible para la presentación. ABSTRACT. This final project pursues the improvement of the current presentation control systems. The solution it provides is based on a server-client architecture. The server will be a mini PC, a Raspberry Pi model in this case, that will be connected to a video projector or a screen monitor. This server will remain idle waiting for an incoming Bluetooth connection. Once the connection is accepted the server will parse the commands sent by the client through a JSON API and will execute them accordingly to control the system. The client we decided to develop is an Android application. The speaker will be able to connect with the server by scanning a QR code that will be generated and displayed into the projector or screen monitor. Once the connection is accepted the client will sent the commands to control the slides, such as opening a presentation, move forward and backwards, etc. The adopted solution must be efficient, easy to use and with low cost to be appealing and useful to the real world. To accomplish the task this project will count with improvements over the current systems, such as the possibility to open a presentation from the smartphone, the visualization of the current slide notes from the mobile phone and a countdown timer to have a better control over the available time for the presentation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto trata del desarrollo de un software para realizar el control de la medida de la distribución de intensidad luminosa en luminarias LED. En el trascurso del proyecto se expondrán fundamentos teóricos sobre fotometría básica, de los cuales se extraen las condiciones básicas para realizar dicha medida. Además se realiza una breve descripción del hardware utilizado en el desarrollo de la máquina, el cual se basa en una placa de desarrollo Arduino Mega 2560, que, gracias al paquete de Labview “LIFA” (Labview Interface For Arduino”), será posible utilizarla como tarjeta de adquisición de datos mediante la cual poder manejar tanto sensores como actuadores, para las tareas de control. El instrumento de medida utilizado en este proyecto es el BTS256 de la casa GigaHerzt-Optik, del cual se dispone de un kit de desarrollo tanto en lenguaje C++ como en Labview, haciendo posible programar aplicaciones basadas en este software para realizar cualquier tipo de adaptación a las necesidades del proyecto. El software está desarrollado en la plataforma Labview 2013, esto es gracias a que se dispone del kit de desarrollo del instrumento de medida, y del paquete LIFA. El objetivo global del proyecto es realizar la caracterización de luminarias LED, de forma que se obtengan medidas suficientes de la distribución de intensidad luminosa. Los datos se recogerán en un archivo fotométrico específico, siguiendo la normativa IESNA 2002 sobre formato de archivos fotométricos, que posteriormente será utilizado en la simulación y estudio de instalaciones reales de la luminaria. El sistema propuesto en este proyecto, es un sistema basado en fotometría tipo B, utilizando coordenadas VH, desarrollando un algoritmo de medida que la luminaria describa un ángulo de 180º en ambos ejes, con una resolución de 5º para el eje Vertical y 22.5º para el eje Horizontal, almacenando los datos en un array que será escrito en el formato exigido por la normativa. Una vez obtenidos los datos con el instrumento desarrollado, el fichero generado por la medida, es simulado con el software DIALux, obteniendo unas medidas de iluminación en la simulación que serán comparadas con las medidas reales, intentando reproducir en la simulación las condiciones reales de medida. ABSTRACT. The project involves the development of software for controlling the measurement of light intensity distribution in LEDs. In the course of the project theoretical foundations on basic photometry, of which the basic conditions for such action are extracted will be presented. Besides a brief description of the hardware used in the development of the machine, which is based on a Mega Arduino plate 2560 is made, that through the package Labview "LIFA" (Interface For Arduino Labview "), it is possible to use as data acquisition card by which to handle both sensors and actuators for control tasks. The instrument used in this project is the BTS256 of GigaHerzt-Optik house, which is available a development kit in both C ++ language as LabView, making it possible to program based on this software applications for any kind of adaptation to project needs. The software is developed in Labview 2013 platform, this is thanks to the availability of the SDK of the measuring instrument and the LIFA package. The overall objective of the project is the characterization of LED lights, so that sufficient measures the light intensity distribution are obtained. Data will be collected on a specific photometric file, following the rules IESNA 2002 on photometric format files, which will then be used in the simulation and study of actual installations of the luminaire. The proposed in this project is a system based on photometry type B system using VH coordinates, developing an algorithm as the fixture describe an angle of 180 ° in both axes, with a resolution of 5 ° to the vertical axis and 22.5º for the Horizontal axis, storing data in an array to be written in the format required by the regulations. After obtaining the data with the instrument developed, the file generated by the measure, is simulated with DIALux software, obtaining measures of lighting in the simulation will be compared with the actual measurements, trying to play in the simulation the actual measurement conditions .

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El principal objetivo del presente proyecto consiste en la creación de un laboratorio de metrología de hidrocarburos líquidos para la calibración de resistencias termométricas durante la transferencia de custodia. En estas operaciones de transferencia es muy importante llevar el control de la cantidad de hidrocarburo transferido, por ello tiene una gran relevancia la medida de la temperatura. El método más fiable de medición es el realizado por resistencias termométricas tipo Pt-100, la cual nos proporciona datos de incertidumbre aproximados a cero. Estos sistemas de medición tenderán a descalibrarse, aumentando la incertidumbre, pudiendo provocar pérdidas económicas. Para su calibración este proyecto presenta la realización de un laboratorio de metrología en el marco ISO-IEC 17025. Dicha calibración se realizará bajo el procedimiento operativo para la calibración de termómetros de resistencia de platino. Por otra parte, el equipamiento del laboratorio también tiene que ser calibrado, en este caso se hará externamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La traslación de la tecnología del pretensado desde la ingeniería civil al campo de la arquitectura da lugar a una nueva reinterpretación de las tipologías estructurales utilizadas con anterioridad, tales como los arcos, bóvedas, grandes vigas, etc. El comportamiento resistente de estos elementos estructurales se podrá desligar de su geometría, mediante la interposición de sistemas de fuerzas, escogidos por el proyectista, que se superpongan a los determinados la gravedad, de forma que el proyectista tendrá el control sobre la geometría propuesta y por tanto sobre la forma final. Estas nuevas configuraciones finales, conseguidas mediante la técnica del pretensado en el ámbito arquitectónico, tendrán a su vez un carácter formal también nuevo. Posibilitarán la construcción a grandes escalas, así como la reinterpretación de los materiales y las formas de la construcción empleadas hasta ese momento. La libertad de diseño y de escala pasa a ser entonces mucho más amplia y rica. Con el empleo de esta tecnología constructiva se puede conseguir un control estructural de tal impacto que, en relación a las tipologías estructurales tradicionales, de lugar a que la geometría de éstas no responda, con carácter necesario, a su trabajo resistente, de tal manera que se genere un nuevo conjunto de soluciones estructurales, constructivas y arquitectónicas, dando lugar con ello a la transformación o disolución de las tipologías estructurales de la tradición arquitectónica del SXX. ABSTRACT The transfer of the technology of the prestressed concrete from civil engineering to architecture has produced a new interpretation of the constructivestructural typologies traditionally used, such as bows, vaults, large beams, etc. As a result of the application of this technology the resistant behavior of such structural elements may be released from their constructive requirements as they were understood in the past. The designer will choose a system of forces, combined with the gravity, so it will be possible to control the geometry proposal and therefore the final form of the construction. These new configurations, achieved thanks to prestressing technique applied in architectural field, will also have a new formal definition, because they are detached from their structural requeriments. They will enable construction on large scales as well as the reinterpretation of materials, structures and construction forms used so far. Thereby freedom in design and scale will be broader and richer. The geometry of the structural forms, released from traditional construction types, can be controlled by this technology. So the traditional link with a priori types is broken and a new set of structural, constructive and architectural solutions appears. That is why, technology of prestressing gives the possibility of transformation, or even dissolution, of constructive typologies of the architectural tradition in the twentieth century.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gasificación de lodos de depuración consiste en la conversión termoquímica del lodo por oxidación parcial a alta temperatura mediante un agente gasificante, que generalmente es aire, oxígeno o vapor de agua. Se trata de una tecnología de gran interés, ya que consigue reducir la masa de estos residuos y permite el aprovechamiento de los gases formados, tanto en la generación de energía térmica y/o eléctrica como en la síntesis de productos químicos orgánicos y combustibles líquidos. Debido a la complejidad de este proceso, es útil el uso de modelos que faciliten su estudio de forma fiable y a bajo coste. El presente Proyecto Fin de Carrera se centra en el diseño de un modelo adimensional de equilibrio en estado estacionario basado en la minimización de la energía libre de Gibbs. Para ello, se ha empleado el software de simulación de procesos Aspen Plus, que posee una amplia base de datos de propiedades físicas y permite gran flexibilidad en el manejo de sólidos. Para la elaboración del modelo se han asumido las hipótesis de mezcla perfecta dentro del reactor y operación isoterma. El gasificador se ha considerado de lecho fluidizado burbujeante, al permitir un buen control de la temperatura y una alta transferencia de materia y energía entre el sólido y el agente gasificante. El modelo desarrollado consta de cuatro etapas. La primera reproduce el proceso de pirólisis o descomposición térmica de los componentes del lodo en ausencia de agente gasificante. En la segunda etapa se simula que todo el nitrógeno y el azufre contenidos en el lodo se transforman en amoniaco y ácido sulfhídrico, respectivamente. En la tercera etapa se produce la gasificación en dos reactores. El primer gasificador alcanza el equilibrio químico mediante la minimización de la energía libre de Gibbs del sistema. En el segundo reactor se establece un equilibrio restringido por medio de la especificación de una aproximación de temperatura para cada reacción. Este método permite validar los resultados del modelo con datos reales. En la última etapa se separa el residuo carbonoso o char (compuesto por carbono y cenizas) del gas de salida, formado por N2, H2, CO, CO2, CH4 (supuesto como único hidrocarburo presente), NH3, H2S y H2O. Este gas debe ser depurado mediante equipos de limpieza aguas abajo. Los resultados de la simulación del modelo han sido validados frente a los valores obtenidos en ensayos previos llevados a cabo en la planta de gasificación a escala de laboratorio ubicada en el Departamento de Ingeniería Química Industrial y del Medio Ambiente de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Estos resultados han mostrado muy buena concordancia con los obtenidos experimentalmente, con un error inferior al 7% en todos los parámetros analizados en el caso de gasificación con aire y menor al 13% cuando se utiliza una mezcla aire/vapor de agua como agente gasificante. Se ha realizado un análisis de sensibilidad con el fin de estudiar la influencia de las condiciones de operación (temperatura, ratio equivalente y ratio vapor/biomasa) sobre los resultados del proceso modelado (composición, producción y poder calorífico inferior de los gases, conversión de carbono y eficiencia de la gasificación). Para ello, se han llevado a cabo diferentes simulaciones modificando la temperatura de gasificación entre 750ºC y 850ºC, el ratio equivalente (ER) entre 0,2 y 0,4 y el ratio vapor/biomasa (S/B) entre 0 y 1. Como ya ocurriera con la validación del modelo, los resultados de las simulaciones bajo las distintas condiciones de gasificación se ajustan de forma satisfactoria a los valores experimentales. Se ha encontrado que un aumento en la temperatura mejora la cantidad y la calidad del gas producido y, por tanto, la eficiencia del proceso. Un incremento del ratio equivalente reduce la concentración de CO y H2 en el gas y, en consecuencia, también su poder calorífico. Sin embargo, valores bajos del ratio equivalente disminuyen la producción de gases y la conversión de carbono. La alimentación de vapor de agua en el sistema mejora todos los parámetros analizados. Por tanto, dentro del rango estudiado, las condiciones de operación que optimizan el proceso de gasificación de lodos consisten en el empleo de mezclas aire/vapor de agua como agente gasificante, una temperatura de 850ºC y un ER de 0,3.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las redes del futuro, incluyendo las redes de próxima generación, tienen entre sus objetivos de diseño el control sobre el consumo de energía y la conectividad de la red. Estos objetivos cobran especial relevancia cuando hablamos de redes con capacidades limitadas, como es el caso de las redes de sensores inalámbricos (WSN por sus siglas en inglés). Estas redes se caracterizan por estar formadas por dispositivos de baja o muy baja capacidad de proceso y por depender de baterías para su alimentación. Por tanto la optimización de la energía consumida se hace muy importante. Son muchas las propuestas que se han realizado para optimizar el consumo de energía en este tipo de redes. Quizás las más conocidas son las que se basan en la planificación coordinada de periodos de actividad e inactividad, siendo una de las formas más eficaces para extender el tiempo de vida de las baterías. La propuesta que se presenta en este trabajo se basa en el control de la conectividad mediante una aproximación probabilística. La idea subyacente es que se puede esperar que una red mantenga la conectividad si todos sus nodos tienen al menos un número determinado de vecinos. Empleando algún mecanismo que mantenga ese número, se espera que se pueda mantener la conectividad con un consumo energético menor que si se empleara una potencia de transmisión fija que garantizara una conectividad similar. Para que el mecanismo sea eficiente debe tener la menor huella posible en los dispositivos donde se vaya a emplear. Por eso se propone el uso de un sistema auto-adaptativo basado en control mediante lógica borrosa. En este trabajo se ha diseñado e implementado el sistema descrito, y se ha probado en un despliegue real confirmando que efectivamente existen configuraciones posibles que permiten mantener la conectividad ahorrando energía con respecto al uso de una potencia de transmisión fija. ABSTRACT. Among the design goals for future networks, including next generation networks, we can find the energy consumption and the connectivity. These two goals are of special relevance when dealing with constrained networks. That is the case of Wireless Sensors Networks (WSN). These networks consist of devices with low or very low processing capabilities. They also depend on batteries for their operation. Thus energy optimization becomes a very important issue. Several proposals have been made for optimizing the energy consumption in this kind of networks. Perhaps the best known are those based on the coordinated planning of active and sleep intervals. They are indeed one of the most effective ways to extend the lifetime of the batteries. The proposal presented in this work uses a probabilistic approach to control the connectivity of a network. The underlying idea is that it is highly probable that the network will have a good connectivity if all the nodes have a minimum number of neighbors. By using some mechanism to reach that number, we hope that we can preserve the connectivity with a lower energy consumption compared to the required one if a fixed transmission power is used to achieve a similar connectivity. The mechanism must have the smallest footprint possible on the devices being used in order to be efficient. Therefore a fuzzy control based self-adaptive system is proposed. This work includes the design and implementation of the described system. It also has been validated in a real scenario deployment. We have obtained results supporting that there exist configurations where it is possible to get a good connectivity saving energy when compared to the use of a fixed transmission power for a similar connectivity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral trata de investigar cuánto hubo de presencia del cine en el pensamiento de Le Corbusier y Pierre Jeanneret, a la hora de acometer la publicación y maquetación de las páginas dedicadas a la Villa Stein-de Monzie en Garches, en “Le Corbusier et Pierre Jeanneret. Oeuvre Complète 1910-1929”. Qué mecanismos cinematográficos pusieron en juego, cuando montaban las páginas de L´Oeuvre Complète. Más que encontrar elementos cinematográficos utilizados de manera directa; el objetivo de esta tesis es profundizar en los mecanismos, procedimientos, sistemas de generación de ideas a lo largo del proceso de proyecto; en las maneras de percibir y experimentar los espacios, o de observar las formas. El armazón lo compone por lo tanto el análisis del modo en que Le Corbusier representa la villa en L´Oeuvre Complète, sus intenciones y la función pedagógica de este modo de representar; así como sus diferencias con respecto a lo realmente construido. Una realidad elaborada sobre un tablero; maquetando su representación, eligiendo los fragmentos, y componiendo las láminas (cercana a la de un director de cine). La justificación del objeto a estudiar se plantea en el primer capítulo: L´Oeuvre Complète (1937), la reedición en francés, alemán e inglés de la primera edición en alemán, Ihr Gesamtes Werk (1929).Se establecen las intenciones de Le Corbusier de que se convierta en un modelo de Tratado de Arquitectura Moderna, eminentemente visual. Se estudian los mecanismos formales y geométricos de composición del libro, y el modo en el que L´Oeuvre Complète debe ser leída. El desarrollo de los siguientes capítulos (del 2 al 9) recoge el método principal de investigación de esta tesis, basado en una lectura longitudinal, crítica y sistemática, a partir de la observación atenta de la representación de la villa Stein-de Monzie en Garches, en las páginas nº 140 a 149 de L´Oeuvre Complète. Se efectúa mediante un desarrollo lineal y secuenciado, como si de un guión cinematográfico se tratara. Cada capítulo describe y analiza cada uno de los diferentes fragmentos, permitiendo al mismo tiempo enlazar temas de interés que ayudan a comprender aspectos de la villa de Garches, de su concepción en la intensa labor de proyecto (con numerosas variantes y propuestas), e incluso de su aparición en el cine. Además, la tesis arroja luz sobre unos documentos bastante desconocidos: las láminas de la colección del Museo Cooper-Hewitt de nueva York, para la villa de Garches. El análisis de la presentación de la villa de Garches en L´Oeuvre Complète, constata que para Le Corbusier, el fragmento, per se, ha de ser perfecto, produciendo la máxima emoción. Como un prestidigitador, Le Corbusier los manipula, o le niega información al espectador mediante el uso de la elipsis en el relato. Los textos concatenan las imágenes, soportan el hilo de la narración. Los bocetos quieren siempre seducir al espectador: son dibujos que rezuman vitalidad, con una técnica muy cercana a la ligne claire del cómic. Las plantas son un laboratorio para demostrar su jerarquía y su libertad de composición; eliminando elementos, distorsionando la valoración de líneas y apareciendo algún elemento no ejecutado. Los alzados, esquemáticos y abstractos, demuestran el control de la geometría para garantizar la emoción. Las fotografías son controladas en su fase de captura (elección del punto de vista, cuidada puesta en escena de los objetos, composición con la luz, uso de las sombras para la aparición del fuera de campo); pero también en la fase de postproducción y edición, donde son cortadas, alisadas superficies, borrando o dibujando elementos sobre ellas. El montaje compone asimismo una representación dinámica, fragmentada y múltiple de la villa. Como sucede en el cine, los fragmentos sólo encuentran su razón de ser una vez son re-creados y montados en la cabeza del espectador. La falta de raccord es un mecanismo buscado por Le Corbusier, trasladando a la representación una de las primordiales características de la villa de Garches: su permanente dualidad simultánea. Todos estos mecanismos son desplegados por Le Corbusier, para ofrecer una versión idealizada de la villa, que recoja todas las virtudes de los distintos proyectos e incorpore el factor tiempo. ABSTRACT This doctoral thesis tries to investigate how much the cinema affected Le Corbusier and Pierre Jeanneret´s thoughts, at the moment of undertaking the publication and layout of the pages dedicated to the villa Stein-de Monzie in Garches, in the book “Le Corbusier et Pierre Jeanneret. Oeuvre Complète 1910-1929”. Which cinematographic mechanisms they brought into play, when they were mounting those pages. Instead of finding cinematographic elements, used directly; the aim of this thesis is to go deeply into the mechanisms, methods, systems of generation of ideas along the project process; into the ways of seeing and feeling the spaces, or of watching the forms. The body is composed therefore by the analysis of the way in which Le Corbusier represents the villa in L'Oeuvre Complète, his intentions and the pedagogic function of that way of representation; as well as its differences with the real built villa. One reality elaborated on a board; laying out its representation, choosing the fragments, and composing the sheets (near to the work of a director of cinema). The justification of the object to studying appears in the first chapter: L'Oeuvre Complète (1937), the reissue in French, German and English of the first edition in German, Ihr Gesamtes Werk (1929). This chapter shows the intentions of Le Corbusier of turning the book into a model of modern architecture, highly visual. The formal and geometric mechanisms of composition of the book are studied, and the way in which L'Oeuvre Complète must be read. The development of the following chapters (from 2 to 9) gathers the principal method of investigation of this thesis, based on a longitudinal, critical and systematic reading; from the watching of the representation of the villa Stein-de Monzie in Garches, in the pages nr. 140 to 149 of L'Oeuvre Complète. It is carried out by a linear and sequenced development, as a cinematographic script. Every chapter describes and analyzes each of the different fragments, allowing at the same time to connect interesting issues that help to understand aspects of the villa in Garches, of its conception in the intense project process (with numerous variants and designs), and even of its appearance in films. Also, the thesis throws light on some unknown documents: the sheets of the collection of the Museum Cooper-Hewitt in New York, for the villa in Garches. The analysis of the presentation of the villa in Garches in L'Oeuvre Complète, proves that for Le Corbusier, the fragment, itself, has to be perfect, getting the maximum emotion. As a prestidigitator, Le Corbusier manipulates them, or denies information to the spectator by means of the use of the ellipsis in the story. The texts concatenate the images, support the thread of the story. The sketches always attempt to seduce the spectator: they are drawings that leak vitality, with lines very near to the ligne claire of the cómic. The plans are a laboratory to demonstrate their hierarchy and their freedom of composition; deleting elements, distorting the thickness of lines and showing some not executed elements. The elevations, schematic and abstract, shows the control of the geometry to guarantee the emotion in architecture. The pictures are controlled in their instant of capture (choice of the point of view, elegant mise-en-scène of the objects, composition with light, use of the shadows for the appearance of out of vision); but also in the postproduction and edition time, when surfaces are cut, smoothing, erasing or drawing elements in them. The montage composes in the same way a dynamic, fragmented and multiple representation of the villa. As in the films, the fragments only find their raison d'être once they have been re-created and mounted into the mind of the viewer. The continuity error is a mechanism allowed by Le Corbusier, transfering to the representation in the book one of the basic characteristics of the villa in Garches: its constant simultaneous duality. All these methods are displayed by Le Corbusier, to offer an idealized version of the villa, which gathers all the virtues of the different projects, and incorporates the time factor.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación trata de responder la siguiente pregunta: ¿hay un proceso de confluencia ideológica a lo largo de los siglos XIX y XX de los liberales y conservadores mexicanos en un proyecto educativo nacionalista? Para responderla, el trabajo analiza la disputa ideológica de tipo histórico en torno a la educación entre la élite liberal y la conservadora católica (incluida la jerarquía católica) mexicanas, con referencia a las relaciones Iglesia-Estado y al proceso de construcción de la nación. Dicho en otros términos, este trabajo analiza la construcción de la nación en México a través de la educación durante el periodo 1857-1982. En este estudio se considera que el origen de la nación mexicana es resultado de un proceso de construcción orquestado por las élites. El proceso se inició formalmente con la independencia de España en 1821. Desde entonces, las élites consideraron a la educación como una herramienta fundamental para trasmitir sus valores y construir los emblemas representativos de la nación. Las élites políticas percibieron que el monopolio de la educación les dotaba de ventajas sobre sus competidores, ya que proporcionaba diversos recursos institucionales para el ejercicio del poder y su conservación. En la disputa por el control de la educación, la Iglesia Católica (y el conservadurismo católico) proponía que la orientación moral del Estado, así como los valores de la democracia y la participación política, deberían sustentarse sobre una educación integral que incluyera la religión católica como parte de la regeneración moral de los individuos. Por su parte, la élite liberal dedicó el quehacer público a la secularización de la educación y a crear una sociedad racional que se liberara del oscurantismo y del fanatismo religioso. El conflicto se agudizó cuando la Iglesia Católica perdió el monopolio educativo con las Leyes de Reforma (1855-1863); entonces comenzó una fuerte competencia con el Estado (el Gobierno) por el control ideológico y político de la sociedad. Por su parte, la élite política liberal impidió el avance del conservadurismo católico y se hizo con los recursos institucionales (formales e informales) para conservar y legitimar su control del poder...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La clasificación en subtipos moleculares de los aislados de L. monocytogenes procedentes de productos cárnicos y del ambiente de las plantas de procesado donde se elaboran, habitualmente muestra la presencia de un reducido número de cepas y la persistencia durante largos periodos de tiempo de cepas específicas que sobreviven a la limpieza y la desinfección. Entre los mecanismos que facilitan la supervivencia de L. monocytogenes en el ambiente de las plantas de procesado de alimentos se incluyen la formación de biofilm, la adquisición de resistencia a antimicrobianos y la resistencia al estrés. El objetivo inicial de esta tesis fue analizar los diferentes subtipos de L. monocytogenes que se encontraban contaminando el ambiente y los productos de una planta de sacrificio y elaboración de productos de cerdo ibérico (Planta A) durante un periodo de tres años, con el fin de identificar las rutas de contaminación y posibles patrones de persistencia. Mediante electroforesis en gel en campo pulsante (PFGE) se identificaron 29 pulsotipos diferentes, ocho de los cuales se consideraron persistentes. La distribución en el ambiente y en los productos de tres pulsotipos predominantes generó patrones de contaminación específicos de cada uno de ellos, que mostraron respuestas diferentes ante las medidas correctoras que se adoptaron en la planta. Estos resultados destacan la importancia de la caracterización molecular de los subtipos de L. monocytogenes para identificar las rutas de contaminación específicas de la planta, que permitieron mejorar las estrategias de control de la contaminación...