507 resultados para Intensidades aeróbicas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal está recogido en el título de la Tesis. Ampliando éste para hacerlo más explícito, puede decirse que se trata de “desarrollar un sistema de control para que una instalación fotovoltaica de bombeo directo con una bomba centrífuga accionada por un motor de inducción trabaje de la forma más eficiente posible”. Para lograr ese propósito se establecieron los siguientes objetivos específicos: 1. Diseñar y construir un prototipo de instalación fotovoltaica de bombeo directo que utilice principalmente elementos de bajo coste y alta fiabilidad. Para cumplir esos requisitos la instalación consta de un generador fotovoltaico con módulos de silicio monocristalino, una bomba centrífuga accionada por un motor de inducción y un inversor que controla vectorialmente el motor. Los módulos de silicio monocristalino, el motor asíncrono y la bomba centrífuga son, en sus respectivas categorías, los elementos más robustos y fiables que existen, pudiendo ser adquiridos, instalados e incluso reparados (el motor y la bomba) por personas con una mínima formación técnica en casi cualquier lugar del mundo. El inversor no es tan fiable ni fácil de reparar. Ahora bien, para optimizar la potencia que entrega el generador y tener algún tipo de control sobre el motor se necesita al menos un convertidor electrónico. Por tanto, la inclusión del inversor en el sistema no reduce su fiabilidad ni supone un aumento del coste. La exigencia de que el inversor pueda realizar el control vectorial del motor responde a la necesidad de optimizar tanto la operación del conjunto motor-bomba como la del generador fotovoltaico. Como más adelante se indica, lograr esa optimización es otro de los objetivos que se plantea. 2. Reducir al mínimo el número de elementos de medida y control que necesita el sistema para su operación (sensorless control). Con ello se persigue aumentar la robustez y fiabilidad del sistema y reducir sus operaciones de mantenimiento, buscando que sea lo más económico posible. Para ello se deben evitar todas las medidas que pudieran ser redundantes, tomando datos sólo de las variables eléctricas que no pueden obtenerse de otra forma (tensión e intensidad en corriente continua y dos intensidades en corriente alterna) y estimando la velocidad del rotor (en vez de medirla con un encoder u otro dispositivo equivalente). 3. Estudiar posibles formas de mejorar el diseño y la eficiencia de estas instalaciones. Se trata de establecer criterios para seleccionar los dispositivos mas eficientes o con mejor respuesta, de buscar las condiciones para la operación óptima, de corregir problemas de desacoplo entre subsistemas, etc. Mediante el análisis de cada una de las partes de las que consta la instalación se plantearán estrategias para minimizar pérdidas, pautas que permitan identificar los elementos más óptimos y procedimientos de control para que la operación del sistema pueda alcanzar la mayor eficiente posible. 4. Implementar un modelo de simulación del sistema sobre el que ensayar las estrategias de control que sean susceptibles de llevar a la práctica. Para modelar el generador fotovoltaico se requiere un conjunto de parámetros que es necesario estimar previamente a partir de datos obtenidos de los catálogos de los módulos a utilizar o mediante ensayos. Igual sucede con los parámetros para modelar el motor. Como se pretende que el motor trabaje siempre con la máxima eficiencia será necesario realizar su control vectorial, por lo que el modelo que se implemente debe ser también vectorial. Ahora bien, en el modelo vectorial estándar que normalmente se utiliza en los esquemas de control se consideran nulas las pérdidas en el hierro, por lo que sólo se podrá utilizar ese modelo para evaluar la eficiencia del motor si previamente se modifica para que incluya el efecto de dichas pérdidas. 5. Desarrollar un procedimiento de control para que el inversor consiga que el motor trabaje con mínimas pérdidas y a la vez el generador entregue la máxima potencia. Tal como se ha mencionado en el primer objetivo, se trata de establecer un procedimiento de control que determine las señales de consigna más convenientes para que el inversor pueda imponer en cada momento al motor las corrientes de estator para las que sus pérdidas son mínimas. Al mismo tiempo el procedimiento de control debe ser capaz de variar las señales de consigna que recibe el inversor para que éste pueda hacer que el motor demande más o menos potencia al generador fotovoltaico. Actuando de esa forma se puede lograr que el generador fotovoltaico trabaje entregando la máxima potencia. El procedimiento de control desarrollado se implementará en un DSP encargado de generar las señales de referencia que el inversor debe imponer al motor para que trabaje con mínimas pérdidas y a la vez el generador fotovoltaico entregue la máxima potencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe una serie de características que diferencian malherbologicamente las plantaciones con sistemas de riego por goteo de las tradicionales. Asimismo, el comportamiento de los herbicidas en el suelo tiene unas determinadas peculiaridades inherentes al tipo de riego, que hay que tener en cuenta a la hora de utilizarlos correctamente en estos sistemas. El objetivo fundamental de este trabajo ha sido estudiar como influyen algunos factores en ese comportamiento. Para ello, se ha realizado una serie de ensayos de herbigación en campo, con diferentes productos, diferentes momentos y tiempos de incorporación a lo largo del riego, fraccionamientos de dosis, secuencias de incorporaciones o bajo diferentes intensidades de riego. Los trabajos de campo se completan en laboratorio con el análisis de las muestras de suelo, tomadas en diferentes prospecciones de los bulbos húmedos, mediante bioensayos con plantas indicadoras. Paralelamente a los trabajos de herbigación, se realizan secuencias de ensayos de herbicidas en aplicación tradicional, con productos remanentes en pulverización superficial y programas a base de herbicidas exclusivamente foliares, estudiando su evolución a lo largo de varios años. De todas estas experiencias se han podido extraer conclusiones sobre la influencia de distintos factores en el comportamiento de herbicidas en parcelas con sistemas de riego por goteo, como son las características de los productos, fraccionamiento de dosis, momento de la incorporación a lo largo del riego o la época del cmo/intensidad de riegos. Así, hay productos, como el oxifluorfén, que aplicados en herbigación, muestran una escasa movilidad en el bulbo húmedo, quedando retenidos en la parte central del mismo, mientras otros tienen un desplazamiento constante, más o menos rápido, hacia la periferia del bulbo, como sucede con terbacilo, terbumetona+terbitilazina, norflurazona y, en menor medida, con azafenidin. En estos casos, para un determinado herbicida, la velocidad de desplazamiento, y por lo tanto su efecto en el control de hierbas, depende en gran medida, de la intensidad de riegos. La solubilidad y el coeficiente de adsorción Koc, son características de los herbicidas que, en gran medida, determinan ese comportamiento en el bulbo húmedo. Excepto para los productos muy poco móviles, la dosificación en herbigación ha de ser fraccionada, siendo la intensidad de riegos uno de los factores clave para optimizar la frecuencia de incorporaciones. Junto a esa intensidad de riegos, el momento y tiempo de la incorporación determinan también los resultados. Mientras el desplazamiento de algunos productos depende casi exclusivamente del riego de incorporación, como en el oxifluorfen y azafenidin, en otros casos se ve también muy influenciado por la intensidad dé los riegos posteriores, como sucede especialmente con los más móviles: terbacilo, la mezcla terbutilazina + terbumetona o norflurazona. En las aplicaciones tradicionales de herbicidas remanentes, puede comprobarse como los resultados obtenidos con algunos productos, en parcelas con riego por goteo, son muy diferentes a las de riego tradicional Así, terbacilo o norflurazona, reducen extraordinariamente su persistencia activa en la zona central del bulbo, especialmente en épocas con elevadas intensidades de riego, mientras la alargan fuera de esas zonas de influencia de los goteros. En base a las conclusiones de estos trabajos se apunta una serie de posibles mejoras para optimizar los programas de control de hierbas en plantaciones de cítricos con riego por goteo, que incluyen la herbigación, con combinación de productos de diferentes comportamientos en el bulbo húmedo, la aplicación tradicional de herbicidas remanentes, programas con foliares y combinaciones de estas técnicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La escasez del agua en las regiones áridas y semiáridas se debe a la escasez de precipitaciones y la distribución desigual en toda la temporada, lo que hace de la agricultura de secano una empresa precaria. Un enfoque para mejorar y estabilizar el agua disponible para la producción de cultivos en estas regiones es el uso de tecnologías de captación de agua de lluvia in situ y su conservación. La adopción de los sistemas de conservación de la humedad del suelo in situ, tales como la labranza de conservación, es una de las estrategias para mejorar la gestión de la agricultura en zonas áridas y semiáridas. El objetivo general de esta tesis ha sido desarrollar una metodología de aplicación de labranza de depósito e investigar los efectos a corto plazo sobre las propiedades físicas del suelo de las diferentes prácticas de cultivo que incluyen labranza de depósito: (reservoir tillage, RT), la laboreo mínimo: (minimum tillage, MT), la no laboreo: (zero tillage, ZT) y laboreo convencional: (conventional tillage, CT) Así como, la retención de agua del suelo y el control de la erosión del suelo en las zonas áridas y semiáridas. Como una primera aproximación, se ha realizado una revisión profunda del estado de la técnica, después de la cual, se encontró que la labranza de depósito es un sistema eficaz de cosecha del agua de lluvia y conservación del suelo, pero que no ha sido evaluada científicamente tanto como otros sistemas de labranza. Los trabajos experimentales cubrieron tres condiciones diferentes: experimentos en laboratorio, experimentos de campo en una región árida, y experimentos de campo en una región semiárida. Para investigar y cuantificar el almacenamiento de agua a temperatura ambiente y la forma en que podría adaptarse para mejorar la infiltración del agua de lluvia recolectada y reducir la erosión del suelo, se ha desarrollado un simulador de lluvia a escala de laboratorio. Las características de las lluvias, entre ellas la intensidad de las precipitaciones, la uniformidad espacial y tamaño de la gota de lluvia, confirmaron que las condiciones naturales de precipitación son simuladas con suficiente precisión. El simulador fue controlado automáticamente mediante una válvula de solenoide y tres boquillas de presión que se usaron para rociar agua correspondiente a diferentes intensidades de lluvia. Con el fin de evaluar el método de RT bajo diferentes pendientes de superficie, se utilizaron diferentes dispositivos de pala de suelo para sacar un volumen idéntico para hacer depresiones. Estas depresiones se compararon con una superficie de suelo control sin depresión, y los resultados mostraron que la RT fue capaz de reducir la erosión del suelo y la escorrentía superficial y aumentar significativamente la infiltración. Luego, basándonos en estos resultados, y después de identificar la forma adecuada de las depresiones, se ha diseñado una herramienta combinada (sistema integrado de labranza de depósito (RT)) compuesto por un arado de una sola línea de chisel, una sola línea de grada en diente de pico, sembradora modificada, y rodillo de púas. El equipo fue construido y se utiliza para comparación con MT y CT en un ambiente árido en Egipto. El estudio se realizó para evaluar el impacto de diferentes prácticas de labranza y sus parámetros de funcionamiento a diferentes profundidades de labranza y con distintas velocidades de avance sobre las propiedades físicas del suelo, así como, la pérdida de suelo, régimen de humedad, la eficiencia de recolección de agua, y la productividad de trigo de invierno. Los resultados indicaron que la RT aumentó drásticamente la infiltración, produciendo una tasa que era 47.51% más alta que MT y 64.56% mayor que la CT. Además, los resultados mostraron que los valores más bajos de la escorrentía y pérdidas de suelos 4.91 mm y 0.65 t ha-1, respectivamente, se registraron en la RT, mientras que los valores más altos, 11.36 mm y 1.66 t ha-1, respectivamente, se produjeron en el marco del CT. Además, otros dos experimentos de campo se llevaron a cabo en ambiente semiárido en Madrid con la cebada y el maíz como los principales cultivos. También ha sido estudiado el potencial de la tecnología inalámbrica de sensores para monitorizar el potencial de agua del suelo. Para el experimento en el que se cultivaba la cebada en secano, se realizaron dos prácticas de labranza (RT y MT). Los resultados mostraron que el potencial del agua del suelo aumentó de forma constante y fue consistentemente mayor en MT. Además, con independencia de todo el período de observación, RT redujo el potencial hídrico del suelo en un 43.6, 5.7 y 82.3% respectivamente en comparación con el MT a profundidades de suelo (10, 20 y 30 cm, respectivamente). También se observaron diferencias claras en los componentes del rendimiento de los cultivos y de rendimiento entre los dos sistemas de labranza, el rendimiento de grano (hasta 14%) y la producción de biomasa (hasta 8.8%) se incrementaron en RT. En el experimento donde se cultivó el maíz en regadío, se realizaron cuatro prácticas de labranza (RT, MT, ZT y CT). Los resultados revelaron que ZT y RT tenían el potencial de agua y temperatura del suelo más bajas. En comparación con el tratamiento con CT, ZT y RT disminuyó el potencial hídrico del suelo en un 72 y 23%, respectivamente, a la profundidad del suelo de 40 cm, y provocó la disminución de la temperatura del suelo en 1.1 y un 0.8 0C respectivamente, en la profundidad del suelo de 5 cm y, por otro lado, el ZT tenía la densidad aparente del suelo y resistencia a la penetración más altas, la cual retrasó el crecimiento del maíz y disminuyó el rendimiento de grano que fue del 15.4% menor que el tratamiento con CT. RT aumenta el rendimiento de grano de maíz cerca de 12.8% en comparación con la ZT. Por otra parte, no hubo diferencias significativas entre (RT, MT y CT) sobre el rendimiento del maíz. En resumen, según los resultados de estos experimentos, se puede decir que mediante el uso de la labranza de depósito, consistente en realizar depresiones después de la siembra, las superficies internas de estas depresiones se consolidan de tal manera que el agua se mantiene para filtrarse en el suelo y por lo tanto dan tiempo para aportar humedad a la zona de enraizamiento de las plantas durante un período prolongado de tiempo. La labranza del depósito podría ser utilizada como un método alternativo en regiones áridas y semiáridas dado que retiene la humedad in situ, a través de estructuras que reducen la escorrentía y por lo tanto puede resultar en la mejora de rendimiento de los cultivos. ABSTRACT Water shortage in arid and semi-arid regions stems from low rainfall and uneven distribution throughout the season, which makes rainfed agriculture a precarious enterprise. One approach to enhance and stabilize the water available for crop production in these regions is to use in-situ rainwater harvesting and conservation technologies. Adoption of in-situ soil moisture conservation systems, such as conservation tillage, is one of the strategies for upgrading agriculture management in arid and semi-arid environments. The general aim of this thesis is to develop a methodology to apply reservoir tillage to investigate the short-term effects of different tillage practices including reservoir tillage (RT), minimum tillage (MT), zero tillage (ZT), and conventional tillage (CT) on soil physical properties, as well as, soil water retention, and soil erosion control in arid and semi-arid areas. As a first approach, a review of the state of the art has been done. We found that reservoir tillage is an effective system of harvesting rainwater and conserving soil, but it has not been scientifically evaluated like other tillage systems. Experimental works covered three different conditions: laboratory experiments, field experiments in an arid region, and field experiments in a semi-arid region. To investigate and quantify water storage from RT and how it could be adapted to improve infiltration of harvested rainwater and reduce soil erosion, a laboratory-scale rainfall simulator was developed. Rainfall characteristics, including rainfall intensity, spatial uniformity and raindrop size, confirm that natural rainfall conditions are simulated with sufficient accuracy. The simulator was auto-controlled by a solenoid valve and three pressure nozzles were used to spray water corresponding to different rainfall intensities. In order to assess the RT method under different surface slopes, different soil scooping devices with identical volume were used to create depressions. The performance of the soil with these depressions was compared to a control soil surface (with no depression). Results show that RT was able to reduce soil erosion and surface runoff and significantly increase infiltration. Then, based on these results and after selecting the proper shape of depressions, a combination implement integrated reservoir tillage system (integrated RT) comprised of a single-row chisel plow, single-row spike tooth harrow, modified seeder, and spiked roller was developed and used to compared to MT and CT in an arid environment in Egypt. The field experiments were conducted to evaluate the impact of different tillage practices and their operating parameters at different tillage depths and different forward speeds on the soil physical properties, as well as on runoff, soil losses, moisture regime, water harvesting efficiency, and winter wheat productivity. Results indicated that the integrated RT drastically increased infiltration, producing a rate that was 47.51% higher than MT and 64.56% higher than CT. In addition, results showed that the lowest values of runoff and soil losses, 4.91 mm and 0.65 t ha-1 respectively, were recorded under the integrated RT, while the highest values, 11.36 mm and 1.66 t ha -1 respectively, occurred under the CT. In addition, two field experiments were carried out in semi-arid environment in Madrid with barley and maize as the main crops. For the rainfed barley experiment, two tillage practices (RT, and MT) were performed. Results showed that soil water potential increased quite steadily and were consistently greater in MT and, irrespective of the entire observation period, RT decreased soil water potential by 43.6, 5.7, and 82.3% compared to MT at soil depths (10, 20, and 30 cm, respectively). In addition, clear differences in crop yield and yield components were observed between the two tillage systems, grain yield (up to 14%) and biomass yield (up to 8.8%) were increased by RT. For the irrigated maize experiment, four tillage practices (RT, MT, ZT, and CT) were performed. Results showed that ZT and RT had the lowest soil water potential and soil temperature. Compared to CT treatment, ZT and RT decreased soil water potential by 72 and 23% respectively, at soil depth of 40 cm, and decreased soil temperature by 1.1 and 0.8 0C respectively, at soil depth of 5 cm. Also, ZT had the highest soil bulk density and penetration resistance, which delayed the maize growth and decreased the grain yield that was 15.4% lower than CT treatment. RT increased maize grain yield about 12.8% compared to ZT. On the other hand, no significant differences among (RT, MT, and CT) on maize yield were found. In summary, according to the results from these experiments using reservoir tillage to make depressions after seeding, these depression’s internal surfaces are consolidated in such a way that the water is held to percolate into the soil and thus allowing time to offer moisture to the plant rooting zone over an extended period of time. Reservoir tillage could be used as an alternative method in arid and semi-arid regions and it retains moisture in-situ, through structures that reduce runoff and thus can result in improved crop yields.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el primer capítulo se analizan las generalidades relativas al sismo. Tras algunas consideraciones sobre los fenómenos que aparecen durante un terremoto se describen algunos ejemplos históricos que han sido determinantes en el desarrollo del conocimiento y, finalmente, se plantean algunos problemas típicos de la ingeniería sísmica. En el siguiente capítulo se resumen algunos conceptos utilizados en la descripción física de la acción. Se trata de una presentación muy somera de temas en continua evolución. Se comienza con unas indicaciones sobre tectónica global que permiten hacerse una idea del origen de los terremotos en un marco general. A continuación se recuerdan algunos conceptos imprescindibles sobre propagación de ondas en medios elásticos, lo que permite comentar la composición de los acelerogramas, la estructura interna de la tierra y la localización de terremotos. Finalmente se incluyen las definiciones fenomenológicas e instrumentales utilizadas para describir el sismo, así como algunas correlaciones habituales entre ellas. En el capítulo posterior se desarrollan los criterios que permiten fijar la importancia de la acción sísmica en un emplazamiento determinado. Aunque aquéllos son semejantes para una cuantificación global y local se va a poner especial énfasis en la explicación de los métodos que han llevado al establecimiento del mapa sísmico español. En general cabe decir que el proyectista necesita evaluar los riesgos de diferentes niveles de daño con objeto de comparar soluciones alternativas. Para ello se precisa ser capaz de cuantificar y localizar la importancia de los sismos, el daño que producen en las estructuras así como cuantificar el coste generalizado (coste inicial+ beneficios+ coste de reparación) de la construcción. Tradicionalmente se ha empleado un enfoque determinista en que la solicitación sísmica se tomaba semejante a la máxima registrada históricamente. Tan solo en épocas recientes se ha impuesto una filosofía probabilista basada fundamentalmente en ideas expuestas por Cornell y Esteva en los años sesenta. En ambos casos se recurre a un estudio detallado de la estructura geotectónica de la región, en especial sus fallas activas, así como a la historia sísmica con localización de epicentros y asignación de intensidades que en nuestro país se puede basar en los catálogos existentes. En el caso determinista se postula que el máximo sismo histórico de cada falla se produce en la zona más próxima al emplazamiento, y utilizando fórmulas de atenuación se obtiene la característica de interés en aquel. En el último capítulo se van a describir métodos que, además de su aplicabilidad a sismos concretos han permitido la identificación de propiedades globales y, por tanto, la definición de la acción en función de un número limitado de parámetros. Aunque en un principio la descripción temporal fue la más usada, se ha observado que el contenido en frecuencias tiene una importancia capital y por ello se presentan sucesivamente ambos enfoques. Se dedica un apartado especial al concepto de espectro de respuesta elástica ya que está en la base de la mayoría de las recomendaciones de la normativa y recoge en forma muy sencilla una impresionante cantidad de información. Finalmente, se realizan breves indicaciones sobre los procedimientos utilizados para generar acelerogramas sintéticos que gocen de algunas de las propiedades globales puestas de manifiesto por las representaciones anteriores. Conviene remarcar que la importancia de los conceptos de densidad espectral o espectro de respuesta, radican no sólo en su capacidad para representar propiedades de un sismo dado sino, a través de su correspondiente normalización y promediación. En el último capítulo se incluyen algunas observaciones de interés sobre las modificaciones que las condiciones locales del suelo introducen en el movimiento sísmico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN. Se trata de una investigación sobre algunas relaciones entre la idea y el ejercicio de la arquitectura y el concepto y la praxis de la herida, tanto física como espiritual: sobre la arquitectura como objeto, destino y origen del trauma. Propongo una definición de estas arquitecturas mediante el estudio de obras que se han visto en algún momento de su vida (concebida como la de un humano) - sometidas a procesos de heridas de varios tipos e intensidades, de forma que estos momentos destructivos las han hecho conocer la agonía y, en ocasiones, las han conducido a la extinción. THIS IS AN INVESTIGATION OF SOME RELATIONSHIPS BETWEEN THE IDEA AND THE PRACTICE OF ARCHITECTURE AND THE CONCEPT AND PRACTICE OF INJURY, PHYSICAL AND SPIRITUAL: ABOUT THE ARCHITECTURE LIKE AN OBJECT, DESTINY AND ORIGIN OF THE TRAUMA. I PROPOSE A DEFINITION OF THESE ARCHITECTURES BY STUDYING WORKS THAT HAVE BEEN AT SOME POINT IN THEIR LIFE (CONCEIVED AS A HUMAN) - UNDER TO PROCESSES OF WOUNDS OF VARIOUS TYPES AND INTENSITIES, SO THAT THESE DESTRUCTIVE TIMES HAVE MADE THEM KNOW THE AGONY AND, ON OCCASION, BEEN DRIVEN TO EXTINCTION.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo busca llenar un vacío existente en cuanto a una metodología general en los estudios Arqueoacústicos para la zona Mesoamericana. El resultado mas importante de ésta tesis es la propuesta de un procedimiento y método para los cuales se detalla el conjunto de operaciones utilizadas en las mediciones particulares involucradas, parámetros y análisis relevantes (de los cuales destacan el decaimiento de energía, tiempos de reverberación, intensidades de sonido directo y total, claridad e inteligibilidad), tipos de simulaciones e incertidumbres y actividades técnicas propias de la Ingeniería Acústica que se proponen para la efectiva y útil integración de la dimensión sonora en el quehacer arqueológico. Una importante consideración de la propuesta metodológica aquí presentada, es la consideración, por un lado, de los resultados obtenidos experimentalmente del trabajo in situ en cada uno de los sitios arqueológicos de interés, y por otro los resultados obtenidos de las simulaciones y modelaciones por computadora de los mismos para su comparación y contraste. La propuesta de sistematización está dividida en tres momentos investigativos, como son la coordinación y trabajo logístico en sitios arqueológicos, su reconocimiento y prospección acústica; el trabajo de campo; y el análisis de los resultados obtenidos. Asimismo, dicha propuesta metodológica, se presenta dividida en tres objetos de estudio fundamentales en el quehacer arqueoacústico: los Fenómenos Sonoros encontrados en sitios arqueológicos; los objetos de generación de sonido, tengan éstos aplicaciones musicales o de otra índole; y finalmente los espacios y recintos arquitectónicos, ya sean cerrados o abiertos, y el estudio de su funcionalidad. El acercamiento a la descripción de cada una de dichas ramas, se realiza mediante la presentación de casos de estudio, para los que se contrastan dos áreas culturales representativas e interrelacionadas de Mesoamérica, la zona del Bajío y la zona Maya. Dicho contraste es llevado a cabo mediante el análisis acústico de 4 zonas arqueológicas que son Plazuelas, Peralta y Cañada de la Virgen, pertenecientes a la zona del Bajio, y Chichen Itzá perteneciente a la zona Maya. De particular importancia para el presente trabajo, es la funcionalidad de los espacios estudiados, específicamente de la de los patios hundidos, característicos de la arquitectura del Bajío, y las plazas públicas que constituyen una estructura integral en muchos sitios arqueológicos, centrales para la comprensión de las conexiones entre el fenómeno sonoro y el comportamiento de una cultura en particular. Asimismo, el análisis de los instrumentos de generación sonora ha permitido realizar inferencias sobre papel del sonido en el comportamiento humano de las culturas en cuestión, completando los modelos acústicos y posibilitando el situar las características de las fuentes sonoras en los espacios resonantes. Los resultados particulares de ésta tesis, han permitido establecer las características acústicas de dichos espacios e instrumentos, así como formular y validar las hipótesis sobre su usos y funciones como espacios para eventos públicos y sociales, así como para representaciones culturales multitudinarios. ABSTRACT The present work, aims to fill a void existing in terms of a general methodology in Archaeoacoustic studies for the Mesoamerican region. The most important result of this thesis is the proposal of a procedure and method for archaeoacoustical studies and its relevant analysis and parameters (of which stand out the energy decay, reverberation times, intensities, clarity and intelligibility), simulations and uncertainty considerations for the effective and useful integration of the sound dimension in the archaeological realm. An important methodological consideration in the present work is the comparison and contrast of the results obtained experimentally on site, and the results of simulations and computer modeling. The proposed systematization is divided into three distinct moments: logistics; fieldwork; and result analysis. Likewise, the presented methodological proposal is divided into three fundamental objects of study: Sound phenomena found in archaeological sites; sound generation objects and instruments; and architectural enclosures and the study of their functionality. Presenting case studies is the approach to the description of each of these branches. Two interrelated Mesoamerican cultural areas are considered, the Bajío and the Mayan. Their contrast is carried out by the acoustic analysis of four archaeological sites: Plazuelas, Peralta and Cañada de la Virgen, belonging to the area of the Bajío, and Chichen Itza belonging to the Maya area. Of particular relevance to this paper, is the acoustic functionality of the public spaces present in many archaeological sites, specifically that of the sunken patios, characteristic of the architecture of the Bajío. The analysis of the sound generation instruments has allowed certain inferences about the role of sound in human behavior of the cultures in question, thus completing the acoustic models. It has also enable the contrast of the characteristics of the sound sources and those of the resonant spaces. The results of this thesis have made it possible to develop and validate certain hypotheses about the uses and functions of certain spaces for public and social events as well as for mass cultural representations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introducción.Medida de Intensidades.Medir la resistencia de un galvanómetro con el galvanómetro mismo.Proyecto de Dinamo Tetrapolar.Sociedad Electro-Madrileña : Anteproyecto para el alumbrado eléctrico de Los Barrios bajos de Madrid

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUCCIÓN: El riesgo de padecer enfermedades cardiovasculares y los índices de obesidad infantil han ido en aumento durante los últimos años empobreciendo la salud de la población. La Teoría de Barker relaciona el estado de salud de la madre con el desarrollo fetal, asociando a un deficiente estado físico y hábitos de vida negativos de la mujer embarazada con el aumento del riesgo de padecer cardiopatías en la infancia y adolescencia, así como predisponer al recién nacido a padecer sobrepeso y/u obesidad en su vida posterior. Por otro lado los estudios efectuados sobre ejercicio físico durante el embarazo reportan beneficios para salud materna y fetal. Uno de los parámetros más utilizados para comprobar la salud fetal es su frecuencia cardiaca, mediante la que se comprueba el buen desarrollo del sistema nervioso autónomo. Si se observa este parámetro en presencia de ejercicio materno podría encontrarse una respuesta crónica del corazón fetal al ejercicio materno como consecuencia de una adaptación y mejora en el funcionamiento del sistema nervioso autónomo del feto. De esta forma podría mejorar su salud cardiovascular intrauterina, lo que podría mantenerse en su vida posterior descendiendo el riesgo de padecer enfermedades cardiovasculares en la edad adulta. OBJETIVOS: Conocer la influencia de un programa de ejercicio físico supervisado en la frecuencia cardiaca fetal (FCF) en reposo y después del ejercicio materno en relación con gestantes sedentarias mediante la realización de un protocolo específico. Conocer la influencia de un programa de ejercicio físico en el desarrollo del sistema nervioso autónomo fetal, relacionado con el tiempo de recuperación de la FCF. MATERIAL Y MÉTODO: Se diseñó un ensayo clínico aleatorizado multicéntrico en el que participaron 81 gestantes (GC=38, GE=43). El estudio fue aprobado por el comité ético de los hospitales que participaron en el estudio. Todas las gestantes fueron informadas y firmaron un consentimiento para su participación en el estudio. Las participantes del GE recibieron una intervención basada en un programa de ejercicio físico desarrollado durante la gestación (12-36 semanas de gestación) con una frecuencia de tres veces por semana. Todas las gestantes realizaron un protocolo de medida de la FCF entre las semanas 34-36 de gestación. Dicho protocolo consistía en dos test llevados a cabo caminando a diferentes intensidades (40% y 60% de la frecuencia cardiaca de reserva). De este protocolo se obtuvieron las principales variables de estudio: FCF en reposo, FCF posejercicio al 40 y al 60% de intensidad, tiempo de recuperación de la frecuencia cardiaca fetal en ambos esfuerzos. El material utilizado para la realización del protocolo fue un monitor de frecuencia cardiaca para controlar la frecuencia cardiaca de la gestante y un monitor fetal inalámbrico (telemetría fetal) para registrar el latido fetal durante todo el protocolo. RESULTADOS: No se encontraron diferencias estadísticamente significativas en la FCF en reposo entre grupos (GE=140,88 lat/min vs GC= 141,95 lat/min; p>,05). Se encontraron diferencias estadísticamente significativas en el tiempo de recuperación de la FCF entre los fetos de ambos grupos (GE=135,65 s vs GC=426,11 s esfuerzo al 40%; p<,001); (GE=180,26 s vs GC=565,61 s esfuerzo al 60%; p<,001). Se encontraron diferencias estadísticamente significativas en la FCF posejercicio al 40% (GE=139,93 lat/min vs GC=147,87 lat/min; p<,01). No se encontraron diferencias estadísticamente significativas en la FCF posejercicio al 60% (GE=143,74 lat/min vs GC=148,08 lat/min; p>,05). CONLUSIÓN: El programa de ejercicio físico desarrollado durante la gestación influyó sobre el corazón fetal de los fetos de las gestantes del GE en relación con el tiempo de recuperación de la FCF. Los resultados muestran un posible mejor funcionamiento del sistema nervioso autónomo en fetos de gestantes activas durante el embarazo. ABSTRACT INTRODUCTION: The risk to suffer cardiovascular diseases and childhood obesity index has grown in the last years worsening the health around the population. Barker´s Theory related maternal health with fetal development establishing an association between a poorly physical state and an unhealthy lifestyle in the pregnant woman with the risk to suffer heart disease during childhood and adolescence, childhood overweight and/or obese is related to maternal lifestyle. By the other way researches carried out about physical exercise and pregnancy show benefits in maternal and fetal health. One of the most studied parameters to check fetal health is its heart rate, correct fetal autonomic nervous system development and work is also corroborated by fetal heart rate. Looking at this parameter during maternal exercise a chronic response of fetal heart could be found due to an adaptation and improvement in the working of the autonomic nervous system. Therefore its cardiovascular health could be enhanced during its intrauterine life and maybe it could be maintained in its posterior life descending the risk to suffer cardiovascular diseases in adult life. OBJECTIVES: To know the influence of a supervised physical activity program in the fetal heart rate (FHR) at rest, FHR after maternal exercise related to sedentary pregnant women by a FHR assessment protocol. To know the influence of a physical activity program in the development of the autonomic nervous system related to FHR recovery time. MATERIAL AND METHOD: A multicentric randomized clinical trial was design in which 81 pregnant women participated (CG=38, EG=43). The study was approved by the ethics committee of all of the hospitals participating in the study. All of the participants signed an informed consent for their participation in the study. EG participants received an intervention based on a physical activity program carried out during gestation (12-36 gestation weeks) with a three days a week frequency. All of the participants were tested between 34-36 weeks of gestation by a specific FHR assessment protocol. The mentioned protocol consisted in two test performed walking and at a two different intensities (40% and 60% of the reserve heart rate). From this protocol we obtained the main research variables: FHR at rest, FHR post-exercise at 40% and 60% intensity, and FHR recovery time at both walking test. The material used to perform the protocol were a FH monitor to check maternal HR and a wireless fetal monitor (Telemetry) to register fetal beats during the whole protocol. RESULTS: There were no statistical differences in FHR at rest between groups (EG=140,88 beats/min vs CG= 141,95 beats/min; p>,05). There were statistical differences in FHR recovery time in both walking tests between groups (EG=135,65 s vs CG=426,11 s test at 40% intensity; p<,001); (EG=180,26 s vs CG=565,61 s test at 60% intensity; p<,001). Statistical differences were found in FHR post-exercise at 40% intensity between groups (EG=139,93 beats/min vs CG=147,87 beats/min; p<,01). No statistical differences were found in FHR at rest post-exercise at 60% intensity between groups (EG=143,74 beats/min vs CG=148,08 beats/min; p>,05). CONCLUSIONS: The physical activity program performed during gestation had an influence in fetal heart of the fetus from mother in the EG related to FHR recovery time. These results show a possible enhancement on autonomic nervous system working in fetus from active mothers during gestation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las mayores dificultades que aparecen en una futura reedición de la Norma Sismorresistente son probablemente las derivadas de una carencia casi absoluta de datos básicos recogidos en el territorio nacional, y en particular los referentes a registros de acelerogramas acaecidos en los últimos años. Por otra parte, si bien la información histórica de los seísmos descritos en términos cualitativos - intensidades- es suficientemente extensa, no existe hasta la fecha un mapa adecuado de riesgo sísmico que comprenda todo el país. La incertidumbre representada por las anteriores limitaciones debe de ser subsanada en la redacción de una nueva norma, mediante un enérgico programa de trabajo, que incluya como objetivo prioritario, la aportación de los anteriores datos básicos referidos a España. Esta nota hace referencia, de un modo específico, a los criterios que deberían ser considerados en la modificación del espectro básico de respuesta al tener en cuenta la influencia del terreno bajo la cimentación (amplificación del suelo). Aquí no se incluyen los efectos del tipo de cimentación, que deberían ser considerados de un modo separado así como la interacción dinámica suelo-estructura, que constituye una situación más compleja y cuyo estudio exige al menos el conocimiento de la amplificación del suelo y que se suele llevar a cabo en el caso de estructuras importantes (centrales nucleares, presas de tierra, etc.) que no deben ser objetivo prioritario de una norma sismorresistente de aplicación más general a edificación normal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde hace ya varias décadas la praxis de la ecología ha venido reconociendo la necesidad de estudiar los múltiples sistemas de interacción del ser humano, como especie viva, y su entorno. Entidades espaciales como el paisaje geográfico son empleadas para delimitar sistemas territoriales operados por la sociedad, precisando campos concretos de su acción física, biológica y cultural. La ecología aborda así el conocimiento científico del territorio como asentamiento humano, rastrea sus patrones espaciales y analiza su compleja estructura funcional. En ese contexto, la transferencia de herramientas e instrumentos desde la ecología al ámbito proyectivo posee ya un bagaje de más de cinco décadas. Cada vez con más frecuencia el proyecto emplea parámetros, inventarios, fórmulas, indicadores y tecnologías que tratan de dar una respuesta ambientalmente adecuada a los condicionantes de contorno, por ejemplo aprovechando las condiciones climáticas en la optimización energética o proponiendo programas de usos del suelo que eviten perturbaciones en ecosistemas de interés. Con todo, en el momento presente surgen voces que, ante el dominio indiscutible de los enfoques netamente deterministas, tratan de recordar que los principios del pensamiento ecológico van más allá del mero control cuantitativo de los procesos biofísicos. Recuerdan que la etología demostró a principios del XX que el ser humano, como ser consciente, inviste una relación de intimidad con su entorno que supera tales perspectivas: a través de la correspondencia entre percepción y significación, entre lo físico y lo psíquico, entre interioridad y exterioridad, las personas abrazan la plenitud de aquello que les rodea en un acto de profunda conciliación afectiva. De tal ligadura de intimidad depende, sí o sí, y en toda su profundidad, la aceptación humana del entorno construido. A través de la noción de ambiente [Umwelt] se demuestra que la relación del hombre con su entorno es inseparable, bidireccional y coordinada y, por lo tanto, desde una posición coherente, la experiencia del espacio puede ser examinada a partir de la reciprocidad que constituyen, en continuidad, la persona y el lugar. De esta forma, la tesis dirige su objetivo principal a explorar y considerar, desde el proyecto, el significado y la influencia de la experiencia ambiental del espacio construido en la vida humana. Es más que probable que buena parte de los problemas de desafección del hombre con los paisajes transformados de su contemporaneidad tenga que ver con que tanto las intensidades de la experiencia y percepción humana, como la potestad interpretativa de sus productos culturales, incluyendo la arquitectura, han sido fuertemente reducidas. Ante este problema, la investigación toma como hipótesis la oportunidad que ofrece el pensamiento ecológico de reformular la experiencia estética como un acto de conocimiento, como un evento donde se da el encuentro físico y se construyen significados, donde se sancionan valores sociales y se mira hacia el futuro. Se ha de señalar que la presente tesis doctoral arranca en el Laboratorio de Paisaje del Grupo de Investigación Paisaje Cultural de la Universidad Politécnica de Madrid dirigido por Concha Lapayese y Darío Gazapo, y por tanto hace suyos para el estado del arte los principales conceptos e ideas bajo los que el trabajo teórico y práctico del grupo se viene orientando desde hace años: la consideración del paisaje como acontecimiento; la oscilación de la interpretación entre un paisaje específico y un paisaje genérico en un mundo globalizado; el reconocimiento de la experiencia estética del paisaje como una toma de conciencia social; y en definitiva, la reivindicación de la interioridad en el proyecto contemporáneo. La investigación profundiza en una línea de oportunidad que se abre al promover lo que se ha llamado un conocimiento por lo sentido como estrategia ambiental que permite contrarrestar mitos profundamente arraigados en las estructuras sociales. El primer paso en ese recorrido sería explorar ecológicamente el aporte de la experiencia estética; esto es, su consideración como forma de conocimiento específico. Resultaría pertinente impulsar la idea de la inmersión en el paisaje como fenómeno experiencial, sensual y corporal, y enfrentar, desde ahí, el problema de la aceptación social de lo nuevo y lo trasformado de acuerdo con el momento actual. La exploración sobre la afectividad en el ambiente no es, en cualquier caso, un asunto nuevo. Sin pretensiones de historiografía, dos momentos del siglo XX concentran el interés de la investigación. La primera se corresponde fundamentalmente con la segunda década del siglo, en relación a una serie de influencias que desde los avances científicos determinaron singulares aventuras del arte más experimental. La segunda se posiciona en el entorno de 1970, época en la que es conocido el interés que despertaron las cuestiones ambientales. En ambos casos se han estudiado aportaciones que desvelan conceptos determinantes en la definición de la experiencia estética como un evento de adquisición de conocimiento por lo sentido. Es conveniente adelantar el rol de centralidad que para la investigación tiene el concepto de energía, tal como el propio título subraya. La energía como realidad material y sensible es el sustrato que permite navegar por el principio de unidad epistemológica que subyace al pensamiento ecológico. Sus continuas referencias simbólicas, físicas y metafóricas entre los artistas estudiados no son un mero recurso iconográfico: mantienen inherente el principio de continuidad ambiental en el cual el ser humano y la inmensidad del cosmos navegan indisociables. Un discurso unificado y consistente sobre los aportes de la experiencia estética enfocada como forma de conocimiento por lo sentido hila la lectura histórica, conceptual y práctica de toda la investigación. Con ello se alcanza a hilvanar un diagrama conceptual, modelo de análisis proyectivo, que recoge ideas científicas, filosóficas y proyectivas. De alguna manera, el diagrama trata de dibujar, desde los principios del pensamiento ecológico, la correlación de continuidad que, vacilante, tensa, sutil y frágil se desplaza incesante e irresuelta entre interioridad y exterioridad. ABSTRACT Over the last few decades ecological practice has come to acknowledge a need for studying the multiple systems of interaction between the human being - inasmuch as it is a living species - and its environment. Spatial entities such as the geographic notion of landscape have been used to delimitate the territorial systems operated by society and to describe in detail specific fields of its physical, biological and cultural action. Ecology has thus managed to address the scientific knowledge of the territory as a human settlement, tracking its spatial patterns and analysing its complex functional structure. In this context, the transfer of tools and instruments from the field of ecology to that of design has a tradition already going back more than fifty years. Increasingly more often, design makes use of parameters, inventories, formulas, indicators and technologies to give an environmentally sound response to contour conditions: for instance, taking advantage of the local climate for the optimisation of energy consumption or proposing land uses that avoid disturbing valuable ecosystems. Yet in the present day some voices have arisen that, against the uncontested domination of purely positivistic approaches, are trying to draw attention to the fact that the principles of ecological thought go beyond mere quantitative control of biophysical processes. They point out that, in the early 20th century, ethology proved that the human being, as a conscious entity, invests itself into a relationship of intimacy with its environment that surpasses such perspectives: through the correspondences between perception and signification, between physical and psychological or between inside and outside, people embrace the entirety of their surroundings in an action of deep affective conciliation. It is on this link of intimacy that - fully and unquestionably - human acceptance of the built environment depends. Through the notion of environment [Umwelt] it can be proven that the relationship between the human being and its environment is inseparable, bidirectional and coordinated; and that, therefore, from a coherent position the experience of space can be examined through the reciprocity constituted continuously by person and place. Thus, the main goal in this thesis is to explore and acknowledge, from the standpoint of design, the meaning and influence of the environmental experience in human life. It is extremely likely that many of the issues with mankind’s alienation from the transformed landscapes of the present day arise from the fact that both the intensity of human perception and experience and the interpretive capacity of its cultural products –including architecture - have been greatly reduced. Facing this issue, research has taken as hypothesis the opportunity offered by ecological thought of reformulating aesthetic experience as an act of knowledge – as an event where physical encounter takes place and meanings are constructed; where social values are sanctioned and the path towards the future is drawn. This notwithstanding, the present thesis began in the Landscape Laboratory of the Technical University of Madrid Cultural Landscape Research Group (GIPC-UPM), led by Concha Lapayese and Darío Gazapo; and has therefore appropriated for its state of the art the main concepts and ideas that have been orienting the practical and theoretical work of the latter: the understanding of landscape as an event, the oscillation of interpretation between a specific and a generic landscape within a globalised world; the acknowledgement of the aesthetic experience of landscape as a way of acquiring social awareness; and, all in all, a vindication of interiority in contemporary design. An exploration has been made of the line of opportunity that is opened when promoting what has been termed knowledge through the senses as an environmental strategy allowing to counter myths deeply rooted in social structures. The first step in this path would be an ecological exploration of the contribution of the aesthetic experience; that is, its consideration as a type of specific knowledge. It would be pertinent to further the idea of immersion into the landscape as an experiential, sensual and corporeal phenomenon and, from that point, to face the issue of social acceptance of what is new and transformed according to the values of the present day. The exploration of affectivity in the environment is not, at any rate, a new topic. Without aspiring to make a history of it, we can mark two points in the 20th century that have concentrated the interest of this research. The first coincides with the second decade of the century and relates to a number of influences that, arising from scientific progress, determined the singular adventures of the more experimental tendencies in art. The second is centred around 1970: a period in which the interest drawn by environmental matters is well known. In both cases, contributions have been studied that reveal crucial concepts in defining the aesthetic experience as an event for the acquisition of knowledge through the senses. It is necessary to highlight the role of centrality that the concept of energy has throughout this research, as is evident even in its title. Energy as a material, sensitive reality is the substrate making it possible to navigate through the principle of epistemological unity underlying ecological thought. The continuous symbolic, physical and metaphorical references to it among the artists studied here are not a mere iconographic source: they remind of the inherency of the principle of environmental continuity within which the human being and the immensity of cosmos travel indissociably. A unified, consistent discourse on the contributions of the aesthetic experience addressed as knowledge through the senses weaves together the historic, conceptual and practical reading of the whole research. With it, a conceptual diagram is constructed – a model of design analysis – gathering together scientific, philosophical and design ideas. Somehow, the diagram tries to draw from the principles of ecological thought the correlation of continuity that, vacillating, tense, subtle and fragile, shifts incessantly and unresolved between interiority and exteriority.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis revisa y analiza algunos aspectos fundamentales relativos al comportamiento de los sensores basados en resonadores piezoeléctricos TSM (Thickness Shear Mode), así como la aplicación de los mismos al estudio y caracterización de dos medios viscoelásticos de gran interés: los fluidos magnetoreológicos y los biofilms microbianos. El funcionamiento de estos sensores está basado en la medida de sus propiedades resonantes, las cuales varían al entrar en contacto con el material que se quiere analizar. Se ha realizado un análisis multifrecuencial, trabajando en varios modos de resonancia del transductor, en algunas aplicaciones incluso de forma simultánea (excitación pulsada). Se han revisado fenómenos como la presencia de microcontactos en la superficie del sensor y la resonancia de capas viscoelásticas de espesor finito, que pueden afectar a los sensores de cuarzo de manera contraria a lo que predice la teoría convencional (Sauerbrey y Kanazawa), pudiéndonos llevar a incrementos positivos de la frecuencia de resonancia. Además, se ha estudiado el efecto de una deposición no uniforme sobre el resonador piezoeléctrico. Para ello se han medido deposiciones de poliuretano, modelándose la respuesta del resonador con estas deposiciones mediante FEM. El modelo numérico permite estudiar el comportamiento del resonador al modificar distintas variables geométricas (espesor, superficie, no uniformidad y zona de deposición) de la capa depositada. Se ha demostrado que para espesores de entre un cuarto y media longitud de onda aproximadamente, una capa viscoelástica no uniforme sobre la superficie del sensor, amplifica el incremento positivo del desplazamiento de la frecuencia de resonancia en relación con una capa uniforme. Se ha analizado también el patrón geométrico de la sensibilidad del sensor, siendo también no uniforme sobre su superficie. Se han aplicado sensores TSM para estudiar los cambios viscoelásticos que se producen en varios fluidos magneto-reológicos (FMR) al aplicarles distintos esfuerzos de cizalla controlados por un reómetro. Se ha podido ver que existe una relación directa entre diversos parámetros reológicos obtenidos con el reómetro (fuerza normal, G’, G’’, velocidad de deformación, esfuerzo de cizalla…) y los parámetros acústicos, caracterizándose los FMR tanto en ausencia de campo magnético, como con campo magnético aplicado a distintas intensidades. Se han estudiado las ventajas que aporta esta técnica de medida sobre la técnica basada en un reómetro comercial, destacando que se consigue caracterizar con mayor detalle algunos aspectos relevantes del fluido como son la deposición de partículas (estabilidad del fluido), el proceso de ruptura de las estructuras formadas en los FMR tanto en presencia como en ausencia de campo magnético y la rigidez de los microcontactos que aparecen entre partículas y superficies. También se han utilizado sensores de cuarzo para monitorear en tiempo real la formación de biofilms de Staphylococcus epidermidis y Eschericia coli sobre los propios resonadores de cristal de cuarzo sin ningún tipo de recubrimiento, realizándose ensayos con cepas que presentan distinta capacidad de producir biofilm. Se mostró que, una vez que se ha producido una primera adhesión homogénea de las bacterias al sustrato, podemos considerar el biofilm como una capa semi-infinita, de la cual el sensor de cuarzo refleja las propiedades viscoelásticas de la región inmediatamente contigua al resonador, no siendo sensible a lo que sucede en estratos superiores del biofilm. Los experimentos han permitido caracterizar el módulo de rigidez complejo de los biofilms a varias frecuencias, mostrándose que el parámetro característico que indica la adhesión de un biofilm tanto en el caso de S. epidermidis como de E. coli, es el incremento de G’ (relacionado con la elasticidad o rigidez de la capa), el cual viene ligado a un incremento de la frecuencia de resonancia del sensor. ABSTRACT This thesis reviews and analyzes some key aspects of the behavior of sensors based on piezoelectric resonators TSM (Thickness Shear Mode) and their applications to the study and characterization in two viscoelastic media of great interest: magnetorheological fluids and microbial biofilms. The operation of these sensors is based on the analysis of their resonant properties that vary in contact with the material to be analyzed. We have made a multi-frequency analysis, working in several modes of resonance of the transducer, in some applications even simultaneously (by impulse excitation). We reviewed some phenomena as the presence of micro-contacts on the sensor surface and the resonance of viscoelastic layers of finite thickness, which can affect quartz sensors contrary to the conventional theory predictions (Sauerbrey and Kanazawa), leading to positive resonant frequency shifts. In addition, we studied the effect of non-uniform deposition on the piezoelectric resonator. Polyurethane stools have been measured, being the resonator response to these depositions modeled by FEM. The numerical model allows studying the behavior of the resonator when different geometric variables (thickness, surface non-uniformity and deposition zone) of the deposited layer are modified. It has been shown that for thicknesses between a quarter and a half of a wavelength approximately, non-uniform deposits on the sensor surface amplify the positive increase of the resonance frequency displacement compared to a uniform layer. The geometric pattern of the sensor sensitivity was also analyzed, being also non-uniform over its surface. TSM sensors have been applied to study the viscoelastic changes occurring in various magneto-rheological fluids (FMR) when subjected to different controlled shear stresses driven by a rheometer. It has been seen that there is a direct relationship between various rheological parameters obtained with the rheometer (normal force, G', G'', stress, shear rate ...) and the acoustic parameters, being the FMR characterized both in the absence of magnetic field, and when the magnetic field was applied at different intensities. We have studied the advantages of this technique over the characterization methods based on commercial rheometers, noting that TSM sensors are more sensitive to some relevant aspects of the fluid as the deposition of particles (fluid stability), the breaking process of the structures formed in the FMR both in the presence and absence of magnetic field, and the rigidity of the micro-contacts appearing between particles and surfaces. TSM sensors have also been used to monitor in real time the formation of biofilms of Staphylococcus epidermidis and Escherichia coli on the quartz crystal resonators themselves without any coating, performing tests with strains having different ability to produce biofilm. It was shown that, once a first homogeneous adhesion of bacteria was produced on the substrate, the biofilm can be considered as a semi-infinite layer and the quartz sensor reflects only the viscoelastic properties of the region immediately adjacent to the resonator, not being sensitive to what is happening in upper layers of the biofilm. The experiments allow the evaluation of the biofilm complex stiffness module at various frequencies, showing that the characteristic parameter that indicates the adhesion of a biofilm for the case of both S. epidermidis and E. coli, is an increased G' (related to the elasticity or stiffness of the layer), which is linked to an increase in the resonance frequency of the sensor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El concepto de casa crecedera, tal y como lo conocemos en la actualidad, se acuñó por primera vez en 1932 en el concurso Das Wachsende Haus organizado por Martin Wagner y Hans Poelzig dentro del marco de la Exposición Internacional Sonne, Luft und Haus für alle, promovida por la Oficina de Turismo de la ciudad de Berlín. En dicho concurso, se definía este tipo de vivienda como aquella célula básica o vivienda semilla que, dependiendo de las necesidades y posibilidades de los habitantes, podía crecer mediante otras estancias, conformando una vivienda completa en sí misma en cada fase de crecimiento. Numerosos arquitectos de primer orden, tales como Walter Gropius, Bruno Taut, Erich Mendelsohn o Hans Scharoun, participaron en este concurso, abriendo una nueva vía de exploración dentro de la vivienda flexible, la del crecimiento programado. A partir de ese momento, en Europa, y subsecuentemente en EEUU y otras regiones desarrolladas, se iniciaron numerosas investigaciones teóricas y prácticas en torno al fenómeno del crecimiento en la vivienda desde un enfoque vinculado a la innovación, tanto espacial como técnica. Por otro lado, aunque dentro del marco de la arquitectura popular de otros países, ya se ensayaban viviendas crecederas desde el siglo XVIII debido a que, por su tamaño, eran más asequibles dentro del mercado. Desde los años treinta, numerosos países en vías de desarrollo tuvieron que lidiar con migraciones masivas del campo a la ciudad, por lo que se construyeron grandes conjuntos habitacionales que, en numerosos casos, estaban conformados por viviendas crecederas. En todos ellos, la aproximación al crecimiento de la vivienda se daba desde una perspectiva diferente a la de los países desarrollados. Se primaba la economía de medios, el uso de sistemas constructivos de bajo costo y, en muchos casos, se fomentaba incluso la autoconstrucción guiada, frente a las construcciones prefabricadas ensambladas por técnicos especializados que se proponían, por ejemplo, en los casos europeos. Para realizar esta investigación, se recopiló información de estas y otras viviendas. A continuación, se identificaron distintas maneras de producir el crecimiento, atendiendo a su posición relativa respecto de la vivienda semilla, a las que se denominó mecanismos de ampliación, utilizados indistintamente sin tener en cuenta la ubicación geográfica de cada casa. La cuestión de porqué se prefiere un mecanismo en lugar de otro en un caso determinado, desencadenó el principal objetivo de esta Tesis: la elaboración de un sistema de análisis y diagnóstico de la vivienda crecedera que, de acuerdo a determinados parámetros, permitiera indicar cuál es la ampliación o sucesión de ampliaciones óptimas para una familia concreta, en una ubicación establecida. Se partió de la idea de que el crecimiento de la vivienda está estrechamente ligado a la evolución de la unidad de convivencia que reside en ella, de manera que la casa se transformó en un hábitat dinámico. Además se atendió a la complejidad y variabilidad del fenómeno, sujeto a numerosos factores socio-económicos difícilmente previsibles en el tiempo, pero fácilmente monitorizables según unos patrones determinados vinculados a la normatividad, el número de habitantes, el ahorro medio, etc. Como consecuencia, para el diseño del sistema de optimización de la vivienda crecedera, se utilizaron patrones evolutivos. Dichos patrones, alejados ya del concepto espacial y morfológico usualmente utilizado en arquitectura por figuras como C. Alexander o J. Habraken, pasaron a entenderse como una secuencia de eventos en el tiempo (espaciales, sociales, económicos, legales, etc.), que describen el proceso de transformación y que son peculiares de cada vivienda. De esta manera, el tiempo adquirió una especial importancia al convertirse en otro material más del proyecto arquitectónico. Fue en la construcción de los patrones donde se identificaron los mencionados mecanismos de ampliación, entendidos también como sistemas de compactación de la ciudad a través de la ocupación tridimensional del espacio. Al estudiar la densidad, mediante los conceptos de holgura y hacinamiento, se aceptó la congestión de las ciudades como un valor positivo. De esta forma, las posibles transformaciones realizadas por los habitantes (previstas desde un inicio) sobre el escenario del habitar (vivienda semilla), se convirtieron también en herramientas de proyecto urbano que responden a condicionantes del lugar y de los habitantes con distintas intensidades de crecimiento, ocupación y densidad. Igualmente, en el proceso de diseño del sistema de optimización, se detectaron las estrategias para la adaptabilidad y transformación de la casa crecedera, es decir, aquella serie de acciones encaminadas a la alteración de la vivienda para facilitar su ampliación, y que engloban desde sistemas constructivos en espera, que facilitan las costuras entre crecimiento y vivienda semilla, hasta sistemas espaciales que permiten que la casa altere su uso transformándose en un hábitat productivo o en un artefacto de renta. Así como los mecanismos de ampliación están asociados a la morfología, se descubrió que su uso es independiente de la localización, y que las estrategias de adaptabilidad de la vivienda se encuentran ligadas a sistemas constructivos o procesos de gestión vinculados a una región concreta. De esta manera, la combinación de los mecanismos con las estrategias caracterizan el proceso de evolución de la vivienda, vinculándola a unos determinados condicionantes sociales, geográficos y por tanto, constructivos. Finalmente, a través de la adecuada combinación de mecanismos de ampliación y estrategias de adaptabilidad en el proyecto de la vivienda con crecimiento programado es posible optimizar su desarrollo en términos económicos, constructivos, sociales y espaciales. Como resultado, esto ayudaría no sólo a mejorar la vida de los habitantes de la vivienda semilla en términos cualitativos y cuantitativos, sino también a compactar las ciudades mediante sistemas incluyentes, ya que las casas crecederas proporcionan una mayor complejidad de usos y diversidad de relaciones sociales. ABSTRACT The growing house concept -as we currently know it- was used for the first time back in 1932 in the competition Das Wachsende Haus organized by Martin Wagner and Hans Poelzig during the International Exhibition Sonne, Luft und Haus für alle, promoted by Berlin's Tourist Office. In that competition this type of housing was defined as a basic cell or a seed house unit, and depending on the needs and capabilities of the residents it could grow by adding rooms and defining itself as a complete house unit during each growing stage. Many world-top class architects such as Walter Gropius, Bruno Taut, Erich Mendelsohn or Hans Scharoun, were part of this competition exploring a new path in the flexible housing field, the scheduled grownth. From that moment and on, in Europe -and subsequently in the USA and other developed areas- many theorical and pragmatical researchs were directed towards the growing house phenomena, coming from an initial approach related to innovation, spacial and technical innovation. Furthermore -inside the traditional architecture frame in other countries, growing houses were already tested in the XVIII century- mainly due to the size were more affordable in the Real State Market. Since the 30's decade many developing countries had to deal with massive migration movements from the countryside to cities, building large housing developments were -in many cases- formed by growing housing units. In all of these developing countries the growing house approach was drawn from a different perspective than in the developed countries. An economy of means was prioritized, the utilization of low cost construction systems and -in many cases- a guided self-construction was prioritized versus the prefabricated constructions set by specialized technics that were proposed -for instance- in the European cases. To proceed with this research, information from these -and other- housing units was gathered. From then and on different ways to perform the growing actions were identified, according to its relative position from the seed house unit, these ways were named as addition or enlargement mechanisms indifferently utilized without adknowledging the geographic location for each house. The question of why one addition mechanism is preferred over another in any given case became the main target of this Thesis; the ellaboration of an analysis and diagnosis system for the growing house -according to certain parameters- would allow to point out which is the addition or addition process more efficient for a certain family in a particular location. As a starting point the grownth of the housing unit is directly linked to the evolution of the family unit that lives on it, so the house becomes a dynamic habitat. The complexity and the variability of the phenomena was taken into consideration related to a great number of socio-economic factors hardly able to be foreseen ahead on time but easy to be monitored according to certain patterns linked to regulation, population, average savings, etc As a consequence, to design the optimization system for the growing house, evolutionary patterns were utilized. Those patterns far away from the spatial and morphologic concept normally utilized in Architecture by characters like C. Alexander or J. Habraken, started to be understood like a sequence of events on time (spatial events, social events, economic events, legal events, etc) that describes the transformation process and that are particular for each housing unit. Therefore time became something important as another ingredient in the Architectural Project. The before mentioned addition or enlargement mechanisms were identified while building the patterns; these mechanisms were also understood as city's system of compactation through the tridimendional ocupation of space. Studying density, thorough the concepts of comfort and overcrowding, traffic congestion in the city was accepted as a positive value. This way, the possible transformations made by the residents (planned from the begining) about the residencial scenary (seed house), also became tools of the urban project that are a response to site's distinctive features and to the residents with different grownth intensities, activities and density Likewise, during the process of designing the optimization system, strategies for adaptations and transformation of the growing house were detected, in other words, the serial chain of actions directed to modify the house easing its enlargement or addition, and that comprehends from constructive systems on hold -that smooths the costures between grownth and housing seed- to spatial systems that allows that the house modify its utilization, becoming a productive habitat or a rental asset. Because the enlargement mechanisms are linked to the morphology, it was discovered that the use it's not related to the location, and that the adaptation strategies of the houses are linked to constructive systems or management processes linked to a particular area. This way the combination of mechanisms and strategies characterizes the process of housing evolution, linking it to certain social and geographic peculiarities and therefore constructives. At last, through the certain combination of enlargement mechanisms and adaptability strategies in the housing with scheduled grownth project is possible to optimize its development in economic, constructive, social and spatial terms. As a result, this would help not only to improve the life of the seed house residents in qualitative and quantitative terms but also to compact the cities through inclusive systems, given that the growing houses provide a larger complexity of uses and social relations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa estuda o fenômeno crise de identidade do jornalista e do Jornalismo motivada pelas mudanças conjunturais oferecidas e impostas a esta área, em sua trajetória brasileira, de variadas formas e em diversos momentos. A evolução da sociedade e dos meios, as inovações técnicas e tecnológicas, a necessidade de formação, bem como os ataques à exigência do diploma e o cancelamento deste em nome do direito ao livre pensamento, entre outros. Por conta disso, busca-se a compreensão do indivíduo jornalista e da construção de sua identidade, bem como da sustentação de sua imagem, aspectos que ajudam a perceber sua importância na tessitura social. O esforço em localizar elementos da identidade e do status desse profissional considerou a análise de discursos de vários autores, no traçado que vai da década de 50 à contemporaneidade (ano de 2005). Para tanto recorreu-se às seguintes ferramentas: o aporte teórico relacionado à vontade de potência sugerida por Friedrich Nietzsche e a Ação Comunicativa de Jürgen Habermas. Do primeiro, adotou-se um modelo híbrido relacionando unidades-temáticas e sentidos de valor; do segundo procurou-se a interface do diálogo mantido por meio de parâmetros normativos, de vivência, e da memória armazenada pelos jornalistas no decorrer do tempo. Os resultados obtidos mostram, nas três fases adotadas, (décs. 50-60, 70-80, e 90-05) a recorrência aos valores ligados à liberdade e à ética, em variadas proporções e intensidades. A questão técnica foi praticamente deixada de lado, parecendo ter sido assimilada, ao passo que as relacionadas à formação foram acionadas esporadicamente. Também percebe-se em variados momentos e de variadas formas, os ataques ao jornalista, geralmente desqualificando-o ou colocando-o sob suspeita. Por outro lado, em todos, os casos os jornalistas procuram defender-se sempre mobilizando recursos, que na maioria das vezes deixam abertas as possibilidades ao diálogo, assim como tentam recuperar sua importância mostrando seus valores por meio da capacidade que possuem de representar a sociedade.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa estuda o fenômeno crise de identidade do jornalista e do Jornalismo motivada pelas mudanças conjunturais oferecidas e impostas a esta área, em sua trajetória brasileira, de variadas formas e em diversos momentos. A evolução da sociedade e dos meios, as inovações técnicas e tecnológicas, a necessidade de formação, bem como os ataques à exigência do diploma e o cancelamento deste em nome do direito ao livre pensamento, entre outros. Por conta disso, busca-se a compreensão do indivíduo jornalista e da construção de sua identidade, bem como da sustentação de sua imagem, aspectos que ajudam a perceber sua importância na tessitura social. O esforço em localizar elementos da identidade e do status desse profissional considerou a análise de discursos de vários autores, no traçado que vai da década de 50 à contemporaneidade (ano de 2005). Para tanto recorreu-se às seguintes ferramentas: o aporte teórico relacionado à vontade de potência sugerida por Friedrich Nietzsche e a Ação Comunicativa de Jürgen Habermas. Do primeiro, adotou-se um modelo híbrido relacionando unidades-temáticas e sentidos de valor; do segundo procurou-se a interface do diálogo mantido por meio de parâmetros normativos, de vivência, e da memória armazenada pelos jornalistas no decorrer do tempo. Os resultados obtidos mostram, nas três fases adotadas, (décs. 50-60, 70-80, e 90-05) a recorrência aos valores ligados à liberdade e à ética, em variadas proporções e intensidades. A questão técnica foi praticamente deixada de lado, parecendo ter sido assimilada, ao passo que as relacionadas à formação foram acionadas esporadicamente. Também percebe-se em variados momentos e de variadas formas, os ataques ao jornalista, geralmente desqualificando-o ou colocando-o sob suspeita. Por outro lado, em todos, os casos os jornalistas procuram defender-se sempre mobilizando recursos, que na maioria das vezes deixam abertas as possibilidades ao diálogo, assim como tentam recuperar sua importância mostrando seus valores por meio da capacidade que possuem de representar a sociedade.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O material Y2O3:Eu3+ vem sendo usado comercialmente como luminóforo vermelho desde da década de 1960, em uma grande variedade de aplicações devido ao seu elevado rendimento quântico (próximo de 100 %), elevada pureza de cor e boa estabilidade. Portanto, este trabalho propõe um novo método de síntese baseado nos complexos benzenotricarboxilatos (BTC) de terras raras trivalentes (RE3+) dopados com íons Eu3+. O objetivo principal é produzir materiais luminescente RE2O3:Eu3+ a temperatura mais baixa (500 °C) e em escala nanométrica. Os complexos precursores [RE(BTC):Eu3+] e [RE(TLA)·n(H2O):Eu3+], onde RE3+: Y, Gd e Lu; BTC: ácido trimésico (TMA) e ácido trimelítico (TLA) foram calcinados em diferentes temperaturas de 500 a 1000 °C, a fim de obter os materiais luminescentes RE2O3:Eu3+. Os complexos foram caracterizados por análise elementar de carbono e hidrogênio, analise térmica (TG), espectroscopia de absorção no infravermelho (FTIR), difração de raios-X - método do pó (XPD) e microscopia eletrônica de varredura (SEM). Todos os complexos são cristalinos e termo estáveis até 460 °C. Dados de fosforescência dos complexos de Y, Gd e Lu mostram que o nível T1 do aníon BTC3- tem energia acima do nível emissor 5D0 do íon Eu3+, indicando que os ligantes podem atuar como sensibilizadores de energia intramolecular. O estudo das propriedades fotoluminescentes dos complexos dopados foi baseado nos espectros de excitação e emissão e curvas de decaimento de luminescência. Ademais, foram determinados os parâmetros de intensidades experimentais (Ωλ), tempos de vida (τ), taxas de decaimentos radiativo (Arad) e não-radiativo (Anrad). Os materiais luminescentes RE2O3:Eu3+ foram sintetizados de forma bem sucedida por meio do método benzenotricarboxilatos calcinados a 500, 600, 700, 800, 900 e 1000 °C, apresentando alta homogeneidade química e controle de tamanho de cristalito. Os nanomateriais foram caracterizados pelas técnicas de FTIR, XPD SEM e TEM revelando a obtenção dos materiais C-RE2O3:Eu3+ mesmo a 500 °C. Os dados de XPD dos materiais confirmaram um aumento do tamanho dos cristalitos de 5 até 52 nm (equação de Scherrer) de em função da temperatura de calcinação de 500 a 1000 °C, respectivamente, corroborados pelas técnicas de SEM e TEM. Os espectros de emissão de RE2O3:Eu3+ mostram uma banda larga atribuída a transição interconfiguracional de transferência de carga ligante-metal (LMCT) em 260 nm, i.e. O2-(2p)→Eu3+(4f6). Além disso, foram observadas linhas finas de absorção devido as transições intraconfiguracionais 4f do íon európio (7F0,1𔾹LJ; J: 0, 1, 2, 3 e 4), como esperado. As propriedades fotoluminescentes dos luminóforos foram baseadas nos espectros (excitação e emissão) e curvas de decaimento luminescente. Os parâmetros de intensidade experimental, tempos de vida, assim como as taxas de decaimentos radiativos e não radiativos foram calculados. As propriedades fotônicas dos nanomateriais são consistentes com o sítio de baixa simetria C2 ocupado pelo íon Eu3+ no C-RE2O3:Eu3+, produzindo emissão vermelha dominada pela transição hipersensível 5D0𔾻F2 do íon Eu3+ no sitio C2, ao invés do sítio centrossimétrico S6. Além disso, os nanomateriais Y2O3:Eu3+ exibem características espectroscópicas semelhantes e elevados valores de eficiência quântica (η~91 %), compatível com os luminóforos comerciais disponíveis no mercado. Este novo método pode ser utilizado para o desenvolvimento de novos nanomateriais contendo íons terras raras, assim como outros íons metálicos.