932 resultados para presión arteria
Resumo:
La siguiente tesis nace a partir de la implementación de la actividad de buceo deportivo en el año 2002 en la Caleta de pescadores artesanales de Maitencillo, quinta región, Chile. Los pescadores administran, para su explotación, un tipo de área marina protegida llamada área de manejo y explotación de recursos bentónicos (AMERB), por lo que se hizo indispensable implementar un Plan de Gestión para el buceo deportivo con la finalidad de regular y controlar la actividad para proteger los recursos existentes en el área, sus ecosistemas y su biodiversidad. Para ello, se construyó un Sendero Submarino con 3 circuitos para el buceo. La tesis contextualiza el desarrollo y ejecución del proyecto y evalúa el Plan de Gestión y la utilización del Sendero Submarino y, para ello, se desarrolla una metodología para el cálculo de la capacidad de carga del Sendero y para la evaluación del Plan de Gestión, a través de indicadores biofísicos, socioeconómicos y de gobernabilidad. Esta tesis plantea un modelo de desarrollo a partir del principio del Ecodesarrollo, destacando, principalmente, que es la comunidad local de pescadores artesanales quien ejecuta y administra el proyecto, sin necesidad de recurrir a operadores privados de buceo y, por tanto, logrando para si los beneficios y el control de la actividad; por otro lado, destaca también que es una actividad a baja escala, con bajos impactos ambientales y por tanto sustentable y replicable para otras organizaciones de pescadores. Los resultados indican que con la información biofísica obtenida se pueden tomar medidas de gestión para la actividad de buceo de acuerdo al estado de los recursos bentónicos principales explotados por los pescadores, ya sea restringiendo la actividad, o suspendiéndola por algún período. Los resultados muestran que la cantidad de buceadores que utilizan el Sendero Submarino está muy por debajo de la capacidad de carga calculada, lo que hace que la presión de esta actividad sobre los recursos y el ecosistema marino sea muy baja. Los resultados socioeconómicos y de gobernabilidad indican que esta actividad ha generado ingresos adicionales para los pescadores que trabajan en esta actividad y también ha generado nuevos puestos de trabajo; además, la organización sindical se ha ido fortaleciendo al crear la comisión de ecoturismo y dar responsabilidades a otros pescadores en la gestión de la actividad. La tesis confirma la hipótesis de que “Los Senderos Submarinos pueden ser una forma de turismo sostenible en áreas marinas protegidas”. The present thesis is based on the implementation of scuba diving activities in the year 2002, in the local fishing cove of Maitencillo, Fifth region, Chile. The local fishermen manage the exploitation process of a type of protected marine area called benthic resource management and exploitation area (BRMEA); for this reason, the implementation of a Management programme for scuba diving to regulate and control this activity to protect the resources in the area, their ecosystems and biodiversity, became a priority. In 2002, an Underwater Path was built, with three tracks for scuba diving practice. This thesis contextualises the development and implementation of the Management programme and the use of the Underwater Path. It also develops a methodology to calculate the payload for the Underwater Path, and to assess the Management project through biophysical, economic and governance indicators. This thesis also proposes a development model by the principle of Sustainable development, with the local community of fishermen implementing and handling the project, without the intervention of private diving agencies, generating economic and social benefits, keeping environmental impact to a minimum level, and making it sustainable and worth emulating for other fishermen organisations. The results indicate, through the biophysical data obtained, that it is possible to take managerial measures regarding the scuba diving activity, according to the state of the most exploited benthic resources, by either restricting the activity or plainly suspending it for some time. The results show that the amount of divers using the Underwater path are way below the calculated payload, which keeps the strain that scuba diving causes on these resources and marine ecosystem to the minimum. The results of the socioeconomic and governance issues indicate that this activity has generated additional profits for the fishermen working in this activity, and also new jobs. Furthermore, the syndicate has strengthened thanks to the creation of an ecotourism commission and by assigning other local fishermen with responsibilities in the organisation of the activity. The thesis confirms the hypothesis that states, “Underwater Paths can become a form of sustainable tourism in protected marine areas”
Resumo:
Una de las principales líneas de investigación de la economía urbana es el comportamiento del mercado inmobiliario y sus relaciones con la estructura territorial. Dentro de este contexto, la reflexión sobre el significado del valor urbano, y abordar su variabilidad, constituye un tema de especial importancia, dada la relevancia que ha supuesto y supone la actividad inmobiliaria en España. El presente estudio ha planteado como principal objetivo la identificación de aquellos factores, ligados a la localización que explican la formación del valor inmobiliario y justifican su variabilidad. Definir este proceso precisa de una evaluación a escala territorial estableciendo aquellos factores de carácter socioeconómico, medioambiental y urbanístico que estructuran el desarrollo urbano, condicionan la demanda de inmuebles y, por tanto, los procesos de formación de su valor. El análisis se centra en valores inmobiliarios residenciales localizados en áreas litorales donde la presión del sector turístico ha impulsado un amplio. Para ello, el ámbito territorial seleccionado como objeto de estudio se sitúa en la costa mediterránea española, al sur de la provincia de Alicante, la comarca de la Vega Baja del Segura. La zona, con una amplia diversidad ecológica y paisajística, ha mantenido históricamente una clara distinción entre espacio urbano y espacio rural. Esta dicotomía ha cambiado drásticamente en las últimas décadas, experimentándose un fuerte crecimiento demográfico y económico ligado a los sectores turístico e inmobiliario, aspectos que han tenido un claro reflejo en los valores inmobiliarios. Este desarrollo de la comarca es un claro ejemplo de la política expansionista de los mercados de suelo que ha tenido lugar en la costa española en las dos últimas décadas y que derivado en la regeneración de un amplio tejido suburbano. El conocimiento del marco territorial ha posibilitado realizar un análisis de variabilidad espacial mediante un tratamiento masivo de datos, así como un análisis econométrico que determina los factores que se valoran positivamente y negativamente por el potencial comprador. Estas relaciones permiten establecer diferentes estructuras matemáticas basadas en los modelos de precios hedónicos, que permiten identificar rasgos diferenciales en los ámbitos económico, social y espacial y su incidencia en el valor inmobiliario. También se ha sistematizado un proceso de valoración territorial a través del análisis del concepto de vulnerabilidad estructural, entendido como una situación de fragilidad debida a circunstancias tanto sociales como económicas, tanto actual como de tendencia en el futuro. Actualmente, esta estructura de demanda de segunda residencia y servicios ha mostrado su fragilidad y ha bloqueado el desarrollo económico de la zona al caer drásticamente la inversión en el sector inmobiliario por la crisis global de la deuda. El proceso se ha agravado al existir un tejido industrial marginal al que no se ha derivado inversiones importantes y un abandono progresivo de las explotaciones agropecuarias. El modelo turístico no sería en sí mismo la causa del bloqueo del desarrollo económico comarcal, sino la forma en que se ha implantado en la Costa Blanca, con un consumo del territorio basado en el corto plazo, poco respetuoso con aspectos paisajísticos y medioambientales, y sin una organización territorial global. Se observa cómo la vinculación entre índices de vulnerabilidad y valor inmobiliario no es especialmente significativa, lo que denota que las tendencias futuras de fragilidad no han sido incorporadas a la hora de establecer los precios de venta del producto inmobiliario analizado. El valor muestra una clara dependencia del sistema de asentamiento y conservación de las áreas medioambientales y un claro reconocimiento de tipologías propias del medio rural aunque vinculadas al sector turístico. En la actualidad, el continuo descenso de la demanda turística ha provocado una clara modificación en la estructura poblacional y económica. Al incorporar estas modificaciones a los modelos especificados podemos comprobar un verdadero desmoronamiento de los valores. Es posible que el remanente de vivienda construida actualmente vaya dirigido a un potencial comprador que se encuentra en retroceso y que se vincula a unos rasgos territoriales ya no existentes. Encontrar soluciones adaptables a la oferta existente, implica la viabilidad de renovación del sistema poblacional o modificaciones a nivel económico. La búsqueda de respuestas a estas cuestiones señala la necesidad de recanalizar el desarrollo, sin obviar la potencialidad del ámbito. SUMMARY One of the main lines of research regarding the urban economy focuses on the behavior of the real estate market and its relationship to territorial structure. Within this context, one of the most important themes involves considering the significance of urban property value and dealing with its variability, particularly given the significant role of the real estate market in Spain, both in the past and present. The main objective of this study is to identify those factors linked to location, which explain the formation of property values and justify their variability. Defining this process requires carrying out an evaluation on a territorial scale, establishing the socioeconomic, environmental and urban planning factors that constitute urban development and influence the demand for housing, thereby defining the processes by which their value is established. The analysis targets residential real estate values in coastal areas where pressure from the tourism industry has prompted large-scale transformations. Therefore, the focal point of this study is an area known as Vega Baja del Segura, which is located on the Spanish Mediterranean coast in southern Alicante (province). Characterized by its scenic and ecological diversity, this area has historically maintained a clear distinction between urban and rural spaces. This dichotomy has drastically changed in past decades due to the large increase in population attributed to the tourism and real estate markets – factors which have had a direct effect on property values. The development of this area provides a clear example of the expansionary policies which have affected the housing market on the coast of Spain during the past two decades, resulting in a large increase in suburban development. Understanding the territorial framework has made it possible to carry out a spatial variability analysis through massive data processing, as well as an econometric analysis that determines the factors that are evaluated positively and negatively by potential buyers. These relationships enable us to establish different mathematical systems based on hedonic pricing models that facilitate the identification of differential features in the economic, social and spatial spheres, and their impact on property values. Additionally, a process for land valuation was established through an analysis of the concept of structural vulnerability, which is understood to be a fragile situation resulting from either social or economic circumstances. Currently, this demand structure for second homes and services has demonstrated its fragility and has inhibited the area’s economic development as a result of the drastic fall in investment in the real estate market, due to the global debt crisis. This process has been worsened by the existence of a marginal industrial base into which no important investments have been channeled, combined with the progressive abandonment of agricultural and fishing operations. In and of itself, the tourism model did not inhibit the area’s economic development, rather it is the result of the manner in which it was implemented on the Costa Brava, with a land consumption based on the short-term, lacking respect for landscape and environmental aspects and without a comprehensive organization of the territory. It is clear that the link between vulnerability indexes and property values is not particularly significant, thereby indicating that future fragility trends have not been incorporated into the problem in terms of establishing the sale prices of the analyzed real estate product in question. Urban property values are clearly dependent on the system of development and environmental conservation, as well as on a clear recognition of the typologies that characterize rural areas, even those linked to the tourism industry. Today, the continued drop in tourism demand has provoked an obvious modification in the populational and economic structures. By incorporating these changes into the specified models, we can confirm a real collapse in values. It’s possible that the surplus of already-built homes is currently being marketed to a potential buyer who is in recession and linked to certain territorial characteristics that no longer exist. Finding solutions that can be adapted to the existing offer implies the viability of renewing the population system or carrying out modifications on an economic level. The search for answers to these questions suggests the need to reform the development model, without leaving out an area’s potentiality.
Campo Acústico en Recintos de Planta en I En L y en U. Aplicación al Diseño Acústico en Restauración
Resumo:
Este trabajo aborda el estudio de la calidad acústica de restaurantes y propone la inteligibilidad como magnitud adecuada para su valoración. La conversación en el entorno de cada mesa se considera como señal de interés para quienes la ocupan, mientras que las conversaciones de los comensales de las restantes mesas se consideran ruido perturbador junto con el procedente de otras fuentes interiores o exteriores, ruido este que por otra parte suele estar limitado por ordenanzas o reglamentaciones ad hoc, a niveles muy por debajo del nivel de conversación medio y se suele tratar como un ruido estacionario homogéneamente distribuido en todo el restaurante. Las condiciones de inteligibilidad en cada mesa del restaurante deben ser equivalentes. La relación señal-ruido juega un papel primordial en todos los modelos objetivos de predicción de la inteligibilidad en recintos comúnmente aceptados en la actualidad. La calificación de la inteligibilidad de un recinto de restauración requiere un mapa de inteligibilidad en una retícula suficientemente fina que cubra la zona de público, en cuyos puntos se necesita calcular los niveles de señal y de ruido, así como el tiempo de reverberación u otro parámetro relacionado con la señal recibida en el tiempo de integración auditiva. Esto conlleva una cantidad ingente de potencia computacional tanto en memoria como en tiempo. Si se dispone de ecuaciones sencillas y fiables de distribución del nivel sonoro en función de la distancia a la fuente sonora los enormes requerimientos de cálculo mencionados podrían reducirse en un factor importante. La teoría estadística clásica de recintos presenta justamente este escenario, pero trabajos relativamente recientes de Barron y colaboradores indican la mejor adecuación de ecuaciones empíricas algo más complejas, dentro de la sencillez, las cuales a su vez han sido cuestionadas en parte por otros autores. La importancia de estas ecuaciones ha condicionado que en esta tesis se haya planeado un programa de exploraciones experimentales ambicioso, a la par que lo mas simplificado posible, para obtener distribuciones de campos sonoros en recintos prismáticos de plantas en forma de I, L y U; en donde se exploran trayectorias axiales y diagonales. En paralelo se exploro el tiempo de reverberación y se completo con estudios análogos en recintos acoplados formados a partir del recinto de planta en U, por su utilidad actual en recintos de interés arquitectónico rehabilitados para restaurantes. Por su facilidad operativa la experimentación se planteo en maquetas a escala reducida asegurando el cumplimiento de los requisitos en este tipo de estudios. Los resultados experimentales directos se corrigieron de los efectos alineales derivados de las descargas eléctricas usadas como señales de excitación, tanto en el tiempo de reverberación como en la distribución de niveles. Con este fin se desarrollaron ecuaciones de corrección de ambas magnitudes en función del parámetro de alinealidad en el rango de débil alinealidad. También se aplicaron correcciones del exceso de absorción sonora en el seno del aire a los valores de humedad relativa, temperatura y presión atmosféricas reinantes en el interior de las maquetas durante la experimentación, para las frecuencias transpuestas por el factor de escala, en relación con la escala real. Como resultado se obtuvo un paquete de archivos de datos experimentales correspondientes a condiciones lineales. Se ha mostrado que una generalización de la ecuación de Barron consigue un buen ajuste a los valores experimentales en todos los casos considerados, lo que apoya el gran fundamento de esta ecuación tipo. El conjunto de ecuaciones empíricas que ajusta cada caso particular solamente difiere en el valor de una de las tres constantes del tipo funcional: el factor ligado al término exponencial. Un valor de esta constante cercano al valor medio de la serie de casos estudiados se ha usado en el cálculo de los mapas de inteligibilidad en recintos prismáticos que se comentaran más adelante Los resultados experimentales del nivel sonoro a lo largo de trayectorias axiales y diagonales comparados a los calculados numéricamente con las ecuaciones empíricas presentan disminuciones justamente detrás de las esquinas de los recintos con plantas en forma de L y de U. Las aéreas de estas zonas afónicas son función de la frecuencia de manera bastante coincidente con las encontradas en las barreras de ruido por efecto de la difracción. A distancias superiores los valores experimentales caen de nuevo sobre las curvas empíricas. Se ha estudiado la influencia en los mapas de inteligibilidad del ruido de fondo, de la absorción sonora, de la distribución de las mesas, de la densidad de mesas por unidad de superficie, del porcentaje de ocupación y su distribución espacial así como de la posición de la mesa de señal. El ruido conversacional resulta ser el factor más adverso a la inteligibilidad. Al aumentar la densidad de mesas (ocupadas) la valoración de la inteligibilidad disminuye e inversamente. La influencia negativa de las mesas de ruido conversacional disminuye rápidamente al aumentar la distancia a la mesa de señal: pudiendo afirmarse que las 4 a 8 mesas mas próximas a la de señal, junto con la absorción total del recinto, constituyen los dos factores que condicionan la inteligibilidad influyendo negativamente el primero y positivamente el segundo. Este resultado difiere del ofrecido por la teoría geométrico estadística clásica donde todas las mesas tienen la misma influencia con independencia del sitio que ocupen en el recinto, y también con la teoría derivada de la ecuación de Barron, que ocupa una posición intermedia. Mayor absorción y menor densidad de mesas (ocupadas) mejoran la inteligibilidad en todos los casos pero la absorción no siempre puede neutralizar el efecto adverso de la densidad de mesas de la cual parece existir un valor frontera imposible de neutralizar en la práctica con incrementos de absorción. El grado de inteligibilidad en torno a la mesa de señal es poco sensible a la posición de esta dentro del recinto, resultado que simplifica el enunciado de criterios de calidad acústica de utilidad práctica tanto en diseño como en reglamentaciones de control. La influencia del ruido de fondo estacionario y homogéneo resulta de escasa o nula influencia en la inteligibilidad para niveles de hasta 50-55 dB, si se admite que los niveles normales de conversación se sitúan de 65 a 70 dB. La subdivisión del restaurante en subespacios menores mediante septa de separación parcial media y alta, presenta ventajas ya que dentro de cada subespacio la inteligibilidad no depende más que de las características de este
Resumo:
Durante los últimos años la física atómica ha vuelto a cobrar un papel fundamental en los planes de investigación, entre los que destacan aquellos dedicados al estudio teórico y experimental de la fusión nuclear. Concretamente, en el concepto de fusión por confinamiento inercial se pueden distinguir cuatro grandes áreas donde es básico el conocimiento de las propiedades atómicas de la materia. Estas son: 1. Modelado de la interacción entre haces de partículas o láser con la cápsula combustible 2. Simulación de blancos de irradiación indirecta mediante conversión a rayos X 3. Diagnosis de experimentos 4. Láseres de rayos X La modelación de los plasmas en fusión depende principalmente de la densidad electrónica. En fusión por confinamiento magnético (tokamaks), los plasmas tienen densidades bajas, por lo que, en general, es suficiente considerar un modelo corona, en el que la mayoría de los iones se encuentran en su estado fundamental o con un número pequeño de estados excitados, estableciéndose sus poblaciones mediante un balance entre la ionización colisional/recombinación radiativa y excitación/decaimiento espontáneo. Sin embargo, los plasmas característicos de la fusión por confinamiento inercial tienen densidades más altas, aunque, normalmente, no lo suficientes como para poder establecer condiciones de equilibrio local termodinámico (balance entre procesos colisionales). Estas densidades, que se podrían clasificar como intermedias, se caracterizan por la aparición de un mayor número de estados excitados por ión y por la importancia tanto de los procesos colisionales como radiativos. Además de lo expuesto anteriormente, en ciertos regímenes de plasma, las variables termodinámicas locales, fundamentalmente presión (densidad) y temperatura, varían fuertemente con el tiempo, de manera que cuando los tiempos característicos de esta variación son menores que los propios de relajación de los procesos atómicos, el sistema no puede tratarse en estado estacionario, siendo necesario resolver las ecuaciones de balance con dependencia temporal. Estas ecuaciones de tasa o de balance contienen una serie de términos que representan los distintos procesos mediante una serie de coeficientes cuyas expresiones dependen de las condiciones del plasma, por lo que el problema es fuertemente no lineal. Por otra parte, hay que añadir que si el medio es ópticamente grueso a la radiación, en las ecuaciones de tasa aparecen términos radiativos que incluyen el campo de radiación, por lo que es necesario resolver la ecuación de transferencia en cada línea o bien, utilizar otras aproximaciones, que sin resolver dicha ecuación, permitan tener en cuenta el campo de radiación en la línea. Por todo ello, el objetivo de esta Tesis se centra en el desarrollo de un modelo original para el cálculo de la distribución de los estados de ionización en un plasma de fusión por confinamiento inercial en condiciones de no-equilibrio termodinámico local, caracterizado por: 1. Resolución de las ecuaciones de balance en estado estacionario y con dependencia temporal, considerando a las distintas especies iónicas tanto en su estado fundamental como en posibles estados excitados. 2. Elección de especies iónicas y número de estados excitados en función de las condiciones de densidad y temperatura del plasma. En el caso de una evolución temporal el número de estados excitados y su distribución se adecúan en cada caso a las condiciones del plasma. 3. Tratamiento de medios ópticamente finos y gruesos, utilizándose para estos últimos una evaluación aproximada del campo de radiación en la línea. 4. Capacidad de acoplamiento a un modelo hidrodinámico a través de la temperatura electrónica, densidad y campo de radiación. Entre todas estas características, se debe hacer constar que las principales aportaciones originales se refieren, en primer lugar, a la forma original de resolver las ecuaciones de tasa con dependencia temporal, ya que se tiene en cuenta la evolución de todos los estados: fundamentales y excitados, frente a la hipótesis habitual de resolver las ecuaciones temporales sólo de los estados fundamentales, y suponer los excitados en estado estacionario, es decir, que siguen el comportamiento de su correspondiente fundamental. En segundo lugar, la elección del número de estados excitados por cada funda- X mental, que se realiza mediante un cálculo inicial donde se considera todos los iones del plasma en estado fundamental, para en función de las densidades de población obtenidas, elegir los estados fundamentales y sus correspondientes excitados que se deben considerar. Y por último, señalar que en el tratamiento de medios ópticamente gruesos se ha conseguido obtener una evaluación de la radiación absorbida por el plasma, independientemente de la geometría del mismo, sin necesidad de resolver la ecuación de transferencia en la línea, y sin acudir a otros métodos, que sin resolver dicha ecuación, necesitan la definición de una geometría para el plasma, por ejemplo, factores de escape. El modelo ha sido comparado y contrastado tanto con resultados teóricos como experimentales, observando unos resultados muy aceptables, de lo cual se deduce que el modelo es capaz de suministrar la evaluación de los parámetros atómicos en este tipo de plasmas. A partir de esta Tesis, el modelo se puede potenciar, a través de varias líneas de investigación que se han identificado: 1. Tratamiento de medios ópticamente gruesos con resolución de la ecuación de transferencia en las líneas. 2. Evaluación detallada de las secciones eficaces de los distintos procesos que tienen lugar en plasmas, y que aparecen en las ecuaciones de balance a través de los coeficientes de tasa.
Resumo:
El uso de las partículas magnéticas ha venido a más durante los últimos 10 años. Lo anterior ha estado condicionado por factores como la amplia investigación en materiales a nivel atómico, los retos propuestos por las diferentes áreas de investigación donde los niveles nanométricos cobran importancia, la inherente innovación tecnológica que pueden aportar a la industria dichas escalas y finalmente, el impacto socioeconómico que pueden tener estos avances tecnológicos. Sin embargo, la traslación a la industria de los avances tecnológicos se ha visto limitada por la falta de estrategias, ya que el 88% del conocimiento se queda en Universidades y Centros de Investigación y el resto, 12%, pasa a la industria o es obtenido en ella. En este trabajo de investigación se ha tratado de completar el círculo de idea, conceptualización, generación de conocimiento, prototipo, prueba in vitro y prueba in vivo; todo ello para dejar el menor espacio posible entre Investigación e Industria. Se ha fabricado un recinto que permite la observación del comportamiento de las partículas magnéticas cuando están inmersas en un medio con viscosidad controlada y con una fuente magnética estática. De la observación experimental se han encontrado fenómenos magnéticos como la aglomeración y la autoorganización, que han sido aprovechados, no solo para ofrecer una solución alternativa a la corrección del desprendimiento de retina, sino también para promover las mejoras de métodos de separación y/o filtrado celular, ayuda en correcciones ortopédicas o en el diagnóstico y tratamiento de enfermedades degenerativas. Particularizando en la corrección del desprendimiento de retina, se ha desarrollado y patentado un Dispositivo Ocular cuya función es la de tapón del agujero retiniano, ayudando en la cicatrización de la retina. Dicho dispositivo ha sido evaluado en conejos albinos neozelandeses obteniéndose un éxito en la reaplicación de la retina del 80% y resultando su toxicidad en condición difusa tras evaluación anatomopatológica. Así mismo, el ferrofluido diseñado y fabricado se ha localizado en la zona de interacción magnética siempre y su disposición ha sido en el mayor de los casos en forma de placa pero también se han formado anillos; lo anterior no ha afectado en ningún sentido el éxito en la reaplicación de la retina. Por otro lado, no se han encontrado indicios de siderosis en la zona de interacción magnética, sus alrededores o el resto del globo ocular; ni las células han presentado apoptosis inducida por los materiales introducidos en el ojo. Sin embargo, se ha encontrado una fuerte necrosis inducida por la presión ejercida sobre la retina por el dispositivo ocular, evidenciando la necesidad de un mejor control de dicha presión. Tras la caracterización de los copos y la presión que éstos ejercen, se ha podido identificar que el dispositivo ocular se puede sintonizar para inducir una presión entre 0.5 y 2.5 mmHg; por tanto se puede vislumbrar que es posible minimizar la muerte celular causada en las células retinianas. Finalmente, tras la experimentación con conejos se ha observado que el dispositivo ocular resuelve los problemas inducidos por las siliconas o los gases e inclusive aporta ventajas competitivas de alto valor añadido como: no requerir de posiciones incómodas en el post-operatorio, no modifica las propiedades ópticas del ojo ya que no es necesario dejar silicona o gases en el interior del ojo, se pueden sellar múltiples agujeros retinianos, corrección de desprendimiento de retina inferior sin complicaciones asociadas, etc.; en definitiva mejora la calidad de vida domiciliaria del paciente además de solventar los problemas inducidos por las soluciones actuales. The using of magnetic particles has become more important during last 10 years. This event has been conditioned by several factors like a wide researching on materials at atomic level, the challenges proposed by different research areas where nanometric levels became important, the inherent technological innovation to the industry and finally, the socioeconomic impact of these kinds of technologies. However, the nanotechnological advances have not been well addressed to the industry since 88% of the acknowledge keeps on Universities and Research Centers, and the remaining 12% goes through the industry or is obtained in it. In this research work, we have tried to complete the entire process about idea, concept, acknowledge generation, prototyping and in vitro and in vivo testing; all to leave as little space as possible between Research and Industry. We have built an experimental hall which allows us the observation of magnetic particles' behavior when are immersing in a controlled viscous medium and under a static magnetic field. The experimental observation has been useful to identify and use two magnetic phenomena: agglomeration and self-organization; no only for retinal detachment, but also to improve cellular separation and/or filtered methods, orthopedic solutions or the diagnostic and treatment of degenerative diseases. Particularizing on retinal detachment, we have developed and patented an Ocular Device which its function is acting like a tampon of the retinal hole for helping with the scarring retina. The device has been evaluated in animals and the results show that we can achieve a success of 80% before rabbit’s death and non cell apoptosis, only necrosis, over the retina attached by the ocular device after anatomopathological evaluation. Also we have identified a diffuse toxicity after anatomopathological evaluation, so more experimenting must be proposed. Otherwise, the ferrofluid has been localized where the magnetic interaction area is located and its deposition has been in most cases plaque shape like but rings have also been observed; this has not affected in any way the successful reattachment of the retina. On the other hand, we have not found any evidence of siderosis in the magnetic interaction zone, near of or some other place of the ocular globe; and we did not find any apoptosis induced by the materials inserted within the eye. However full necrosis, exactly on the magnetic interaction zone, has been found and induced by the pressure exerted over the retina by the ocular device, evidencing the needing of its better control. After flakes’ characterization and its pressure exerted, we identified that the ocular device can be tuned in order to induce a pressure between 0.5 and 2.5 mmHg; therefore we can perceive that death caused to the retinal cells can be minimized. Finally, the experimentation has shown that the ocular device solves all problems induced by silicone or gases an even contributes with some other competitive advantages of high added value like: no uncomfortable postoperative positions, it does not modify any optical property of the eye because there is no needing of leaving silicone or gases inside the eye, many holes can be sealed, the inferior retinal detachment can be solve without any complications, etc.; definitively the ocular device improves patients’ quality of life.
Resumo:
En la actualidad, los bosques secos neotropicales se encuentran restringidos a una pequeña fracción de su área de distribución histórica, debido principalmente a la acelerada pérdida de cobertura vegetal. Es por esta razón que son reconocidos como uno de los ecosistemas más amenazados del mundo. Durante las últimas décadas estos bosques han recibido mayor atención por parte de investigadores, y pese a que el esfuerzo dedicado al estudio y conocimiento de estos bosques no es comparable al de otros bosques de la región, especialmente los ligados a las pluviselvas húmedas, los trabajos llevados a cabo fundamentalmente por botánicos han permitido describir una buena parte de su diversidad florística en amplias regiones del neotrópico, constatar el elevado nivel de endemicidad de su flora y determinar algunos de los factores que determinan su estructura y funcionamiento. Sin embargo, aún existen regiones como la denominada Pacífico Ecuatorial donde la investigación ha sido escaza. El conocimiento de la diversidad biológica así como cuáles son los factores que controlan el funcionamiento y la estructuración de estos bosques resultan prioritarios para poder desarrollar acciones de conservación efectivas. El presente trabajo aporta a la comprensión del funcionamiento de dos sistemas secos tropicales de la región del Pacífico Ecuatorial el matorral seco y el bosque seco del sur del Ecuador. Se estableció una parcela de 9ha en bosque seco con el fin de evaluar asociaciones intraespecíficas e interespecíficas, se registró la diversidad y abundancia de todas las especies leñosas con un dap igual o superior a 5cm, además se obtuvo la ubicación espacial de cada individuo. Adicionalmente se realizaron 109 parcelas a lo largo de 4 de los cantones de la provincia de Loja que conservan en buen estado bosques secos. En el matorral seco se desarrollo un estudio observacional a lo largo de una gradiente estrés climático y dos niveles de manejo no disturbado y pastoreado. En cada nivel se colocaron 2 parcelas dentro de las cuales se registró la abundancia, diversidad y cobertura de todas las especies anuales. Además, se tomaron 9 muestras de suelo en cada parcela para evaluar el banco de semillas del suelo. Los resultados muestran que el bosque seco las relaciones positivas planta-planta juegan un papel fundamental en la estructura florística de las comunidades. Así se pudo observar que a escalas regionales la disponibilidad de agua tiene una relación inversa con la riqueza, encontrándose que áreas con menor disponibilidad de agua generan comunidades vegetales más diversas. Esta respuesta es coherente con la Hipótesis de la Gradiente de Estrés ya que el incremento de las relaciones de facilitación estaría incrementando la cantidad de especies que coexisten a nivel local. Por otro lado a escalas locales las especies de bosque seco tropical muestran un bajo grado de agrupamiento con sus congéneres, lo cual coincide con la propuesta de la “Dependencia Negativa de la Densidad” propuesta por Janzen – Connell. Esta respuesta contribuye al comportamiento acumulador de especies observado en el bosque seco, por lo observado en este trabajo a escalas locales las interacciones positivas planta-planta son predominantes. En el matorral seco montano los resultados muestran que la magnitud de los efectos de las especies ingenieras del ecosistema en la diversidad de especies y la productividad varían a lo largo de gradientes ambientales y a con la escala espacial de la comunidad. Así, en las zonas con mayor presión ambiental y una mayor presión de pastoreo, el efecto de las plantas ingenieras es mayor. Por otro lado, se pudo observar que la estabilidad de la diversidad en la escala de la comunidad parece ser la norma con efectos nulos de los factores de estrés en las propiedades de la comunidad. A nivel de microhábitat la importancia de la facilitación incrementa cuando los factores de estrés climático aumentan, y bajo las copas de Croton la diversidad y la cobertura es mayor que en el suelo desnudo, esta diferencia se incrementa con el estrés abiótico. Esta respuesta fue modulada por el pastoreo, en las zonas más altas con menor estrés climático, la facilitación se mantuvo debido a que la competencia se reduce por efecto del pastoreo, ya que las manchas se transforman refugios libres de herbivoría. Así, el estrés biótico por los consumidores altera significativamente la naturaleza y la fuerza de las interacciones entre especies en las comunidades, e incluso puede cambiar el signo de las interacciones entre especies. El banco de semillas muestra una importante interacción entre los factores de estrés, los efectos en el banco de semillas del suelo se explica mejor cuando los factores de estrés, tanto climáticos y el pastoreo son evaluados. En condiciones inalteradas la riqueza y abundancia del banco de semillas aumenta con la altitud y se reduce el estrés. Este patrón es modulado por el pastoreo, en el extremo inferior del gradiente altitudinal, el pastoreo produce un aumento en la riqueza y la densidad del banco de semillas y en el extremo superior del gradiente altitudinal el pastoreo reduce estos dos atributos.
Resumo:
En nuestros días, en países ubicados en latitudes medias con facahada marítima y estabilidad político-social el litoral es objeto de diversas presiones e influencias por lo que su equilibrio, que es de naturaleza frágil, complicada y variable, se ve amenazado. En estos paises son múltiples los intereses que confluyen en él, lo que hace que sea objeto de numerosas presiones económicas y políticas. Por ello, su gestión adecuada a uno de sus objetivos que se ha planteado la Unión Europea, intentando prevenir la creciente erosión favorecida por la presión humana (edificaciones, infraestructuras, etc) y la amenaza creciente de la posible influencia del calentamiento global con su efecto de cambio climático global, y muy discutible efecto sobre el litoral (cambio de régimen ciertos y variaciones de nivel ficticias). La gestión integrada sostenible del litoral es, por lo tanto, una de las herramientas que se presentan como más eficaz en la actualidad, unida a la gestión de riesgo, y a la evaluación ambiental estratégica (SEA). El adecuado uso de los Sistemas de Información Geográfica constituye una herramienta básica para una gestión integrada del litoral real tecnificada, en vez de una gestión basada en dogmas discutibles no cuestionados. De todo ello se plantea una perspectiva actualizada en el presente trabajo.
Resumo:
Este trabajo esta dedicado al estudio de las estructuras macroscópicas conocidas en la literatura como filamentos o blobs que han sido observadas de manera universal en el borde de todo tipo de dispositivos de fusión por confinamiento magnético. Estos filamentos, celdas convectivas elongadas a lo largo de las líneas de campo que surgen en el plasma fuertemente turbulento que existe en este tipo de dispositivos, parecen dominar el transporte radial de partículas y energía en la región conocida como Scrape-off Layer, en la que las líneas de campo dejan de estar cerradas y el plasma es dirigido hacia la pared sólida que forma la cámara de vacío. Aunque el comportamiento y las leyes de escala de estas estructuras son relativamente bien conocidos, no existe aún una teoría generalmente aceptada acerca del mecanismo físico responsable de su formación, que constituye una de las principales incógnitas de la teoría de transporte del borde en plasmas de fusión y una cuestión de gran importancia práctica en el desarrollo de la siguiente generación de reactores de fusión (incluyendo dispositivos como ITER y DEMO), puesto que la eficiencia del confinamiento y la cantidad de energía depositadas en la pared dependen directamente de las características del transporte en el borde. El trabajo ha sido realizado desde una perspectiva eminentemente experimental, incluyendo la observación y el análisis de este tipo de estructuras en el stellarator tipo heliotrón LHD (un dispositivo de gran tamaño, capaz de generar plasmas de características cercanas a las necesarias en un reactor de fusión) y en el stellarator tipo heliac TJ-II (un dispositivo de medio tamaño, capaz de generar plasmas relativamente más fríos pero con una accesibilidad y disponibilidad de diagnósticos mayor). En particular, en LHD se observó la generación de filamentos durante las descargas realizadas en configuración de alta _ (alta presión cinética frente a magnética) mediante una cámara visible ultrarrápida, se caracterizó su comportamiento y se investigó, mediante el análisis estadístico y la comparación con modelos teóricos, el posible papel de la Criticalidad Autoorganizada en la formación de este tipo de estructuras. En TJ-II se diseñó y construyó una cabeza de sonda capaz de medir simultáneamente las fluctuaciones electrostáticas y electromagnéticas del plasma. Gracias a este nuevo diagnóstico se pudieron realizar experimentos con el fin de determinar la presencia de corriente paralela a través de los filamentos (un parámetro de gran importancia en su modelización) y relacionar los dos tipos de fluctuaciones por primera vez en un stellarator. Así mismo, también por primera vez en este tipo de dispositivo, fue posible realizar mediciones simultáneas de los tensores viscoso y magnético (Reynolds y Maxwell) de transporte de cantidad de movimiento. ABSTRACT This work has been devoted to the study of the macroscopic structures known in the literature as filaments or blobs, which have been observed universally in the edge of all kind of magnetic confinement fusion devices. These filaments, convective cells stretching along the magnetic field lines, arise from the highly turbulent plasma present in this kind of machines and seem to dominate radial transport of particles and energy in the region known as Scrapeoff Layer, in which field lines become open and plasma is directed towards the solid wall of the vacuum vessel. Although the behavior and scale laws of these structures are relatively well known, there is no generally accepted theory about the physical mechanism involved in their formation yet, which remains one of the main unsolved questions in the fusion plasmas edge transport theory and a matter of great practical importance for the development of the next generation of fusion reactors (including ITER and DEMO), since efficiency of confinement and the energy deposition levels on the wall are directly dependent of the characteristics of edge transport. This work has been realized mainly from an experimental perspective, including the observation and analysis of this kind of structures in the heliotron stellarator LHD (a large device capable of generating reactor-relevant plasma conditions) and in the heliac stellarator TJ-II (a medium-sized device, capable of relatively colder plasmas, but with greater ease of access and diagnostics availability). In particular, in LHD, the generation of filaments during high _ discharges (with high kinetic to magnetic pressure ratio) was observed by means of an ultrafast visible camera, and the behavior of this structures was characterized. Finally, the potential role of Self-Organized Criticality in the generation of filaments was investigated. In TJ-II, a probe head capable of measuring simultaneously electrostatic and electromagnetic fluctuations in the plasma was designed and built. Thanks to this new diagnostic, experiments were carried out in order to determine the presence of parallel current through filaments (one of the most important parameters in their modelization) and to related electromagnetic (EM) and electrostatic (ES) fluctuations for the first time in an stellarator. As well, also for the first time in this kind of device, measurements of the viscous and magnetic momentum transfer tensors (Reynolds and Maxwell) were performed.
Resumo:
El avance de la presión antrópica sobre las márgenes de los cauces, y la creciente dificultad técnica, política y social para ejecutar nuevos proyectos de grandes presas, promueve la necesidad de utilizar más eficientemente los sistemas de control de avenidas existentes. En el presente trabajo se presenta una metodología de análisis para evaluar y comparar las estrategias de gestión de embalses, considerando su operación individual, a fin de establecer la más adecuada. En particular se comparan dos modos de gestión ante situación de avenidas: el Método de Evaluación Volumétrica (MEV) desarrollado por Girón (1988), de amplia difusión en España, y un modelo de optimización de la gestión mediante Programación Lineal Entera Mixta (PLEM). Para ello se ha implementado un entorno de cálculo con estructura modular. El primer módulo permite generar un conjunto representativo de hidrogramas de entrada a los embalses mediante simulación de Monte Carlo. Luego, dos módulos que funcionan en paralelo simulan la gestión del embalse según las dos estrategias mencionadas (MEV y PLEM). Finalmente, se evalúa el comportamiento de ambas estrategias ante el conjunto de solicitaciones hidrológicas generado. Se propone el empleo del Índice de Riesgo Global (I1), que pondera el resultado de la estrategia de gestión frente a un conjunto de hidrogramas de solicitación. Dicho indicador tiene en cuenta el daño esperado debido a los caudales máximos vertidos y el riesgo para la presa debido a los niveles máximos alcanzados en el embalse. Para ello se analiza la función de distribución de probabilidad de las dos variables (máximo caudal vertido y máximo nivel alcanzado) para la población de hidrogramas analizada. El modelo PLEM se calibra empleando el índice I1. Este mismo índice es utilizado para comparar ambas estrategias, entendiendo como la más adecuada aquella que tenga asociado el menor I1. Este sistema de análisis se aplicó a tres embalses de la cuenca del río Segura, con diferentes características en lo referente al tipo y capacidad de aliviadero, volumen de embalse y de resguardo. En los tres casos se han obtenido mejores resultados con el modelo PLEM que con el modelo MEV, tanto en lo concerniente a caudales máximos vertidos como a los niveles máximos alcanzados, para todo el rango de avenidas analizado. Sin embargo, la diferencia entre ambas estrategias no es muy significativa y el MEV presenta características que lo hacen más adecuado para su empleo en tiempo real
Resumo:
En el año 2002 durante una inspección se localizó una importante corrosión en la cabeza de la vasija de Davis Besse NPP. Si no se hubiera producido esa detección temprana, la corrosión hubiera provocado una pequeña rotura en la cabeza de la vasija. La OECD/NEA consideró la importancia de simular esta secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Los resultados de este test experimental fueron muy analizados internacionalmente por la gran influencia que dos factores tenía sobre el resultado: las acciones del operador relativas a la despresurización y la detección del descubrimiento del núcleo por los termopares que se encuentran a su salida. El comienzo del inicio de la despresurización del secundario estaba basado en la determinación del descubrimiento del núcleo por la lectura de los temopares de salida del núcleo. En el experimento se registró un retraso importante en la determinación de ese descubrimiento, comenzando la despresurización excesivamente tarde y haciendo necesaria la desactivación de los calentadores que simulan el núcleo del reactor para evitar su daño. Dada las condiciones excesivamente conservadoras del test experimentale, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”
Resumo:
La simulación de accidentes de rotura pequeña en el fondo de la vasija se aparta del convencional análisis de LOCA de rama fría, el más limitante en los análisis deterministas La rotura de una de las penetraciones de instrumentación de la vasija ha sido desestimada históricamente en los análisis de licencia y en los Análisis Probabilistas de Seguridad y por ello, hay una falta evidente de literatura para dicho análisis. En el año 2003 durante una inspección, se detectó una considerable corrosión en el fondo de la vasija de South Texas Project Unit I NPP. La evolución en el tiempo de dicha corrosión habría derivado en una pequeña rotura en el fondo de la vasija si su detección no se hubiera producido a tiempo. La OECD/NEA consideró la importancia de simular dicha secuencia en la instalación experimental ROSA, la cual fue reproducida posteriormente por grupos de investigación internacionales con varios códigos de planta. En este caso el código utilizado para la simulación de las secuencias experimentales es TRACE. Tanto en el experimento como en la simulación se observaron las dificultades de reinundar la vasija al tener la rotura en el fondo de la misma, haciendo clave la gestión del accidente por parte del operador. Dadas las condiciones excesivamente conservadoras del test experimental, como el fallo de los dos trenes de inyección de alta presión durante todo el transitorio, en las aplicaciones de los experimentos con modelo de Almaraz NPP, se ha optado por reproducir dicho accidente con condiciones más realistas, verificando el impacto en los resultados de la disponibilidad de los trenes de inyección de alta presión o los tiempos de las acciones manuales del operador, como factores más limitantes y estableciendo el diámetro de rotura en 1”
Resumo:
Las empresas explotadoras de yacimientos de petróleo y geotérmicos diseñan y construyen sus instalaciones optimizándolas según dos características especialmente representativas: su temperatura y su presión. Por ello, tener información precisa sobre ambos aspectos lo antes posible puede permitir ahorros importantes en las inversiones en infraestructuras y también acortar los plazos de comienzo de explotación; ambos, aspectos esenciales en la rentabilidad del yacimiento. La temperatura estática de una formación es la temperatura existente antes del inicio de las tareas de perforación del yacimiento. Las operaciones de perforación tienen como objetivo perforar, evaluar y terminar un pozo para que produzca de una forma rentable. Durante estas tareas se perturba térmicamente la formación debido a la duración de la perforación, la circulación de fluidos de refrigeración, la diferencia de temperaturas entre la formación y el fluido que perfora, el radio, la difusividad térmica de las formaciones y la tecnología de perforación [7]. La principal herramienta para determinar la temperatura estática de formación son las medidas de temperaturas en los pozos. Estas medidas de temperatura se realizan una vez cesados los trabajos de perforación y circulación de fluidos. El conjunto de medidas de temperatura obtenidas es una serie de valores ascendentes, pero no llega a alcanzar el valor de la temperatura estática de la formación. Para estimar esta temperatura se plantean las ecuaciones diferenciales que describen los fenómenos de transmisión de calor en el yacimiento [14]. Estos métodos se emplean tanto en yacimientos geotérmicos como en yacimientos de petróleo indistintamente [16]. Cada uno de ellos modela el problema de transmisión de calor asociado de una forma distinta, con hipótesis simplificadoras distintas. Se ha comprobado que la aplicación de los distintos métodos a un yacimiento en concreto presenta discrepancias en cuanto a los resultados obtenidos [2,16]. En muchos de los yacimientos no se dispone de información sobre los datos necesarios para aplicar el método de estimación. Esto obliga a adoptar una serie de hipótesis que comprometen la precisión final del método utilizado. Además, puede ocurrir que el método elegido no sea el que mejor reproduce el comportamiento del yacimiento. En el presente trabajo se han analizado los distintos métodos de cálculo. De la gran variedad de métodos existentes [9] se han seleccionado los cuatro más representativos [2,7]: Horner (HM), flujo radial y esférico (SRM), de las dos medidas (TLM) y de fuente de calor cilíndrica (CSM). Estos métodos se han aplicado a una serie de yacimientos de los cuales se conoce la temperatura estática de la formación. De cada yacimiento se disponía de datos tanto de medidas como de las propiedades termo-físicas. Estos datos, en ocasiones, eran insuficientes para la aplicación de todos los métodos, lo cual obligo a adoptar hipótesis sobre los mismos. Esto ha permitido evaluar la precisión de cada método en cada caso. A partir de los resultados obtenidos se han formulado una colección de criterios que permiten seleccionar qué método se adapta mejor para el caso de un yacimiento concreto, de tal manera que el resultado final sea lo más preciso posible. Estos criterios se han fijado en función de las propiedades termo-físicas del yacimiento, que determinan el tipo de yacimiento, y del grado de conocimiento que se dispone del yacimiento objeto de estudio.
Resumo:
En los ensayos de aislamiento acústico según normas UNE EN ISO 140-4 y 140-5 el valor de L2 es un promedio espacio-temporal de los niveles de presión sonora medidos en diferentes posiciones de la sala receptora. La desviación estándar de estos valores se puede considerar como una medida de la uniformidad del campo sonoro en el recinto. Se analiza este parámetro en función de la frecuencia y se propone un cálculo teórico del mismo como una incertidumbre combinada de la desviación estándar derivada de modelos teóricos centrados en la geometría del recinto y la desviación estándar asociada a la vibración de la pared separadora
Resumo:
En este trabajo se presenta un novedoso sensor capaz de detectar la congelación del agua en las conducciones, con capacidad de generar alarmas y enviar estas a centralitas de sistemas domóticos. Esto podría permitir solventar un problema común en las tuberías de agua: las congelaciones del fluido en invierno. Como consecuencia de esta evitación, se mejoraría tanto la calidad del suministro, evitando los cortes de suministro, como los costes de mantenimiento, al evitar el deterioro o la rotura de los conductos. Al congelarse el agua, aumenta su volumen a un 120%, incrementando a su vez la presión interna en los conductos, lo que en muchos casos desemboca en destrucción parcial o total de la instalación. El sensor desarrollado, así como el sistema de protección futuro, están enfocados principalmente para edificación. Pero, al tratar un problema tan generalizado y ofrecer importante información de un modo simple y eficaz, también tiene aplicación en procesos industriales, así como en los productos y maquinaría industrial.
Resumo:
En el presente trabajo se ha desarrollado un sistema novedoso capaz de detectar un problema bastante común dentro de las instalaciones de la edificación, concretamente en la de fontanería, como es la congelación. Una situación constante y que genera notorios problemas hasta el momento en los edificios es la congelación del agua en las tuberías. Al producirse la congelación, el agua incrementa un 10% su volumen, lo que aumenta notablemente la presión en el interior de la red. La solución actual es disponer en la red de vasos de expansión, que son un sistema de protección pasivo que dotan de mayor volumen a la red, que se rellena al producirse la congelación del fluido, evitando la sobrepresión en la red y los riesgos que conlleva. Este sistema tiene el problema de que al ser pasivo, se permite la congelación total del fluido, lo que repercute directamente en la calidad del suministro de agua en los puntos de consumo. Para evitar estos problemas, se ha desarrollado el elemento sensor de un sistema de protección activo, que detecta las congelaciones en el fluido. Este sistema con los sistemas auxiliares necesarios, puede evitar las congelaciones, mejorando la calidad de la instalación y del suministro de agua. El sensor, cuya función es la de enviar una señal al producirse principios de congelación, formará parte de un sistema más avanzado y complejo de protección, que se desarrollará posteriormente. El sensor desarrollado, así como el sistema de protección futuro, están enfocados principalmente en este trabajo para edificación. Pero, al tratar un problema tan generalizado y ofrecer importante información de un modo simple y eficaz, también tiene aplicación en procesos industriales, así como en los productos y maquinaría industrial. El dispositivo desarrollado, al no ser intrusivo, se ha previsto para poderse instalar en obras de nueva planta, así como también en rehabilitación o reformas.