647 resultados para SECUENCIAS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El análisis de los factores que determinan el establecimiento y supervivencia de orquídeas epífitas, incluyen: a) las condiciones microambientales de los bosques que las mantienen, b) preferencias por las características de los hospederos donde crecen, c) limitación en la dispersión de semillas, d) interacciones planta-planta, y e) asociaciones micorrízicas para la germinación y resultan esenciales para el desarrollo de estrategias para la conservación y manejo de este grupo de plantas. Este trabajo ha evaluado la importancia de estos factores en Epidendrum rhopalostele, orquídea epífita del bosque de niebla montano, a través de los análisis de los patrones espaciales de los árboles que la portan y de la propia orquídea, a escala de población, estudios de asociación y métodos moleculares. Estos últimos han consistido en el uso de marcadores AFLP para el análisis de la estructura genética de la orquídea y en la secuenciación-clonación de la región ITS para la identificación de los hongos micorrízicos asociados. El objetivo de esta tesis es, por tanto, una mejor comprensión de los factores que condicionan la presencia de orquídeas epífitas en los remanentes de bosque de niebla montano y una evaluación de las implicaciones para la conservación y mantenimiento de sus hábitats y la permanencia de sus poblaciones. El estudio fue realizado en un fragmento de bosque de niebla montano de sucesión secundaria situado al este de la Cordillera Real, en los Andes del sur de Ecuador, a 2250 m.s.n.m y caracterizado por una pendiente marcada, temperatura media anual de 20.8°C y precipitación anual de 2193 mm. En este fragmento se mapearon, identificaron y caracterizaron todos los árboles presentes con DBH > 1 cm y todos los individuos de Epidendrum rhopalostele. Así mismo se tomaron muestras de hoja para obtener ADN de todas las orquídeas registradas y muestras de raíces de individuos con flor de E. rhopalostele, uno por cada forófito, para el análisis filogenético de micorrizas. Análisis espaciales de patrones de puntos basados en la K de Ripley y la distancia al vecino más cercano fueron usados para los árboles, forófitos y la población de E. rhopalostele. Se observó que la distribución espacial de árboles y forófitos de E. rhopalostele no es aleatoria, ya que se ajusta a un proceso agregado de Poisson. De ahí se infiere una limitación en la dispersión de las semillas en el fragmento estudiado y en el establecimiento de la orquídea. El patrón de distribución de la población de E. rhopalostele en el fragmento muestra un agrupamiento a pequeña escala sugiriendo una preferencia por micro-sitios para el establecimiento de la orquídea con un kernel de dispersión de las semillas estimado de 0.4 m. Las características preferentes del micro-sitio como tipos de árboles (Clusia alata y árboles muertos), tolerancia a la sombra, corteza rugosa, distribución en los dos primeros metros sugieren una tendencia a distribuirse en el sotobosque. La existencia de una segregación espacial entre adultos y juveniles sugiere una competencia por recursos limitados condicionada por la preferencia de micro-sitio. La estructura genética de la población de E. rhopalostele analizada a través de Structure y PCoA evidencia la presencia de dos grupos genéticos coexistiendo en el fragmento y en los mismos forófitos, posiblemente por eventos de hibridización entre especies de Epidendrum simpátricas. Los resultados del análisis de autocorrelación espacial efectuados en GenAlex confirman una estructura genético-espacial a pequeña escala que es compatible con un mecanismo de dispersión de semillas a corta distancia ocasionada por gravedad o pequeñas escorrentías, frente a la dispersión a larga distancia promovida por el viento generalmente atribuida a las orquídeas. Para la identificación de los micobiontes se amplificó la región ITS1-5.8S-ITS2, y 47 secuencias fueron usadas para el análisis filogenético basado en neighborjoining, análisis bayesiano y máximum-likelihood que determinó que Epidendrum rhopalostele establece asociaciones micorrízicas con al menos dos especies diferentes de Tulasnella. Se registraron plantas que estaban asociadas con los dos clados de hongos encontrados, sugiriendo ausencia de limitación en la distribución del hongo. Con relación a las implicaciones para la conservación in situ resultado de este trabajo se recomienda la preservación de todo el fragmento de bosque así como de las interacciones existentes (polinizadores, micorrizas) a fin de conservar la diversidad genética de esta orquídea epífita. Si fuere necesaria una reintroducción se deben contemplar distancias entre los individuos en cada forófito dentro de un rango de 0.4 m. Para promover el reclutamiento y regeneración de E. rhopalostele, se recomienda que los forófitos correspondan preferentemente a árboles muertos o caídos y a especies, como Clusia alata, que posean además corteza rugosa, sean tolerantes a la sombra, y en el área del sotobosque con menor luminosidad. Además es conveniente que las orquídeas en su distribución vertical estén ubicadas en los primeros metros. En conclusión, la limitación en la dispersión, las características del micro-sitio, las interacciones intraespecíficas y con especies congenéricas simpátricas y las preferencias micorrízicas condicionan la presencia de esta orquídea epífita en este tipo de bosque. ABSTRACT The analysis of factors that determine the establishment and survival of epiphytic depends on factors such as a) microenvironmental conditions of forest, b) preference for host characteristics where orchids grow, c) seed dispersal limitation, d) plant-plant interaction, e) priority mycorrhizal associations for germination, are essential for the development of strategies for management and conservation. This work evaluated the importance of these factors in Epidendrum rhopalostele, an epiphytic orchid of montane cloud forest through the analysis of spatial patterns of host trees and the orchid, in a more specific scale, with association studies and molecular methods, including AFLPs for orchid population genetic structure and the sequencing of the ITS region for associated mycorrhizal fungi. The aim of this thesis is to understand the factors that condition the presence of epiphytic orchids in the remnants of montane cloud forest and to assess the implications for the conservation and preservation of their habitats and the persistence of the orchid populations. The study was carried out in a fragment of montane cloud forest of secondary succession on the eastern slope of Cordillera Real in the Andes of southern Ecuador, located at 2250 m a.s.l. characterized by a steep slope, mean annual temperature of 20.8°C and annual precipitation of 2193 mm. All trees with DBH > 1 cm were mapped, characterized and identified. All E. rhopalostele individuals present were counted, marked, characterized and mapped. Leaf samples of all orchid individuals were collected for DNA analysis. Root samples of flowering E. rhopalostele individuals were collected for phylogenetic analysis of mycorrhizae, one per phorophyte. Spatial point pattern analysis based on Ripley`s K function and nearest neighbor function was used for trees, phorophytes and orchid population. We observed that spatial distribution of trees and phorophytes is not random, as it adjusts to a Poisson cluster process. This suggests a limitation for seed dispersal in the study fragment that is affecting orchid establishment. Furthermore, the small-scale spatial pattern of E. rhopalostele evidences a clustering that suggests a microsite preference for orchid establishment with a dispersal kernel of 0.4 m. Microsite features such as types of trees (dead trees or Clusia alata), shade tolerance trees, rough bark, distribution in the first meters suggest a tendency to prefer the understory for their establishment. Regarding plant-plant interaction a spatial segregation between adults and juveniles was present suggesting competition for limited resources conditioned for a microsite preference. Analysis of genetic structure of E. rhopalostele population through Structure and PCoA shows two genetic groups coexisting in this fragment and in the same phorophyte, possibly as a result of hybridization between sympatric species of Epidendrum. Our results of spatial autocorrelation analysis develop in GenAlex confirm a small-scale spatial-genetic structure within the genetic groups that is compatible with a short-distance dispersal mechanism caused by gravity or water run-off, instead of the long-distance seed dispersal promoted by wind generally attributed to orchids. For mycobionts identification ITS1-5.8S-ITS2 rDNA region was amplified. Phylogenetic analysis was performed with neighborjoining, Bayesian likelihood and maximum-likelihood for 47 sequences yielded two Tulasnella clades. This orchid establishes mycorrhizal associations with at least two different Tulasnella species. In some cases both fungi clades were present in same root, suggesting no limitation in fungal distribution. Concerning the implications for in situ conservation resulting from this work, the preservation of all forest fragment and their interactions (pollinators, mycorrhiza) is recommended to conserve the genetic diversity of this species. If a reintroduction were necessary, distances between individuals in each phorophyte within a range of 0.4 m, are recommended. To promote recruitment and regeneration of E. rhopalostele it is recommended that phorophytes correspond to dead or fallen trees or species, such as Clusia alata. Trees that have rough bark and are shade tolerant are also recommended. Furthermore, regarding vertical distribution, it is also convenient that orchids are located in the first meter (in understory, area with less light). In conclusion, limitation on seed dispersal, microsite characteristics, plant-plant interactions or interaction with cogeneric sympatric species and mycorrhizal preferences conditioned the presence of this epiphytic orchid in this fragment forest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recientemente se ha demostrado la existencia de microorganismos en las piscinas de almacenamiento de combustible nuclear gastado en las centrales nucleares utilizando técnicas convencionales de cultivo en el laboratorio. Estudios posteriores han puesto de manifiesto que los microorganismos presentes eran capaces de colonizar las paredes de acero inoxidable de las piscinas formando biopelículas. Adicionalmente se ha observado la capacidad de estas biopelículas de retener radionúclidos, lo que hace pensar en la posibilidad de utilizarlas en la descontaminación de las aguas radiactivas de las piscinas. En la presente tesis se plantea conocer más profundamente la biodiversidad microbiana de las biopelículas utilizando técnicas de biología molecular como la clonación, además de desarrollar un sistema de descontaminación a escala piloto con el objetivo de valorar si el proceso podría resultar escalable a nivel industrial. Para ello se diseñaron y fabricaron dos biorreactores en acero inoxidable compatibles con las condiciones específicas de seguridad sísmica y protección frente a la radiación en la zona controlada de una central nuclear. Los biorreactores se instalaron en la Central Nuclear de Cofrentes (Valencia) en las proximidades de las piscinas de almacenamiento de combustible nuclear gastado y precediendo a las resinas de intercambio iónico, de forma que reciben el agua de las piscinas permitiendo el análisis in situ de la radiación eliminada del agua de las mismas. Se conectó una lámpara de luz ultravioleta a uno de los biorreactores para poder comparar el desarrollo de bipelículas y la retención de radiactividad en ambas condiciones. En estos biorreactores se introdujeron ovillos de acero inoxidable y de titanio que se extrajeron a diversos tiempos, hasta 635 días para los ovillos de acero inoxidable y hasta 309 días para los ovillos de titanio. Se analizaron las biopelículas desarrolladas sobre los ovillos por microscopía electrónica de barrido y por microscopía de epifluorescencia. Se extrajo el ADN de las biopelículas y, tras su clonación, se identificaron los microorganismos por técnicas independientes de cultivo. Asimismo se determinó por espectrometría gamma la capacidad de las biopelículas para retener radionúclidos. Los microorganismos radiorresistentes identificados pertenecen a los grupos filogenéticos Alpha-proteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus y Bacteroidetes. Las secuencias de estos microorganismos se han depositado en el GenBank con los números de acceso KR817260-KR817405. Se ha observado una distribución porcentual ligeramente diferente en relación con el tipo de biorreactor. Las biopelículas han retenido fundamentalmente radionúclidos de activación. La suma de Co-60 y Mn-54 ha llegado en ocasiones al 97%. Otros radionúclidos retenidos han sido Cr-51, Co-58, Fe-59, Zn-65 y Zr-95. Se sugiere un mecanismo del proceso de retención de radionúclidos relacionado con el tiempo de formación y desaparición de las biopelículas. Se ha valorado que el proceso escalable puede ser económicamente rentable. ABSTRACT The existence of microorganisms in spent nuclear fuel pools has been demonstrated recently in nuclear power plants by using conventional microbial techniques. Subsequent studies have revealed that those microorganisms were able to colonize the stainless steel pool walls forming biofilms. Additionally, it has been observed the ability of these biofilms to retain radionuclides, which suggests the possibility of using them for radioactive water decontamination purposes. This thesis presents deeper knowledge of microbial biofilms biodiversity by using molecular biology techniques such as cloning, and develops a decontamination system on a pilot scale, in order to assess whether the process could be scalable to an industrial level. Aiming to demonstrate this was feasible, two stainless steel bioreactors were designed and manufactured, both were compatible with seismic and radiation protection standards in the controlled zone of a nuclear plant. These bioreactors were installed in the Cofrentes Nuclear Power Plant (Valencia) next to the spent nuclear fuel pools and preceding (upstream) ion exchange resins. This configuration allowed the bioreactors to receive water directly from the pools allowing in situ analysis of radiation removal. One ultraviolet lamp was connected to one of the bioreactors to compare biofilms development and radioactivity retention in both conditions. Stainless steel and titanium balls were introduced into these bioreactors and were removed after different time periods, up to 635 days for stainless steel balls and up to 309 days for titanium. Biofilms developed on the balls were analyzed by scanning electron microscopy and epifluorescence microscopy. DNA was extracted from the biofilms, was cloned and then the microorganisms were identified by independent culture techniques. Biofilms ability to retain radionuclides was also determined by gamma spectrometry. The identified radioresistant organisms belong to the phylogenetic groups Alphaproteobacteria, Gamma-proteobacteria, Actinobacteria, Deinococcus-Thermus and Bacteroidetes. The sequences of these microorganisms have been deposited in GenBank (access numbers KR817260-KR817405). A different distribution of microorganisms was observed in relation to the type of bioreactor. Biofilms have essentially retained activation radionuclides. Sometimes the sum of Co-60 and Mn-54 reached 97%. Cr-51, Co-58, Fe-59, Zn-65 and Zr-95 have also been retained. A radionuclide retention process mechanism related to biofilms formation and disappearance time is suggested. It has been assessed that the scalable process can be economically profitable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de nuevas estructuras aeroespaciales optimizadas, utilizan materiales compuestos, para los componentes críticos y subsistemas, principalmente polímeros reforzados con fibra de carbono (CFRP). Un conocimiento profundo del estado de daño por fatiga de estructuras de CFRP avanzado, es esencial para predecir la vida residual y optimizar los intervalos de inspección estructural, reparaciones y/o sustitución de componentes. Las técnicas actuales se basan principalmente en la medición de cargas estructurales a lo largo de la vida útil de la estructura mediante galgas extensométricas eléctricas. Con esos datos, se estima la vida a fatiga utilizando modelos de acumulación de daño. En la presente tesis, se evalúa la metodología convencional para la estimación de la vida a fatiga de un CFRP aeronáutico. Esta metodología está basada en la regla de acumulación de daño lineal de Palmgren-Miner, y es aplicada para determinar la vida a fatiga de estructuras sometidas a cargas de amplitud variable. Se ha realizado una campaña de ensayos con cargas de amplitud constante para caracterizar un CFRP aeronáutico a fatiga, obteniendo las curvas clásicas S-N, en diferentes relaciones de esfuerzo. Se determinaron los diagramas de vida constante, (CLD), también conocidos como diagramas de Goodman, utilizando redes neuronales artificiales debido a la ausencia de modelos coherentes para materiales compuestos. Se ha caracterizado la degradación de la rigidez debido al daño por fatiga. Se ha ensayado un segundo grupo de probetas con secuencias estandarizadas de cargas de amplitud variable, para obtener la vida a fatiga y la degradación de rigidez en condiciones realistas. Las cargas aplicadas son representativas de misiones de aviones de combate (Falstaff), y de aviones de transporte (Twist). La vida a fatiga de las probetas cicladas con cargas de amplitud variable, se comparó con el índice de daño teórico calculado en base a la regla de acumulación de daño lineal convencional. Los resultados obtenidos muestran predicciones no conservativas. Esta tesis también presenta el estudio y desarrollo, de una nueva técnica de no contacto para evaluar el estado de daño por fatiga de estructuras de CFRP por medio de cambios de los parámetros de rugosidad. La rugosidad superficial se puede medir fácilmente en campo con métodos sin contacto, mediante técnicas ópticas tales como speckle y perfilómetros ópticos. En el presente estudio, se han medido parámetros de rugosidad superficial, y el factor de irregularidad de la superficie, a lo largo de la vida de las probetas cicladas con cargas de amplitud constante y variable, Se ha obtenido una buena tendencia de ajuste al correlacionar la magnitud de la rugosidad y el factor de irregularidad de la superficie con la degradación de la rigidez de las probetas fatigadas. Estos resultados sugieren que los cambios en la rugosidad superficial medida en zonas estratégicas de componentes y estructuras hechas de CFRP, podrían ser indicativas del nivel de daño interno debido a cargas de fatiga. Los resultados también sugieren que el método es independiente del tipo de carga de fatiga que ha causado el daño. Esto último hace que esta técnica de medición sea aplicable como inspección para una amplia gama de estructuras de materiales compuestos, desde tanques presurizados con cargas de amplitud constante, estructuras aeronáuticas como alas y colas de aeronaves cicladas con cargas de amplitud variable, hasta aplicaciones industriales como automoción, entre otros. ABSTRACT New optimized aerospace structures use composite materials, mainly carbon fiber reinforced polymer composite (CFRP), for critical components and subsystems. A strong knowledge of the fatigue state of highly advanced (CFRP) structures is essential to predict the residual life and optimize intervals of structural inspection, repairs, and/or replacements. Current techniques are based mostly on measurement of structural loads throughout the service life by electric strain gauge sensors. These sensors are affected by extreme environmental conditions and by fatigue loads in such a way that the sensors and their systems require exhaustive maintenance throughout system life. In the present thesis, the conventional methodology based on linear damage accumulation rules, applied to determine the fatigue life of structures subjected to variable amplitude loads was evaluated for an aeronautical CFRP. A test program with constant amplitude loads has been performed to obtain the classical S-N curves at different stress ratios. Constant life diagrams, CLDs, where determined by means of Artificial Neural Networks due to the absence of consistent models for composites. The stiffness degradation due to fatigue damage has been characterized for coupons under cyclic tensile loads. A second group of coupons have been tested until failure with a standardized sequence of variable amplitude loads, representative of missions for combat aircraft (Falstaff), and representative of commercial flights (Twist), to obtain the fatigue life and the stiffness degradation under realistic conditions. The fatigue life of the coupons cycled with variable amplitude loads were compared to the theoretical damage index calculated based on the conventional linear damage accumulation rule. The obtained results show non-conservative predictions. This thesis also presents the evaluation of a new non-contact technique to evaluate the fatigue damage state of CFRP structures by means of measuring roughness parameters to evaluate changes in the surface topography. Surface roughness can be measured easily on field with non-contact methods by optical techniques such as speckle and optical perfilometers. In the present study, surface roughness parameters, and the surface irregularity factor, have been measured along the life of the coupons cycled with constant and variable amplitude loads of different magnitude. A good agreement has been obtained when correlating the magnitude of the roughness and the surface irregularity factor with the stiffness degradation. These results suggest that the changes on the surface roughness measured in strategic zones of components and structures made of CFRP, could be indicative of the level of internal damage due to fatigue loads. The results also suggest that the method is independent of the type of fatigue load that have caused the damage. It makes this measurement technique applicable for a wide range of inspections of composite materials structures, from pressurized tanks with constant amplitude loads, to variable amplitude loaded aeronautical structures like wings and empennages, up to automotive and other industrial applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La degradación del suelo ha adquirido una magnitud preocupante. Los métodos tradicionales de descontaminación, son costosos e insuficientes. La fitorremediación representa una alternativa eficaz, de bajo coste, respetuosa con el medio ambiente, que además mejora las propiedades del suelo, si bien ha habido desarrollos relevantes en la última década. Desde el punto de vida científico, el reto principal es descifrar las rutas metabólicas implicadas en respuesta a contaminantes y comprender su regulación. Esta información es imprescindible si aspiramos a mejorar las capacidades naturales de algunas especies vegetales para remediar los suelos contaminados. Los estudios de esta Tesis se han centrado en Populus, el mejor modelo forestal disponible a raíz de la secuenciación de su genoma completo. Por otra parte, Populus tiene una gran capacidad natural para la degradación de contaminantes orgánicos, lo que explica su predominio en los programas forestales de fitorremediación que se desarrollan actualmente. Hemos elegido en concreto al híbrido Populus tremula x P. alba, por la facilidad con que se cultiva y su particular interés biotecnológico. La presente Tesis plantea un estudio comprehensivo de la respuesta molecular a bifenilos policlorados (PCBs), una familia de contaminantes orgánicos persistentes de particular relevancia a escala mundial. Se ha utilizado para ello una aproximación transcriptómica, basada en tecnología RNA-seq, para identificar los genes implicados en el metabolismo de los compuestos in planta y cuantificar sus niveles de activación en distintas situaciones controladas. La tesis pretende asimismo definir el control transcripcional subyacente a la respuesta bioquímica frente a este tipo de contaminantes. Resulta sorprendente que dicha respuesta sea prácticamente desconocida a nivel molecular, a pesar de su gran potencial aplicado en el contexto de la tecnología fitorremediadora. Para desarrollar este proyecto aplicamos a nuestros cultivos de chopo híbridos concentraciones diferentes de Aroclor 1221, una mezcla de PCBs muy utilizada a nivel comercial durante décadas, su uso está prohibido hoy internacionalmente. Y tomamos muestras de RNA a dos concentraciones y dos momentos distintos de exposición al contaminante, generando así una matriz de cuatro elementos con sus controles correspondientes. Con el fin de incrementar la especificidad de nuestro análisis, consideramos sobre todo los genes diferencialmente expresados más significativos según cuatro algoritmos estadísticos distintos. Por otra parte, realizamos análisis funcionales con herramientas bioinformáticas basadas en comparaciones de secuencias y en redes de co-expresión génica. La respuesta de los genes de particular interés fue validada mediante tecnología qRT-PCR (reacción de la polimerasa en cadena cuantitativa en tiempo real). Se trata del primer estudio comprehensivo de la respuesta de un organismo vegetal ante la presencia de PCBs. Este estudio nos ha permitido identificar una cantidad considerable de genes estructurales y reguladores, definiendo nuevos factores de transcripción cuya expresión es proporcional a la concentración de contaminante en el medio o al tiempo de exposición al mismo. Los análisis de correlación nos permiten afirmar en que la respuesta metabólica a PCBs, incluyendo posibles rutas degradadoras, participan en al menos quince factores de transcripción y unas cuarenta proteínas o enzimas que resultan particularmente inducidas. Entre las familias implicadas destacan los citocromos P450, la glutatión transferasas, las deshidrogenasas reductasas (short-chain dehydrogenase reductase) y las proteínas MDR (multi-drug resistance). Mientras que los factores de transcripción encontrados pertenecen a la familia de ZF-TF, MYBs, WRKYs entre otros. También identificamos proteínas de función desconocida que no se habían vinculado previamente a este tipo de respuestas en plantas, como la CSP (cold-shock domain proteins). Para estudiar su posible relación con la presencia de PCBs, se caracterizó un gen de esta familia detectado mediante espectrometría de masas en tándem (MS/MS) a partir de mapas IEF x SDS-PAGE (isoelectro focusing x sodium dodecyl sulphate- polyacrylamide gel electrophoresis) de alta resolución. Mediante qRT-PCR pudimos confirmar la inducción del gen correspondiente, ortólogo a PtCSP4 de P. trichocarpa (Potri.004g172600), en respuesta a Aroclor 1221. El análisis fenotípico de las líneas transgénicas de Arabidopsis thaliana que sobre-expresaba la proteína CSP de chopo híbrido confirmó un papel para la misma tolerancia a PCBs, posiblemente a través de mecanismos reguladores que activan proteínas MDR. Este trabajo, además de aportar datos novedosos sobre los mecanismos moleculares desencadenados por la presencia de un PCB en Populus, utilizado aquí como sistema modelo. Con ello se demuestra el potencial de las especies arbóreas no solo como agentes descontaminantes, ya explotado comercialmente, sino también como fuente potencial de genes interesantes. Entre los genes identificados en esta Tesis hay candidatos evidentes a participar en mecanismos de tolerancia al estrés inducido por la contaminación y también rutas metabólicas degradadores de PCBs. Precisamente la posibilidad de degradar al contaminante confiere particular interés a este tipo de estudios frente a la fitorremediación de metales pesados y otros contaminantes elementales. La comparación de los datos generados en este estudio con estudios análogos que se realicen en el futuro con otras especies y xenobióticos, contribuirán a definir mejor la respuesta de las plantas ante la contaminación orgánica y mejorar su potencial descontaminante. ABSTRACT Soil degradation has acquired a disturbing magnitude. Traditional methods of decontamination are expensive and insufficient. Phytoremediation represent an effective alternative, low cost, respectful of the environment, that also improves soil properties, although there have been relevant developments in the last decade. From a life scientist, the challenge is to decipher the major metabolic pathways involved in response to pollutants and understand their regulation. This information is essential if we desire to enhance the natural abilities of some plant species to remediate contaminated soils. This thesis studies have focused on Populus, the best available forestry model following the sequencing of the entire genome. Moreover, Populus has a natural ability to degrade organic pollutants, which explains its predominance in phytoremediation forestry programs currently being developed. We have chosen specifically to hybrid Populus tremula x P. alba, the ease with which it is grown and its particular biotechnological interest. This thesis presents a comprehensive study of the molecular response to polychlorinated biphenyls (PCBs), a family of persistent organic pollutants of particular relevance worldwide. It has been used for a transcriptomic approach using RNA-seq technology, to identify genes involved in the metabolism of compounds in plant and quantify their levels of activation in different controlled situations. The thesis also aims to define the underlying transcriptional control the biochemical response to these pollutants. It is surprising that the response is virtually unknown at the molecular level, despite its great potential applied in the context of phytoremediation technology. To develop this project we applied our hybrid poplar crops different concentrations of Aroclor 1221, a mixture of PCBs widely used commercially for decades, its use is now banned internationally. And we RNA samples at two different concentrations and times of exposure to the pollutant, generating an array of four elements with their corresponding controls. In order to increase the specificity of our analysis, we consider mainly the most significant differentially expressed genes in four different statistical algorithms. Moreover, functional analyzes conducted with bioinformatics tools based on sequence comparisons and networks gene co-expression. The response of genes of particular interest was validated by qRT-PCR (polymerase reaction chain in real-time quantitative. This is the first comprehensive study of the response of a plant organism in the presence of PCBs. This study allowed us to identify a considerable amount of structural and regulatory genes, defining new transcription factors whose expression is proportional to the concentration of contaminant in the middle or at the time of exposure. Correlation analyzes allow us to affirm that the metabolic response to PCBs, including possible degradative pathways, at least fifteen involved in transcription factors and forty proteins or enzymes which are particularly induced. Among the families involved include cytochromes P450, the glutathione transferases, dehydrogenases reductases (short -chain dehydrogenase reductase) and MDR proteins (multi - drug resistance). While transcription factors belong to the family found ZF-TF, MYBs, WRKYs among others. We also identify proteins of unknown function that had not been previously linked to such responses in plants such as CSP (cold- shock domain proteins). To study their possible relationship with the presence of PCBs, a gene in this family was characterized and was detected by tandem mass spectrometry (MS/MS) from maps IEF x SDS -PAGE (sodium dodecyl isoelectro x sulphate- polyacrylamide gel electrophoresis) of high resolution. By qRT -PCR could confirm the induction of the corresponding gene, ortholog to PtCSP4 of P. trichocarpa (Potri.004g172600), in response to Aroclor 1221. Phenotypic analysis of transgenic Arabidopsis thaliana lines over- expressing the protein CSP poplar hybrid confirmed a role for PCBs same tolerance, possibly through regulatory mechanisms activated MDR proteins. This work, in addition to providing new data on the molecular mechanisms triggered by the presence of PCBs in Populus, used here as a model system. Thus the potential of tree species not only as decontamination agents, and commercially exploited, but also as a potential source of interesting genes is shown. Among the genes identified in this thesis there are evident candidates to participate in tolerance mechanisms to stress induced by pollution and degrading metabolic pathways of PCBs. Precisely the possibility of degrading the pollutant attaches particular interest to this type of study off the phytoremediation of heavy metals and other elemental pollutants. The comparison of the data generated in this study with similar studies carried out in the future with other species and xenobiotics contribute to better define the response of plants to organic pollution and improve their decontamination potential.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La metodología Integrated Safety Analysis (ISA), desarrollada en el área de Modelación y Simulación (MOSI) del Consejo de Seguridad Nuclear (CSN), es un método de Análisis Integrado de Seguridad que está siendo evaluado y analizado mediante diversas aplicaciones impulsadas por el CSN; el análisis integrado de seguridad, combina las técnicas evolucionadas de los análisis de seguridad al uso: deterministas y probabilistas. Se considera adecuado para sustentar la Regulación Informada por el Riesgo (RIR), actual enfoque dado a la seguridad nuclear y que está siendo desarrollado y aplicado en todo el mundo. En este contexto se enmarcan, los proyectos Safety Margin Action Plan (SMAP) y Safety Margin Assessment Application (SM2A), impulsados por el Comité para la Seguridad de las Instalaciones Nucleares (CSNI) de la Agencia de la Energía Nuclear (NEA) de la Organización para la Cooperación y el Desarrollo Económicos (OCDE) en el desarrollo del enfoque adecuado para el uso de las metodologías integradas en la evaluación del cambio en los márgenes de seguridad debidos a cambios en las condiciones de las centrales nucleares. El comité constituye un foro para el intercambio de información técnica y de colaboración entre las organizaciones miembro, que aportan sus propias ideas en investigación, desarrollo e ingeniería. La propuesta del CSN es la aplicación de la metodología ISA, especialmente adecuada para el análisis según el enfoque desarrollado en el proyecto SMAP que pretende obtener los valores best-estimate con incertidumbre de las variables de seguridad que son comparadas con los límites de seguridad, para obtener la frecuencia con la que éstos límites son superados. La ventaja que ofrece la ISA es que permite el análisis selectivo y discreto de los rangos de los parámetros inciertos que tienen mayor influencia en la superación de los límites de seguridad, o frecuencia de excedencia del límite, permitiendo así evaluar los cambios producidos por variaciones en el diseño u operación de la central que serían imperceptibles o complicados de cuantificar con otro tipo de metodologías. La ISA se engloba dentro de las metodologías de APS dinámico discreto que utilizan la generación de árboles de sucesos dinámicos (DET) y se basa en la Theory of Stimulated Dynamics (TSD), teoría de fiabilidad dinámica simplificada que permite la cuantificación del riesgo de cada una de las secuencias. Con la ISA se modelan y simulan todas las interacciones relevantes en una central: diseño, condiciones de operación, mantenimiento, actuaciones de los operadores, eventos estocásticos, etc. Por ello requiere la integración de códigos de: simulación termohidráulica y procedimientos de operación; delineación de árboles de sucesos; cuantificación de árboles de fallos y sucesos; tratamiento de incertidumbres e integración del riesgo. La tesis contiene la aplicación de la metodología ISA al análisis integrado del suceso iniciador de la pérdida del sistema de refrigeración de componentes (CCWS) que genera secuencias de pérdida de refrigerante del reactor a través de los sellos de las bombas principales del circuito de refrigerante del reactor (SLOCA). Se utiliza para probar el cambio en los márgenes, con respecto al límite de la máxima temperatura de pico de vaina (1477 K), que sería posible en virtud de un potencial aumento de potencia del 10 % en el reactor de agua a presión de la C.N. Zion. El trabajo realizado para la consecución de la tesis, fruto de la colaboración de la Escuela Técnica Superior de Ingenieros de Minas y Energía y la empresa de soluciones tecnológicas Ekergy Software S.L. (NFQ Solutions) con el área MOSI del CSN, ha sido la base para la contribución del CSN en el ejercicio SM2A. Este ejercicio ha sido utilizado como evaluación del desarrollo de algunas de las ideas, sugerencias, y los algoritmos detrás de la metodología ISA. Como resultado se ha obtenido un ligero aumento de la frecuencia de excedencia del daño (DEF) provocado por el aumento de potencia. Este resultado demuestra la viabilidad de la metodología ISA para obtener medidas de las variaciones en los márgenes de seguridad que han sido provocadas por modificaciones en la planta. También se ha mostrado que es especialmente adecuada en escenarios donde los eventos estocásticos o las actuaciones de recuperación o mitigación de los operadores pueden tener un papel relevante en el riesgo. Los resultados obtenidos no tienen validez más allá de la de mostrar la viabilidad de la metodología ISA. La central nuclear en la que se aplica el estudio está clausurada y la información relativa a sus análisis de seguridad es deficiente, por lo que han sido necesarias asunciones sin comprobación o aproximaciones basadas en estudios genéricos o de otras plantas. Se han establecido tres fases en el proceso de análisis: primero, obtención del árbol de sucesos dinámico de referencia; segundo, análisis de incertidumbres y obtención de los dominios de daño; y tercero, cuantificación del riesgo. Se han mostrado diversas aplicaciones de la metodología y ventajas que presenta frente al APS clásico. También se ha contribuido al desarrollo del prototipo de herramienta para la aplicación de la metodología ISA (SCAIS). ABSTRACT The Integrated Safety Analysis methodology (ISA), developed by the Consejo de Seguridad Nuclear (CSN), is being assessed in various applications encouraged by CSN. An Integrated Safety Analysis merges the evolved techniques of the usually applied safety analysis methodologies; deterministic and probabilistic. It is considered as a suitable tool for assessing risk in a Risk Informed Regulation framework, the approach under development that is being adopted on Nuclear Safety around the world. In this policy framework, the projects Safety Margin Action Plan (SMAP) and Safety Margin Assessment Application (SM2A), set up by the Committee on the Safety of Nuclear Installations (CSNI) of the Nuclear Energy Agency within the Organization for Economic Co-operation and Development (OECD), were aimed to obtain a methodology and its application for the integration of risk and safety margins in the assessment of the changes to the overall safety as a result of changes in the nuclear plant condition. The committee provides a forum for the exchange of technical information and cooperation among member organizations which contribute their respective approaches in research, development and engineering. The ISA methodology, proposed by CSN, specially fits with the SMAP approach that aims at obtaining Best Estimate Plus Uncertainty values of the safety variables to be compared with the safety limits. This makes it possible to obtain the exceedance frequencies of the safety limit. The ISA has the advantage over other methods of allowing the specific and discrete evaluation of the most influential uncertain parameters in the limit exceedance frequency. In this way the changes due to design or operation variation, imperceptibles or complicated to by quantified by other methods, are correctly evaluated. The ISA methodology is one of the discrete methodologies of the Dynamic PSA framework that uses the generation of dynamic event trees (DET). It is based on the Theory of Stimulated Dynamics (TSD), a simplified version of the theory of Probabilistic Dynamics that allows the risk quantification. The ISA models and simulates all the important interactions in a Nuclear Power Plant; design, operating conditions, maintenance, human actuations, stochastic events, etc. In order to that, it requires the integration of codes to obtain: Thermohydraulic and human actuations; Even trees delineation; Fault Trees and Event Trees quantification; Uncertainty analysis and risk assessment. This written dissertation narrates the application of the ISA methodology to the initiating event of the Loss of the Component Cooling System (CCWS) generating sequences of loss of reactor coolant through the seals of the reactor coolant pump (SLOCA). It is used to test the change in margins with respect to the maximum clad temperature limit (1477 K) that would be possible under a potential 10 % power up-rate effected in the pressurized water reactor of Zion NPP. The work done to achieve the thesis, fruit of the collaborative agreement of the School of Mining and Energy Engineering and the company of technological solutions Ekergy Software S.L. (NFQ Solutions) with de specialized modeling and simulation branch of the CSN, has been the basis for the contribution of the CSN in the exercise SM2A. This exercise has been used as an assessment of the development of some of the ideas, suggestions, and algorithms behind the ISA methodology. It has been obtained a slight increase in the Damage Exceedance Frequency (DEF) caused by the power up-rate. This result shows that ISA methodology allows quantifying the safety margin change when design modifications are performed in a NPP and is specially suitable for scenarios where stochastic events or human responses have an important role to prevent or mitigate the accidental consequences and the total risk. The results do not have any validity out of showing the viability of the methodology ISA. Zion NPP was retired and information of its safety analysis is scarce, so assumptions without verification or approximations based on generic studies have been required. Three phases are established in the analysis process: first, obtaining the reference dynamic event tree; second, uncertainty analysis and obtaining the damage domains; third, risk quantification. There have been shown various applications of the methodology and advantages over the classical PSA. It has also contributed to the development of the prototype tool for the implementation of the ISA methodology (SCAIS).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se incluye en una línea de trabajo que tiene como objetivo final la optimización de la energía consumida por un dispositivo portátil multimedia mediante la aplicación de técnicas de control realimentado, a partir de una modificación dinámica de la frecuencia de trabajo del procesador y de su tensión de alimentación. La modificación de frecuencia y tensión se realiza a partir de la información de realimentación acerca de la potencia consumida por el dispositivo, lo que supone un problema ya que no suele ser posible la monitorización del consumo de potencia en dispositivos de estas características. Este es el motivo por el que se recurre a la estimación del consumo de potencia, utilizando para ello un modelo de predicción. A partir del número de veces que se producen ciertos eventos en el procesador del dispositivo, el modelo de predicción es capaz de obtener una estimación de la potencia consumida por dicho dispositivo. El trabajo llevado a cabo en este proyecto se centra en la implementación de un modelo de estimación de potencia en el kernel de Linux. La razón por la que la estimación se implementa en el sistema operativo es, en primer lugar para lograr un acceso directo a los contadores del procesador. En segundo lugar, para facilitar la modificación de frecuencia y tensión, una vez obtenida la estimación de potencia, ya que esta también se realiza desde el sistema operativo. Otro motivo para implementar la estimación en el sistema operativo, es que la estimación debe ser independiente de las aplicaciones de usuario. Además, el proceso de estimación se realiza de forma periódica, lo que sería difícil de lograr si no se trabajase desde el sistema operativo. Es imprescindible que la estimación se haga de forma periódica ya que al ser dinámica la modificación de frecuencia y tensión que se pretende implementar, se necesita conocer el consumo de potencia del dispositivo en todo momento. Cabe destacar también, que los algoritmos de control se tienen que diseñar sobre un patrón periódico de actuación. El modelo de estimación de potencia funciona de manera específica para el perfil de consumo generado por una única aplicación determinada, que en este caso es un decodificador de vídeo. Sin embargo, es necesario que funcione de la forma más precisa posible para cada una de las frecuencias de trabajo del procesador, y para el mayor número posible de secuencias de vídeo. Esto es debido a que las sucesivas estimaciones de potencia se pretenden utilizar para llevar a cabo la modificación dinámica de frecuencia, por lo que el modelo debe ser capaz de continuar realizando las estimaciones independientemente de la frecuencia con la que esté trabajando el dispositivo. Para valorar la precisión del modelo de estimación se toman medidas de la potencia consumida por el dispositivo a las distintas frecuencias de trabajo durante la ejecución del decodificador de vídeo. Estas medidas se comparan con las estimaciones de potencia obtenidas durante esas mismas ejecuciones, obteniendo de esta forma el error de predicción cometido por el modelo y realizando las modificaciones y ajustes oportunos en el mismo. ABSTRACT. This project is included in a work line which tries to optimize consumption of handheld multimedia devices by the application of feedback control techniques, from a dynamic modification of the processor work frequency and its voltage. The frequency and voltage modification is performed depending on the feedback information about the device power consumption. This is a problem because normally it is not possible to monitor the power consumption on this kind of devices. This is the reason why a power consumption estimation is used instead, which is obtained from a prediction model. Using the number of times some events occur on the device processor, the prediction model is able to obtain a power consumption estimation of this device. The work done in this project focuses on the implementation of a power estimation model in the Linux kernel. The main reason to implement the estimation in the operating system is to achieve a direct access to the processor counters. The second reason is to facilitate the frequency and voltage modification, because this modification is also done from the operating system. Another reason to implement the estimation in the operating system is because the estimation must be done apart of the user applications. Moreover, the estimation process is done periodically, what is difficult to obtain outside the operating system. It is necessary to make the estimation in a periodic way because the frequency and voltage modification is going to be dynamic, so it needs to know the device power consumption at every time. Also, it is important to say that the control algorithms have to be designed over a periodic pattern of action. The power estimation model works specifically for the consumption profile generated by a single application, which in this case is a video decoder. Nevertheless, it is necessary that the model works as accurate as possible for each frequency available on the processor, and for the greatest number of video sequences. This is because the power estimations are going to be used to modify dynamically the frequency, so the model must be able to work independently of the device frequency. To value the estimation model precision, some measurements of the device power consumption are taken at different frequencies during the video decoder execution. These measurements are compared with the power estimations obtained during that execution, getting the prediction error committed by the model, and if it is necessary, making modifications and settings on this model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una Red de Procesadores Evolutivos o NEP (por sus siglas en ingles), es un modelo computacional inspirado por el modelo evolutivo de las celulas, específicamente por las reglas de multiplicación de las mismas. Esta inspiración hace que el modelo sea una abstracción sintactica de la manipulation de information de las celulas. En particu¬lar, una NEP define una maquina de cómputo teorica capaz de resolver problemas NP completos de manera eficiente en tóerminos de tiempo. En la praóctica, se espera que las NEP simuladas en móaquinas computacionales convencionales puedan resolver prob¬lemas reales complejos (que requieran ser altamente escalables) a cambio de una alta complejidad espacial. En el modelo NEP, las cóelulas estóan representadas por palabras que codifican sus secuencias de ADN. Informalmente, en cualquier momento de cómputo del sistema, su estado evolutivo se describe como un coleccion de palabras, donde cada una de ellas representa una celula. Estos momentos fijos de evolucion se denominan configuraciones. De manera similar al modelo biologico, las palabras (celulas) mutan y se dividen en base a bio-operaciones sencillas, pero solo aquellas palabras aptas (como ocurre de forma parecida en proceso de selection natural) seran conservadas para la siguiente configuracióon. Una NEP como herramienta de computation, define una arquitectura paralela y distribuida de procesamiento simbolico, en otras palabras, una red de procesadores de lenguajes. Desde el momento en que el modelo fue propuesto a la comunidad científica en el año 2001, múltiples variantes se han desarrollado y sus propiedades respecto a la completitud computacional, eficiencia y universalidad han sido ampliamente estudiadas y demostradas. En la actualidad, por tanto, podemos considerar que el modelo teórico NEP se encuentra en el estadio de la madurez. La motivación principal de este Proyecto de Fin de Grado, es proponer una aproxi-mación práctica que permita dar un salto del modelo teórico NEP a una implantación real que permita su ejecucion en plataformas computacionales de alto rendimiento, con el fin de solucionar problemas complejos que demanda la sociedad actual. Hasta el momento, las herramientas desarrolladas para la simulation del modelo NEP, si bien correctas y con resultados satisfactorios, normalmente estón atadas a su entorno de ejecucion, ya sea el uso de hardware específico o implementaciones particulares de un problema. En este contexto, el propósito fundamental de este trabajo es el desarrollo de Nepfix, una herramienta generica y extensible para la ejecucion de cualquier algo¬ritmo de un modelo NEP (o alguna de sus variantes), ya sea de forma local, como una aplicación tradicional, o distribuida utilizando los servicios de la nube. Nepfix es una aplicacion software desarrollada durante 7 meses y que actualmente se encuentra en su segunda iteration, una vez abandonada la fase de prototipo. Nepfix ha sido disenada como una aplicacion modular escrita en Java 8 y autocontenida, es decir, no requiere de un entorno de ejecucion específico (cualquier maquina virtual de Java es un contenedor vólido). Nepfix contiene dos componentes o móodulos. El primer móodulo corresponde a la ejecución de una NEP y es por lo tanto, el simulador. Para su desarrollo, se ha tenido en cuenta el estado actual del modelo, es decir, las definiciones de los procesadores y filtros mas comunes que conforman la familia del modelo NEP. Adicionalmente, este componente ofrece flexibilidad en la ejecucion, pudiendo ampliar las capacidades del simulador sin modificar Nepfix, usando para ello un lenguaje de scripting. Dentro del desarrollo de este componente, tambióen se ha definido un estóandar de representacióon del modelo NEP basado en el formato JSON y se propone una forma de representation y codificación de las palabras, necesaria para la comunicación entre servidores. Adicional-mente, una característica importante de este componente, es que se puede considerar una aplicacion aislada y por tanto, la estrategia de distribution y ejecución son total-mente independientes. El segundo moódulo, corresponde a la distribucióon de Nepfix en la nube. Este de-sarrollo es el resultado de un proceso de i+D, que tiene una componente científica considerable. Vale la pena resaltar el desarrollo de este modulo no solo por los resul-tados prócticos esperados, sino por el proceso de investigation que se se debe abordar con esta nueva perspectiva para la ejecución de sistemas de computación natural. La principal característica de las aplicaciones que se ejecutan en la nube es que son gestionadas por la plataforma y normalmente se encapsulan en un contenedor. En el caso de Nepfix, este contenedor es una aplicacion Spring que utiliza el protocolo HTTP o AMQP para comunicarse con el resto de instancias. Como valor añadido, Nepfix aborda dos perspectivas de implementation distintas (que han sido desarrolladas en dos iteraciones diferentes) del modelo de distribution y ejecucion, que tienen un impacto muy significativo en las capacidades y restricciones del simulador. En concreto, la primera iteration utiliza un modelo de ejecucion asincrono. En esta perspectiva asincrona, los componentes de la red NEP (procesadores y filtros) son considerados como elementos reactivos a la necesidad de procesar una palabra. Esta implementation es una optimization de una topologia comun en el modelo NEP que permite utilizar herramientas de la nube para lograr un escalado transparente (en lo ref¬erente al balance de carga entre procesadores) pero produce efectos no deseados como indeterminacion en el orden de los resultados o imposibilidad de distribuir eficiente-mente redes fuertemente interconectadas. Por otro lado, la segunda iteration corresponde al modelo de ejecucion sincrono. Los elementos de una red NEP siguen un ciclo inicio-computo-sincronizacion hasta que el problema se ha resuelto. Esta perspectiva sincrona representa fielmente al modelo teórico NEP pero el proceso de sincronizacion es costoso y requiere de infraestructura adicional. En concreto, se requiere un servidor de colas de mensajes RabbitMQ. Sin embargo, en esta perspectiva los beneficios para problemas suficientemente grandes superan a los inconvenientes, ya que la distribuciín es inmediata (no hay restricciones), aunque el proceso de escalado no es trivial. En definitiva, el concepto de Nepfix como marco computacional se puede considerar satisfactorio: la tecnología es viable y los primeros resultados confirman que las carac-terísticas que se buscaban originalmente se han conseguido. Muchos frentes quedan abiertos para futuras investigaciones. En este documento se proponen algunas aproxi-maciones a la solucion de los problemas identificados como la recuperacion de errores y la division dinamica de una NEP en diferentes subdominios. Por otra parte, otros prob-lemas, lejos del alcance de este proyecto, quedan abiertos a un futuro desarrollo como por ejemplo, la estandarización de la representación de las palabras y optimizaciones en la ejecucion del modelo síncrono. Finalmente, algunos resultados preliminares de este Proyecto de Fin de Grado han sido presentados recientemente en formato de artículo científico en la "International Work-Conference on Artificial Neural Networks (IWANN)-2015" y publicados en "Ad-vances in Computational Intelligence" volumen 9094 de "Lecture Notes in Computer Science" de Springer International Publishing. Lo anterior, es una confirmation de que este trabajo mas que un Proyecto de Fin de Grado, es solo el inicio de un trabajo que puede tener mayor repercusion en la comunidad científica. Abstract Network of Evolutionary Processors -NEP is a computational model inspired by the evolution of cell populations, which might model some properties of evolving cell communities at the syntactical level. NEP defines theoretical computing devices able to solve NP complete problems in an efficient manner. In this model, cells are represented by words which encode their DNA sequences. Informally, at any moment of time, the evolutionary system is described by a collection of words, where each word represents one cell. Cells belong to species and their community evolves according to mutations and division which are defined by operations on words. Only those cells are accepted as surviving (correct) ones which are represented by a word in a given set of words, called the genotype space of the species. This feature is analogous with the natural process of evolution. Formally, NEP is based on an architecture for parallel and distributed processing, in other words, a network of language processors. Since the date when NEP was pro¬posed, several extensions and variants have appeared engendering a new set of models named Networks of Bio-inspired Processors (NBP). During this time, several works have proved the computational power of NBP. Specifically, their efficiency, universality, and computational completeness have been thoroughly investigated. Therefore, we can say that the NEP model has reached its maturity. The main motivation for this End of Grade project (EOG project in short) is to propose a practical approximation that allows to close the gap between theoretical NEP model and a practical implementation in high performing computational platforms in order to solve some of high the high complexity problems society requires today. Up until now tools developed to simulate NEPs, while correct and successful, are usu¬ally tightly coupled to the execution environment, using specific software frameworks (Hadoop) or direct hardware usage (GPUs). Within this context the main purpose of this work is the development of Nepfix, a generic and extensible tool that aims to execute algorithms based on NEP model and compatible variants in a local way, similar to a traditional application or in a distributed cloud environment. Nepfix as an application was developed during a 7 month cycle and is undergoing its second iteration once the prototype period was abandoned. Nepfix is designed as a modular self-contained application written in Java 8, that is, no additional external dependencies are required and it does not rely on an specific execution environment, any JVM is a valid container. Nepfix is made of two components or modules. The first module corresponds to the NEP execution and therefore simulation. During the development the current state of the theoretical model was used as a reference including most common filters and processors. Additionally extensibility is provided by the use of Python as a scripting language to run custom logic. Along with the simulation a definition language for NEP has been defined based on JSON as well as a mechanisms to represent words and their possible manipulations. NEP simulator is isolated from distribution and as mentioned before different applications that include it as a dependency are possible, the distribution of NEPs is an example of this. The second module corresponds to executing Nepfix in the cloud. The development carried a heavy R&D process since this front was not explored by other research groups until now. It's important to point out that the development of this module is not focused on results at this point in time, instead we focus on feasibility and discovery of this new perspective to execute natural computing systems and NEPs specifically. The main properties of cloud applications is that they are managed by the platform and are encapsulated in a container. For Nepfix a Spring application becomes the container and the HTTP or AMQP protocols are used for communication with the rest of the instances. Different execution perspectives were studied, namely asynchronous and synchronous models were developed for solving different kind of problems using NEPs. Different limitations and restrictions manifest in both models and are explored in detail in the respective chapters. In conclusion we can consider that Nepfix as a computational framework is suc-cessful: Cloud technology is ready for the challenge and the first results reassure that the properties Nepfix project pursued were met. Many investigation branches are left open for future investigations. In this EOG implementation guidelines are proposed for some of them like error recovery or dynamic NEP splitting. On the other hand other interesting problems that were not in the scope of this project were identified during development like word representation standardization or NEP model optimizations. As a confirmation that the results of this work can be useful to the scientific com-munity a preliminary version of this project was published in The International Work- Conference on Artificial Neural Networks (IWANN) in May 2015. Development has not stopped since that point and while Nepfix in it's current state can not be consid¬ered a final product the most relevant ideas, possible problems and solutions that were produced during the seven months development cycle are worthy to be gathered and presented giving a meaning to this EOG work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto, se pretende obtener la solución óptima para el control del hogar digital accesible. Para ello, comenzaremos explicando el funcionamiento básico de un sistema dómotico, enumeraremos los diversos dispositivos que se utilizan en este tipo de automatizaciones, y comentaremos las diferentes posibilidades con respecto a la arquitectura del sistema. Para elegir la opción más adecuada, se realizará un pequeño estudio a acerca de cada una de las tecnologías existentes, protocolos cerrados, y abiertos, así como tecnologías inalámbricas o de bus. Se realizará un estudio con mayor profundidad del estándar KNX, ya que será una de las tecnologías elegidas finalmente para la realización del proyecto. Una vez elegido el estándar, hemos de centrarnos en las necesidades del recinto, para así poder empezar a definir cada uno de los elementos que incluiremos en nuestra instalación, sensores, actuadores, elementos de intercomunicación, procesadores y dispositivos de control. El siguiente paso consistiría en la programación de la vivienda, para ello hemos de tener previamente estructurados y definidos tanto el número de circuitos eléctricos, como la función que estos desempeñan dentro del recinto inteligente, es decir, accionamiento, regulación etc, para así poder asignar cada circuito a la salida correspondiente de su propio actuador. La vivienda se programará a través de ETS, software asociado a la marca KNX. Mediante este protocolo controlaremos, iluminación, motores, climatización y seguridad. Debido a los recursos limitados que ofrece KNX con respecto a la programación lógica de eventos y secuencias de acciones, y la necesidad de visualizar la interfaz gráfica de la vivienda se ha integrado un procesador. Considerando el deseo de integrar el control de un televisor en la vivienda, futuras ampliaciones y otros aspectos, el procesador integrado será de Crestron Electronics, marca correspondiente a un protocolo cerrado de automatización de sistemas, que cuenta con grandes avances en el control multimedia. Por tanto, la segunda parte de la programación se realizará mediante otros dos softwares diferentes, pertenecientes a la marca, Simple Windows se encargará de la programación lógica del sistema, mientras que Vision Tools creará la visualización. Por último, obtendremos las conclusiones necesarias, adjuntaremos un diagrama de conexionado, presupuesto de la instalación, planos y un pequeño manual de usuario. ABSTRACT. The aim of this project is to optimize the environment control of the Accesible Digital Home unit located in ETSIST - UPM, through different essays, valuing the domestic possibilities and the current interfaces. The tests will be carried out comparing different protocols and the possibilities of optimization that they offer to a Digital Home. Aspects such as: ease the communications with other systems, reliability, costs, long term maintenance of the installation, etc. After conducting trials protocol or most appropriate technology for the automation of the enclosure shall be elected. One Chosen the standard, we have to focus on the needs of the enclosure, so, to begin defining each of the elements included in our installation, sensors, actuators, elements intercom, processors and control devices. The next step is the programing of housing, for that we have previously structured and defined both the number of electrical circuits, as the role they play in the intelligent enclosure, that is, switching, dimming etc., in order to assign each circuit to the corresponding output of its own actuator. The house will be scheduled through ETS, software associated with the brand KNX. Through this protocol we will control, lighting, motors, air conditioning and security. Due to the limited resources available in KNX with respect logic programming of events and sequences of actions, and the need to display the graphical interface housing has been integrated processor belonging to the closed protocol or Crestron electronics brand. Finally, when we get the necessary conclusions, enclose a diagram of wiring, installation budget, planes and a small manual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se encuentra adscrito a la línea de investigación de optimización de consumo en terminales multimedia móviles que el Grupo de Diseño Electrónico y Microelectrónico (GDEM) de la UPM (Universidad Politécnica de Madrid) está llevando a cabo. Los sistemas empotrados móviles (Smartphone, Tablet,...) están alimentados con baterías. En este tipo de sistemas, una de las aplicaciones que más rápidamente consume energía es la descodificación de secuencias de vídeo. En este trabajo, queremos medir el consumo de energía de distintos descodificadores de vídeo para distintas secuencias, con el objetivo de entender mejor cómo se consume esta energía y poder encontrar diferentes métodos que lo reduzcan. Para ello comenzaremos describiendo nuestro entorno de trabajo, tanto el hardware como el software utilizado. Respeto al hardware cabe destacar el uso de una PandaBoard y un Smart Power de Odroid, entre otros muchos elementos utilizados, los cuales serán debidamente explicados en las siguientes páginas de este proyecto. Mientras que para el software destaca el uso de dos tipos de descodificadores uno CBP y otro PHP, los cuales serán descritos en profundidad en los siguientes capítulos de este documento. Este entorno de trabajo nos servirá para el estudio de las diferentes secuencias de vídeo, cuya codificación ha sido llevada en paralelo con otro proyecto que se está realizando en el grupo de GDEM de la UPM, y cuyo objetivo es el estudio de la calidad subjetiva durante la descodificación del mismo conjunto de secuencias de vídeo. Todas estas secuencias de vídeo han sido codificadas con diferentes parámetros de calidad y diversas estructuras de imágenes, para obtener así un banco de pruebas lo más amplio posible. Gracias a la obtención de estas secuencias de vídeo y utilizando nuestro entorno de trabajo, pasaremos a estudiar el consumo de energía que se produce al descodificar una a una todas las posibles secuencias de vídeo, dependiendo todo esto de su estructura de imágenes, su calidad y por supuesto, el descodificador utilizado en cada caso. Para terminar, se mostrará una comparativa entre los diferentes resultados obtenidos y se hará una discusión de estos, obteniendo en este caso, un resumen de los datos más significativos, así como las conclusiones más importantes obtenidas durante todo este trabajo. Al término de este proyecto y en unión con el estudio que se está llevando a cabo en paralelo sobre la calidad subjetiva, queda como línea futura de investigación encontrar el compromiso entre el consumo de energía de diferentes secuencias de vídeo y la calidad subjetiva de dichas secuencias. ABSTRACT. This project is assigned to the research line on consumption optimization in mobile multimedia terminals carried out by the Group of Electronic Design and Microelectronics (GDEM) of the Polytechnic University of Madrid (UPM). Embedded mobile systems (smartphones, tablets...) are powered by batteries. In such systems, one of the applications that more rapidly consumes power is the decoding of video streams. In this work, we measure the power consumption of different video decoders for different streams, in order to better understand how this energy is consumed and to find different methods to reduce it. To this end, we start by describing our working environment, both hardware and software used. As for the hardware, it is worth mentioning the use of PandaBoard and Smart Power Odroid, among many other elements, which will be duly explained in the following pages of this project. As for the software, we highlight the use of two types of decoders, CBP and PHP, which will be described in detail in the following chapters of this document. This working environment will help us to study different video streams, whose coding has been perfor-med in parallel under another project that is being carried out in the GDEM group of the UPM, and whose objective is the study of subjective quality for decoding the same set of video streams. All these video streams have been encoded with different quality parameters and image structures in order to obtain the widest set of samples. Thanks to the production of these video streams and the use of our working environment, we study the power consumption that occurs when decoding one by one all possible video streams, depending on the image structure, their quality and, of course, the decoder used in each case. Finally, we show a comparison between the different results and a discussion of these, obtaining a sum-mary of the most significant data and the main conclusions obtained during this project. Upon completion of this project and in conjunction with the project on the study of subjective quality that is being carried out in parallel, a future line of research could consist in finding the compromise between power consumption of different video streams and the subjective quality of these.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los programas de Gestión Integrada de Plagas (GIP) promueven el uso de estrategias de control que sean respetuosas con el medio ambiente, sin embargo el uso de insecticidas en los cultivos hortícolas sigue siendo necesario para el control de determinadas plagas, como es el caso de la mosca blanca Bemisia tabaci (Gennadius). Por ello, el objetivo de esta tesis es el estudio de la integración de las tres estrategias de control más empleadas hoy en día para el control de plagas: el control biológico, el físico y el químico. Una primera parte de este trabajo ha consistido en el estudio de los efectos letales y subletales de once insecticidas, aplicados a la dosis máxima de campo, sobre los enemigos naturales Eretmocerus mundus Mercet y Amblyseius swirskii Athias-Henriot, mediante ensayos de laboratorio y persistencia (laboratorio extendido). Para la evaluación de la toxicidad de los insecticidas sobre los estados de vida más protegidos de estos enemigos naturales, se trataron bajo la Torre de Potter las pupas de E. mundus y los huevos de A. swirskii. Además, se llevaron a cabo ensayos de contacto residual para determinar los efectos letales y subletales de estos insecticidas sobre el estado adulto de ambas especies de enemigos naturales. Para ello, los pesticidas se aplicaron sobre placas de cristal (laboratorio) o sobre plantas (laboratorio extendido: persistencia). Los resultados mostraron que los insecticidas flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen y spirotetramat eran compatibles con el estado de pupa de E. mundus (OILB 1: Inocuos). Sin embargo, abamectina, deltametrina y emamectina fueron categorizadas como ligeramente tóxicas (OILB 2) al causar efectos deletéreos. Los dos pesticidas más tóxicos fueron spinosad y sulfoxaflor, los cuales redujeron significativamente la emergencia de las pupas tratadas (OILB 4: Tóxicos). Flonicamida, flubendiamida, metoxifenocida y spiromesifen fueron compatibles con el estado adulto de E. mundus (OILB 1: Inocuos). Abamectina, deltametrina, emamectina, metaflumizona y spiromesifen pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Al contrario, spinosad y sulfoxaflor no resultaron ser compatibles (OILB D: Persistentes), aunque la realización de ensayos adicionales es necesaria para ver los efectos de los mismos en campo. Todos los insecticidas estudiados, excepto el spirotetramat (OILB 2: Ligeramente tóxico), fueron selectivos para el estado de huevo de A. swirskii (OILB 1: Inocuos). Flonicamida, flubendiamida, metaflumizona, metoxifenocida, spiromesifen, spirotetramat y sulfoxaflor, fueron compatibles con el estado adulto de A. swirskii (OILB 1: Inocuos). Abamectina, deltametrina, emamectina y spinosad pueden ser recomendados para su uso en programas de GIP, si se usan los plazos de seguridad apropiados, de acuerdo con la persistencia de cada uno de estos insecticidas, antes de la liberación del enemigo natural. Entre las nuevas estrategias de la GIP, los plásticos y mallas fotoselectivas han demostrado ser una herramienta importante para el control de plagas y enfermedades en cultivos hortícolas protegidos. Por ello, en una segunda parte de este trabajo, se estudiaron tanto los efectos directos, como la combinación de efectos directos y mediados por planta y plaga de ambientes pobres en luz UV, en presencia o ausencia del Virus del rizado amarillo del tomate (TYLCV), sobre E. mundus. En primer lugar, se realizó un ensayo al aire libre para la evaluación de la capacidad de vuelo de E. mundus en cajas tipo túnel (1 x 0,6 x 0,6 m) cubiertas con distintas barreras absorbentes de luz UV. Se detectó un efecto directo en la capacidad de orientación de E. mundus, debido a que este parasitoide utiliza estímulos visuales para localizar a sus huéspedes, únicamente en las barreras que bloqueaban más del 65% de la luz UV (malla G). En segundo lugar, bajo condiciones de invernadero, se evaluó la combinación de efectos directos y mediados por planta y plaga sobre E. mundus, usando plantas de tomate sanas o infectadas con el TYLCV y cajas (30 x 30 x 60 cm) cubiertas con los distintos plásticos fotoselectivos. En este caso, no se observó ningún efecto en la capacidad benéfica del parasitoide cuando este estaba en contacto con plantas de tomate infestadas con ninfas de B. tabaci, lo que demuestra que este insecto usa estímulos táctiles para encontrar a sus huéspedes a cortas distancias. Además, las diferentes condiciones de radiación UV estudiadas tuvieron cierto impacto en la morfología, fisiología y bioquímica de las plantas de tomate, infestadas o no con el virus de la cuchara, detectándose pequeñas alteraciones en alguno de los parámetros estudiados, como el peso fresco y seco, el contenido en H y el espesor de las cutículas y de las paredes celulares de la epidermis foliar. Por último, no se observaron efectos de la radiación UV mediados por planta, ni en B. tabaci ni en su parasitoide, E. mundus. En una tercera parte, se evaluaron los efectos de una malla tratada con bifentrin sobre ambos enemigos naturales, en ensayos de laboratorio, semicampo y campo. Las mallas tratadas fueron diseñadas originariamente para el control de mosquitos vectores de la malaria, y actualmente se está trabajando para su uso en agricultura, como una nueva estrategia de control de plagas. En ensayos de laboratorio, cuando adultos de E. mundus y A. swirskii se expusieron por contacto durante 72 horas con la malla tratada (cajas de 6 cm diámetro), se registró una alta mortalidad. Sin embargo, en el ensayo de preferencia, estos enemigos naturales no fueron capaces de detectar la presencia de bifentrin y, en aquellos individuos forzados a atravesar la malla tratada, no se observó mortalidad a corto plazo (72 horas). En estudios de semicampo, llevados a cabo bajo condiciones de invernadero en cajas de 25 x 25 x 60 cm de altura, la capacidad benéfica de E. mundus no se vio afectada. Finalmente, en ensayos de campo llevados a cabo en invernaderos comerciales (4000m2) en Almería, A. swirskii no se vio afectado por la presencia en el cultivo de la malla tratada con bifentrin y los niveles de infestación de B. tabaci y F. occidentalis detectados bajo dicha malla, fueron inferiores a los del control. Por último, se ha evaluado la composición de la microflora bacteriana de tres especies de parasitoides, E. mundus, Eretmocerus eremicus Rose & Zolnerowich y Encarsia formosa Gahan, y la influencia de la misma en su susceptibilidad a insecticidas. Se llevó a cabo una extracción total de ADN de los insectos y la región variable V4 del ARNr se amplificó usando cebadores universales bacterianos. Para identificar las secuencias de los géneros bacterianos presentes en los parasitoides, se realizó una Next Generation sequencing (Illumina sequencing). Una vez identificados los géneros bacterianos, el gen ADNr 16S de las Actinobacterias se amplificó del ADN extraído de los insectos, usando cebadores universales bacterianos y específicos de Actinobacterias, y los productos de la Nested PCR fueron clonados para identificar todas las especies del género Arthrobacter. Tres bacterias (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi y A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), próximas a las especies de Arthrobacter presentes en los parasitoides, se obtuvieron de la colección bacteriana del BCCMTM/LMG y se midió su actividad esterasa. Finalmente, se realizaron ensayos con antibióticos (tetraciclina) y de contacto residual con insecticidas (abamectina) para determinar la influencia de las especies de Arthrobacter en la susceptibilidad de E. mundus a insecticidas. Los resultados muestran que este género bacteriano puede afectar a la toxicidad de E. mundus a abamectina, mostrando la importancia de la comunidad microbiana en enemigos naturales, factor que debe ser considerado en los estudios de evaluación de los riesgos de los insecticidas. ABSTRACT Integrated Pest Management (IPM) programs promote the use of control strategies more respectful with the environment; however the use of insecticides in vegetable crops is still needed to control certain pests, such as the whitefly Bemisia tabaci (Gennadius). Therefore, the objective of this work is to study the integration of the three most commonly used pest control strategies nowadays: biological, physical and chemical control. Firstly, the lethal and sublethal effects of eleven insecticides, applied at their maximum field recommended concentration, on the parasitic wasp Eretmocerus mundus Mercet and the predator Amblyseius swirskii Athias-Henriot has been assessed in the laboratory and in persistence tests (extended laboratory). To test the effects of pesticides on the most protected life stage of these natural enemies, E. mundus pupae and A. swirskii eggs were sprayed under a Potter precision spray tower. Laboratory contact tests were therefore conducted to determine the lethal and sublethal effects of these pesticides on the adult stage of these natural enemies. In the residual contact tests the pesticides were applied on glass plates (laboratory) or plants (extended laboratory: persistence). The study showed that the insecticides flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen and spirotetramat were selective for E. mundus pupae (IOBC 1: Harmless). Nevertheless, abamectin, deltamethrin and emamectin were categorized as slightly harmful (IOBC 2) due to the deleterious effects caused. The two most harmful pesticides were spinosad and sulfoxaflor, which significantly reduced the adult emergence from treated pupae (IOBC 4: Harmful). Flonicamid, flubendiamide, methoxyfenozide and spiromesifen were compatible with E. mundus adults (IOBC 1: Harmless). Base on the duration of the harmful activity, abamectin, deltamethrin, emamectin, metaflumizone and spirotetramat could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. On the contrary, spinosad and sulfoxaflor were not compatible (IOBC D: persistent), although additional studies are required to determine their effects under field conditions. All the pesticides tested, except spirotetramat (IOBC 2: Slightly harmful), were selective for A. swirskii eggs (IOBC 1: Harmless). Flonicamid, flubendiamide, metaflumizone, methoxyfenozide, spiromesifen, spirotetramat and sulfoxaflor were compatible with A. swirskii adults (IOBC 1: Harmless). However, abamectin, deltamethrin, emamectin and spinosad could be recommended for use in IPM programs if appropriate safety deadlines are used before the natural enemy release. Among new IPM strategies, UV-absorbing photoselective plastic films and nets have been shown to be an important tool for the control of pests and diseases in horticultural protected crops. Because of that, we secondly studied the plant and pest insect-mediated and/or the direct effects on E. mundus under different UV radiation conditions, in presence or absence of the Tomato Yellow Leaf Curl Virus (TYLCV). In the first experiment, performed outdoors, the flight activity of E. mundus was studied in one-chamber tunnels (1 x 0.6 x 0.6 m) covered with different photoselective barriers. Because E. mundus uses visual cues for host location at a long distance, a direct effect on its host location ability was detected, but only in the UV-absorbing barriers blocking more than 65% of the UV light (G net). In a second experiment, the direct and plant and pest insect-mediated effects of different UV radiation conditions on E. mundus were studied, inside cages (30 x 30 x 60 cm) covered with the different UVplastic films and under greenhouse conditions, using healthy or TYLCV-virus infected tomato plants. In this case, not any effect on the beneficial capacity of this parasitoid was detected, proving that he uses tactile cues at a short distance of the host. Moreover, the different UV radiation conditions studied had a certain direct impact in the morphology, physiology and biochemistry of tomato plants infested or not with the TYLCV, and small alterations in some parameters such as fresh and dry weight, H percentage and cuticle and cell wall thickness of epidermal cells of the leaves, were detected. Finally, none plant-mediated UV effects neither in the whitefly B. tabaci nor in their parasitic wasp were found. Thirdly, the effects of a bifenthrin treated net were evaluated in different laboratory, semi-field and field experiments on the natural enemies studied. Treated nets were developed long time ago aiming at the control of the mosquitoes vectors of malaria, and nowadays, there is a great interest on assessing the possibility of their use in agriculture. In laboratory assays, a high mortality was recorded when E. mundus and A. swirskii adults were exposed by contact to the bifenthrin treated net for 72 hours in small cages (12 cm diameter). However, these natural enemies were not able to detect the presence of bifenthrin in a dual-choice test and no short-term mortality (72 hours) was recorded in those individuals that went through the treated net. In semi-field assays, performed under greenhouse conditions with cages of 25 x 25 x 60 cm high, the beneficial capacity of E. mundus was not affected. Finally, in field assays carried out in commercial multispan greenhouses (4000 m2) in Almería, A. swirskii was not affected by the presence of the bifenthrin treated net in the crop and the B. tabaci and F. occidentalis infestation levels were significantly lower than in the control. Finally, the composition of the microflora present in three species of parasitoids, E. mundus, Eretmocerus eremicus Rose & Zolnerowich and Encarsia formosa Gahan, and its influence in their susceptibility to insecticides, have been assessed. A total DNA extraction was performed on insects and universal bacterial primers were used to amplify the variable V4 region of the rRNA. A Next Generation sequencing (Illumina sequencing) was performed to identify the sequences of the bacterial genera present in the parasitic wasps. Once, the bacterial genera were identified, 16S rDNA gene of Actinobacteria were amplified from insects DNA extracts using the universal bacterial and actinobacterial primers, and the nested PCR products, were cloned to identify the Arthrobacter species. Three bacteria (A. aurescens Phillips, A. nicotinovarans Kodama, Yamamoto, Amano and Amichi and A. uratoxydans Stackebrandt, Fowler, Fiedler and Seiler), having the closest match with the Arthrobacter species present in the parasitic wasps, were obtained from the BCCMTM/LMG bacteria collection and its esterase activity was measured. Finally, antibiotic and residual contact tests were done to determine the influence of Arthrobacter species in the susceptibility of E. mundus to pesticides (abamectin). The results suggest that this bacterial genus can affect the toxicity of E. mundus to abamectin, which in turn supports the importance of the microbial community in natural enemies that it should be considered as a factor in risk assessment tests of pesticides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis doctoral se centra en la investigación del "estrato arquitectónico", manejando conceptos, lógicas y sinopsis como puntos organizativos, enlazados y superpuestos, que den paso a un marco propositivo que pueda ser simultáneamente articulado e independiente. Una situación que, ante nuevos desafíos, pretende ir más allá de una estricta definición de estrato o de su noción preconcebida descrita desde la superposición de diversos materiales. Todo ello a fin de revelar los diferentes perfiles del estrato y de la estratificación. Para ello, se abre y amplía el campo de estudio proyectual/procesual desdibujando los límites entre disciplinas –geología, filosofía, tecnología, arquitectura–. Y al mismo tiempo, se construye una cartografía del estrato arquitectónico asociada: a una taxonomía descriptora, a nuevas formulaciones, a pensamientos de personajes reconocibles y/o rescatados –como Rowe/Slutzky, Smithson, Parent/Virilio, Koolhaas, MVRDV, etc.–, y, por último, a nuevas lógicas proyectuales y operativas referidas al estrato, que fusionan conocimientos complejos. Unos contenidos que habitualmente no se presentan en investigaciones doctorales tradicionales –lo que permite afrontar nuevos cambios metodológicos, e imprimir un punto de partida para el desarrollo de futuras investigaciones o de otros posibles caminos emergentes–. Así, el discurso se impregna de nuevos referentes teóricos dentro de una misma mitología común (la del estrato). Un tema abordado con claves híbridas, es decir, con estudios selectivos y escritos coleccionados –analizados a partir de antecedentes encontrados y consolidados–, combinados con interpretaciones subyacentes en la arquitectura contemporánea –que pueden todavía encontrarse en fase experimental–. Una investigación que muestra la adaptación, la evolución y el cambio de la definición de "estrato arquitectónico", así como de su apariencia, utilización y aplicación a lo largo del tiempo, consecuencia de las nuevas necesidades y/o de las nuevas bases ideológicas ocasionadas por nuevos descubrimientos. Estratos arquitectónicos que dotan al espacio de profundidad –desde la bidimensionalidad– mediante la superposición de planos paralelos hacia la construcción de una nueva experiencia de estratificación fenomenológica. Estratos que generan estímulos y cambian su materialidad –de opacos a (en)tramados– creando apariencias y produciendo diversos efectos, para posteriormente exfoliarse y convertirse en estratos habitables. Estratos capturadores del espacio-tiempo, o de las dinámicas internas. Llegando incluso, con un último giro, a la era digital, donde el estrato informacional –que continua siendo independiente, autónomo y diverso, y que puede ser modificado, manipulado, suprimido o activable sin alterar el conjunto–, propicia obtener sistemas flexibles, relacionales, capaces de mutar o adaptarse, asociados a distintos niveles de organización dispositiva, que impulsan acciones y hacen emerger lógicas proyectuales. Estratos que surgen de forma elaborada o espontánea en el territorio urbano o natural (ciudad sobre ciudad, suelo sobre suelo), que se aplican extendiendo e hibridando el territorio (paisajes operativos), que son replanteados artificialmente como mecanismos edificatorios según las exigencias existentes (estratos programáticos, capas especializadas), y que se implantan como capas/layers en los programas informáticos utilizados como herramientas de diseño (multicapas, sistemas de intercambio informacional). Un trabajo que se estructura de manera multicapa lo que permite recorrer la tesis como un mapa de secuencias, saltar entre estratos de información, o seleccionar lecturas según intereses de pensamiento o acción arquitectónica. En consecuencia, una investigación sobre el "estrato arquitectónico" que conecta diversas disciplinas, que recopila distintos posicionamientos teórico/prácticos –lo que implica la introducción de parámetros y datos vivos–, y afronta un posicionamiento estratégico que vuelve a poner en valor el estrato arquitectónico –partiendo de estrategias formales que se han transformado en estrategias experimentales/operativas (a medida que el entorno se ha ido complejizando), siguiendo una estrategia conceptual e intelectual contemporánea, propia y específica–. ABSTRACT This PhD thesis is based on the research of "architectural stratum" using concepts, logical and synopsis as organizational, linked and overlapping points, which give way to a proactive framework that can be articulated and independent simultaneously. A situation that, faced with new challenges, aims to go beyond a strict definition of stratum or their preconceived notion described from the superposition of different materials. All this in order to reveal the different profiles of stratum and stratification. To do this, it opens and widens the field of project/process study, blurring the boundaries between disciplines –geology, philosophy, technology, architecture–. And, at the same time, a cartography of the architectural stratum is constructed, that associates with: descriptor taxonomy, new formulations, thoughts of recognizable and/or rescued characters, –as Rowe/Slutzky, Smithson, Parent/Virilio, Koolhaas, MVRDV, etc.–, and finally, a new project and operational logics referred to stratum, which merge complex knowledge. A content not usually presented in traditional doctoral research –which can face new methodological changes, and creates a starting point for future research or other possible emerging paths–. Thus, the work is imbued with new theoretical framework within a common mythology (stratum’s myth). An issue addressed with hybrid keys, that is, with selective studies and collected writings –analyzed starting from found and consolidated backgrounds–, combined with underlying performances on contemporary architecture –which can still be in experimental phase–. A research that shows adaptation, evolution and change of the definition of "architectural stratum", as well as their appearance, use and application throughout time, result of the new requirements and/or the new ideological foundations caused by new discoveries. Architectural strata that give depth to space –from two-dimensionality– by overlapping parallel planes towards the construction of a new experience of phenomenological stratification. Strata that generate stimuli and change their materiality –from opaque to lattice– creating appearances and producing various effects, for later exfoliating and becoming habitable strata. Strata that capture space-time or internal dynamics. Even reaching, with a final twist, the digital age, where the informational stratum –which remains independent, autonomous and diverse, and can be modified, manipulated, deleted or activated without altering the whole–, contribute to obtaining flexible, relational systems, able to mutate or adapt, associated with different levels of regulatory organization, that drive actions and make emerge project logics. Strata that arise elaborately or spontaneously in urban or natural territory (city upon city, floor upon floor), which apply expanding and hybridizing the territory (operational landscapes), which are artificially restated as building mechanisms according to existing requirements (strata program, specialized layers), which are implemented as layers in the software used as design tools (multilayer, systems of informational interchange). A work that is structured in a multi-layered way, which allows explore the thesis as a sequence map, jump between layers of information, or select readings according to an interest in thought or architectural action. Therefore, an investigation into the "architectural stratum" that connects different disciplines, which collects different theoretical/practical positions –which implies the introduction of live parameters and data– and faces a strategic positioning returning to value the architectural stratum –based on formal strategies that have become experimental/operational strategies (as the environment has become more complex), following a conceptual, intellectual, contemporary, own specific strategy–.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El desarrollo de las tecnologías de captura de contenido audiovisual, y la disminución del tamaño de sensores y cámaras, hace posible, a día de hoy, la captura de escenas desde múltiples puntos de vista simultáneamente, generando distintos formatos de vídeo 3D, cuyo elemento común es la inclusión de vídeo multivista. En cuanto a las tecnologías de presentación de vídeo 3D, actualmente existen diversas opciones tecnológicas, entre las cuales empiezan a tomar una gran importancia las gafas de realidad virtual, también conocidas como Head-Mounted Devices (HMD). Este tipo de gafas principalmente han sido utilizadas para la visualización de vídeo panorámico (o 360). Sin embargo, al permitir localizar al usuario (posición de la cabeza y orientación), habilitan también la posibilidad de desarrollar sistemas para la visualización de vídeo multivista, ofreciendo una funcionalidad similar a la de los monitores autoestereoscópicos. En este Trabajo Fin de Grado se ha desarrollado un prototipo de un sistema que permite visualizar vídeo 3D multicámara en las Oculus Rift, un dispositivo HMD. Este sistema toma como entrada una secuencia de vídeos multivista (real o generada por ordenador) y permite, a partir de la información proporcionada por los sensores de las Oculus Rift, variar el punto de vista adaptándolo a la posición del usuario. El sistema desarrollado simula la visualización de un monitor autoestereoscópico y es parametrizable. El sistema permite variar una serie de parámetros como la distancia interocular o la densidad de cámaras, y dispone de varios modos de funcionamiento. Esto permitirá que el sistema pueda utilizarse para distintas secuencias Super MultiView (SMV), volviéndolo a la vez útil para la realización de pruebas subjetivas de calidad de experiencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta investigación analiza la asociación a Sira, la protagonista de la serie de ficción El tiempo entre costuras, de un leitmotiv musical que varía a medida que la acción lo hace. A través de un análisis musical y comunicativo de las apariciones del motivo en la serie se determina cómo evoluciona a la vez que lo hace la psicología del personaje principal para ayudar a transmitir sus sentimientos, emociones y estados de ánimo. Así, no solo se presenta en su exposición original en busca de dar continuidad a diferentes escenas o secuencias, sino que también se varía jugando con diferentes parámetros musicales (melodía, ritmo, armonía, textura y timbre) para conseguir que se adapte a la imagen y a lo que con ella se quiere transmitir. Pero un leitmotiv que, como se verá, independientemente de todos los cambios que se produzcan, se mantiene incluso aunque la protagonista principal cambie de identidad recordando al espectador la permanencia de sus atributos más sólidos a pesar de su evolución en la trama.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Predecir la función biológica de secuencias de Ácido Desoxirribonucleico (ADN) es unos de los mayores desafíos a los que se enfrenta la Bioinformática. Esta tarea se denomina anotación funcional y es un proceso complejo, laborioso y que requiere mucho tiempo. Dado su impacto en investigaciones y anotaciones futuras, la anotación debe ser lo más able y precisa posible. Idealmente, las secuencias deberían ser estudiadas y anotadas manualmente por un experto, garantizando así resultados precisos y de calidad. Sin embargo, la anotación manual solo es factible para pequeños conjuntos de datos o genomas de referencia. Con la llegada de las nuevas tecnologías de secuenciación, el volumen de datos ha crecido signi cativamente, haciendo aún más crítica la necesidad de implementaciones automáticas del proceso. Por su parte, la anotación automática es capaz de manejar grandes cantidades de datos y producir un análisis consistente. Otra ventaja de esta aproximación es su rapidez y bajo coste en relación a la manual. Sin embargo, sus resultados son menos precisos que los manuales y, en general, deben ser revisados ( curados ) por un experto. Aunque los procesos colaborativos de la anotación en comunidad pueden ser utilizados para reducir este cuello de botella, los esfuerzos en esta línea no han tenido hasta ahora el éxito esperado. Además, el problema de la anotación, como muchos otros en el dominio de la Bioinformática, abarca información heterogénea, distribuida y en constante evolución. Una posible aproximación para superar estos problemas consiste en cambiar el foco del proceso de los expertos individuales a su comunidad, y diseñar las herramientas de manera que faciliten la gestión del conocimiento y los recursos. Este trabajo adopta esta línea y propone MASSA (Multi-Agent System to Support functional Annotation), una arquitectura de Sistema Multi-Agente (SMA) para Soportar la Anotación funcional...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La neuralgia del trigémino (NT) es un síndrome doloroso facial caracterizado por un dolor neuropático paroxístico irradiado al territorio sensitivo del nervio trigémino. A lo largo de las últimas décadas la creciente evidencia experimental y clínica ha contribuido a establecer la teoría de una compresión neurovascular (CNV) del nervio trigémino como causa fundamental de este trastorno. Esta teoría apoya el tratamiento quirúrgico de la NT mediante una descompresión microvascular (DMV). Actualmente la DMV es aceptada como la primera opción de tratamiento quirúrgico de la NT refractaria a tratamiento médico. Pese a la cantidad de trabajos que analizan la utilidad de la RM preoperatoria con secuencias de alta resolución volumétricas potenciadas en T2 (RM 3DT2), no hay unanimidad respecto a la precisión de estas secuencias de RM para el diagnóstico y la caracterización de una posible CNV en pacientes con NT refractaria candidatos a tratamiento mediante DMV...