829 resultados para Análisis lingüístico y literario


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este artículo se entiende el paisaje como la percepción polisensorial y subjetiva de la forma en que se manifiesta el sistema territorial y se considera como un recurso susceptible de ser utilizado de múltiples formas, pero siempre bajo la idea de racionalidad, sensatez y sostenibilidad. El carácter de percepción subjetiva del paisaje, supone una gran dificultad para tratarlo técnicamente en los procesos de toma de decisiones que conducen la Planificación Territorial y es a resolver esta dificultad a lo que se orienta la metodología que aquí se expone. La metodología que se presenta ha sido probada con éxito en diversos trabajos de planificación y desarrollo territorial. Se estructura en tres bloques que se desarrollan consecutivamente: en una primera fase se analizan lo que se ha denominado elementos primarios de la percepción (forma, textura, etc.); en una segunda fase se desarrollan los elementos de percepción elaborados para el diagnóstico (base paisajística, intervisibilidad, etc); y en una tercera fase se concretan los elementos de percepción para la decisión (fragilidad del paisaje, capacidad de acogida, etc.), que suponen un último nivel de elaboración que permite insertarlos fácilmente en las propuestas del instrumento que se elabora, generalmente un Plan de Ordenación Territorial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo de Tesis ha abordado el objetivo de dar robustez y mejorar la Detección de Actividad de Voz en entornos acústicos adversos con el fin de favorecer el comportamiento de muchas aplicaciones vocales, por ejemplo aplicaciones de telefonía basadas en reconocimiento automático de voz, aplicaciones en sistemas de transcripción automática, aplicaciones en sistemas multicanal, etc. En especial, aunque se han tenido en cuenta todos los tipos de ruido, se muestra especial interés en el estudio de las voces de fondo, principal fuente de error de la mayoría de los Detectores de Actividad en la actualidad. Las tareas llevadas a cabo poseen como punto de partida un Detector de Actividad basado en Modelos Ocultos de Markov, cuyo vector de características contiene dos componentes: la energía normalizada y la variación de la energía. Las aportaciones fundamentales de esta Tesis son las siguientes: 1) ampliación del vector de características de partida dotándole así de información espectral, 2) ajuste de los Modelos Ocultos de Markov al entorno y estudio de diferentes topologías y, finalmente, 3) estudio e inclusión de nuevas características, distintas de las del punto 1, para filtrar los pulsos de pronunciaciones que proceden de las voces de fondo. Los resultados de detección, teniendo en cuenta los tres puntos anteriores, muestran con creces los avances realizados y son significativamente mejores que los resultados obtenidos, bajo las mismas condiciones, con otros detectores de actividad de referencia. This work has been focused on improving the robustness at Voice Activity Detection in adverse acoustic environments in order to enhance the behavior of many vocal applications, for example telephony applications based on automatic speech recognition, automatic transcription applications, multichannel systems applications, and so on. In particular, though all types of noise have taken into account, this research has special interest in the study of pronunciations coming from far-field speakers, the main error source of most activity detectors today. The tasks carried out have, as starting point, a Hidden Markov Models Voice Activity Detector which a feature vector containing two components: normalized energy and delta energy. The key points of this Thesis are the following: 1) feature vector extension providing spectral information, 2) Hidden Markov Models adjustment to environment and study of different Hidden Markov Model topologies and, finally, 3) study and inclusion of new features, different from point 1, to reject the pronunciations coming from far-field speakers. Detection results, taking into account the above three points, show the advantages of using this method and are significantly better than the results obtained under the same conditions by other well-known voice activity detectors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Doctoral Thesis entitled Contribution to the analysis, design and assessment of compact antenna test ranges at millimeter wavelengths aims to deepen the knowledge of a particular antenna measurement system: the compact range, operating in the frequency bands of millimeter wavelengths. The thesis has been developed at Radiation Group (GR), an antenna laboratory which belongs to the Signals, Systems and Radiocommunications department (SSR), from Technical University of Madrid (UPM). The Radiation Group owns an extensive experience on antenna measurements, running at present four facilities which operate in different configurations: Gregorian compact antenna test range, spherical near field, planar near field and semianechoic arch system. The research work performed in line with this thesis contributes the knowledge of the first measurement configuration at higher frequencies, beyond the microwaves region where Radiation Group features customer-level performance. To reach this high level purpose, a set of scientific tasks were sequentially carried out. Those are succinctly described in the subsequent paragraphs. A first step dealed with the State of Art review. The study of scientific literature dealed with the analysis of measurement practices in compact antenna test ranges in addition with the particularities of millimeter wavelength technologies. Joint study of both fields of knowledge converged, when this measurement facilities are of interest, in a series of technological challenges which become serious bottlenecks at different stages: analysis, design and assessment. Thirdly after the overview study, focus was set on Electromagnetic analysis algorithms. These formulations allow to approach certain electromagnetic features of interest, such as field distribution phase or stray signal analysis of particular structures when they interact with electromagnetic waves sources. Properly operated, a CATR facility features electromagnetic waves collimation optics which are large, in terms of wavelengths. Accordingly, the electromagnetic analysis tasks introduce an extense number of mathematic unknowns which grow with frequency, following different polynomic order laws depending on the used algorithmia. In particular, the optics configuration which was of our interest consisted on the reflection type serrated edge collimator. The analysis of these devices requires a flexible handling of almost arbitrary scattering geometries, becoming this flexibility the nucleus of the algorithmia’s ability to perform the subsequent design tasks. This thesis’ contribution to this field of knowledge consisted on reaching a formulation which was powerful at the same time when dealing with various analysis geometries and computationally speaking. Two algorithmia were developed. While based on the same principle of hybridization, they reached different order Physics performance at the cost of the computational efficiency. Inter-comparison of their CATR design capabilities was performed, reaching both qualitative as well as quantitative conclusions on their scope. In third place, interest was shifted from analysis - design tasks towards range assessment. Millimetre wavelengths imply strict mechanical tolerances and fine setup adjustment. In addition, the large number of unknowns issue already faced in the analysis stage appears as well in the on chamber field probing stage. Natural decrease of dynamic range available by semiconductor millimeter waves sources requires in addition larger integration times at each probing point. These peculiarities increase exponentially the difficulty of performing assessment processes in CATR facilities beyond microwaves. The bottleneck becomes so tight that it compromises the range characterization beyond a certain limit frequency which typically lies on the lowest segment of millimeter wavelength frequencies. However the value of range assessment moves, on the contrary, towards the highest segment. This thesis contributes this technological scenario developing quiet zone probing techniques which achieves substantial data reduction ratii. Collaterally, it increases the robustness of the results to noise, which is a virtual rise of the setup’s available dynamic range. In fourth place, the environmental sensitivity of millimeter wavelengths issue was approached. It is well known the drifts of electromagnetic experiments due to the dependance of the re sults with respect to the surrounding environment. This feature relegates many industrial practices of microwave frequencies to the experimental stage, at millimeter wavelengths. In particular, evolution of the atmosphere within acceptable conditioning bounds redounds in drift phenomena which completely mask the experimental results. The contribution of this thesis on this aspect consists on modeling electrically the indoor atmosphere existing in a CATR, as a function of environmental variables which affect the range’s performance. A simple model was developed, being able to handle high level phenomena, such as feed - probe phase drift as a function of low level magnitudes easy to be sampled: relative humidity and temperature. With this model, environmental compensation can be performed and chamber conditioning is automatically extended towards higher frequencies. Therefore, the purpose of this thesis is to go further into the knowledge of millimetre wavelengths involving compact antenna test ranges. This knowledge is dosified through the sequential stages of a CATR conception, form early low level electromagnetic analysis towards the assessment of an operative facility, stages for each one of which nowadays bottleneck phenomena exist and seriously compromise the antenna measurement practices at millimeter wavelengths.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este estudio se expone una de las actividades llevadas a cabo en la asignatura “Administración de la Empresa Familiar”. Esta práctica se realiza utilizando distintas metodologías docentes afines al Espacio Europeo de Educación Superior: la lección magistral, el estudio de casos y el aprendizaje cooperativo, combinando además estos métodos con un análisis comparativo entre empresas y la técnica de la entrevista en profundidad. El objetivo perseguido es acercar al estudiante a la realidad empresarial que le rodea, en el que el 85 1 por ciento de las empresas son familiares. Se pretende que el estudiante comparta experiencias y se integre durante unas horas en una empresa familiar para que conozca su funcionamiento y pueda aplicar, en la práctica, lo que en teoría se explica en el aula. Además, se intenta que la búsqueda de información sobre la empresa elegida, el contacto que el estudiante mantenga en la entrevista así como la elaboración del informe que el estudiante tendrá que elaborar después, despierte en el alumno el interés por la investigación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En numerosas ocasiones a lo largo de la historia la imaginación de los creadores ha ido por delante de las posibilidades técnicas de cada momento. Así, muchas de estas nuevas ideas han requerido largos periodos de tiempo para materializarse como realidad construida, hasta que el desarrollo tecnológico e industrial hubo alcanzado un grado de madurez suficiente. En el campo de la arquitectura, estas limitaciones técnicas se han ido acotando paulatinamente hasta desembocar en la situación actual en la que cualquier planteamiento formal puede ser representado gráficamente y analizado desde un punto de vista estructural, superádose de este modo la barrera existente históricamente en el tratamiento de las formas. A lo largo del presente tesis doctoral se analiza cómo la formulación del Método de los Elementos Finitos en la década de los cincuenta y las curvas de Bézier en la década de los sesenta del siglo pasado y la posterior generalización de los ordenadores personales y de los programas informáticos asociados (C.A.D. y F.E.M. principalmente) en los estudios de arquitectura e ingeniería a partir de la década de los noventa, posibilitó el desarrollo de cualquier propuesta arquitectónica, por compleja que ésta fuese, provocando una verdadera revolución a nivel formal en el mundo de la arquitectura, especialmente en el campo de la edificación singular o icónica. Se estudia este proceso a través de ocho edificios; cuatro anteriores y otros tantos posteriores a la desaparición de la barrera anteriormente referida, establecida de forma simbólica en la década de los años ochenta del siglo XX: Frontón de Recoletos en Madrid, Edificio Seagram en Nueva York, Habitat ’67 en Montreal, Ópera de Sídney, museo Guggenheim de Bilbao, ampliación del Victoria & Albert Museum en Londres, tanatorio “Meiso no Mori” en Gifu y nueva sede de la CCTV en Pekín. De entre ellos, la Ópera de Sídney, obra del arquitecto danés Jørn Utzon, condensa gran parte de los aspectos relevantes investigados en relación a la influencia que los métodos de representación y análisis estructural ejercen en la concepción y construcción de las obras de arquitectura. Por este motivo y por considerarse un hito de la arquitectura a nivel global se toma como caso de estudio. La idea general del edificio, que data de 1956, se enmarca en una época inmediatamente anterior a la del desarrollo científico y tecnológico anteriormente referido. Esta ausencia de herramientas de diseño disponibles acordes a la complejidad formal de la propuesta planteada condicionó enormente la marcha del proyecto, dilatándose dramáticamente en el tiempo y disparándose su coste hasta el punto de que el propio arquitecto danés fue separado de las obras antes de su conclusión. Además, la solución estructural finalmente construida de las cubiertas dista mucho de la prevista por Utzon inicialmente. Donde él había imaginado unas finas láminas de hormigón flotando sobre el paisaje se materializó una estructura más pesada, formada por costillas pretensadas de hormigón con unas secciones notablemente mayores. La forma también debió ser modificada de modo ostensible respecto a la propuesta inicial. Si este edificio se pretendiese construir en la actualidad, con toda seguridad el curso de los acontecimientos se desarrollaría por senderos muy diferentes. Ante este supuesto, se plantean las siguientes cuestiones: ¿sería posible realizar un análisis estructural de la cubierta laminar planteada por Utzon inicialmente en el concurso con las herramientas disponibles en la actualidad?; ¿sería dicha propuesta viable estructuralmente?. A lo largo de las siguientes páginas se pretende dar respuesta a estas cuestiones, poniendo de relieve el impacto que los ordenadores personales y los programas informáticos asociados han tenido en la manera de concebir y construir edificios. También se han analizado variantes a la solución laminar planteada en la fase de concurso, a través de las cuales, tratando en la medida de lo posible de ajustarse a las sugerencias que Ove Arup y su equipo realizaron a Jørn Utzon a lo largo del dilatado proceso de proyecto, mejorar el comportamiento general de la estructura del edificio. Por último, se ha pretendido partir de cero y plantear, desde una perspectiva contemporánea, posibles enfoques metodológicos aplicables a la búsqueda de soluciones estructurales compatibles con la forma propuesta originalmente por Utzon para las cubiertas de la Ópera de Sídney y que nunca llegó a ser construida (ni analizada), considerando para ello los medios tecnológicos, científicos e industriales disponibles en la actualidad. Abstract On numerous occasions throughout history the imagination of creators has gone well beyond of the technical possibilities of their time. Many new ideas have required a long period to materialize, until the technological and industrial development had time to catch up. In the architecture field, these technical limitations have gradually tightened leading to the current situation in which any formal approach can be represented and analyzed from a structural point of view, thus concluding that the structural analysis and the graphical representation’s barrier in the development of architectural projects has dissappeared. Throughout the following pages it is examined how the development of the Finite Element Method in the fifties and the Bezier curves in the sixties of the last century and the subsequent spread of personal computers and specialized software in the architectural and engineering offices from the nineties, enabled the development of any architectural proposal independently of its complexity. This has caused a revolution at a formal level in architecture, especially in the field of iconic building. This process is analyzed through eight buildings, four of them before and another four after the disappearance of the above mentioned barrier, roughly established in the eighties of the last century: Fronton Recoletos in Madrid, Seagram Building in New York Habitat '67 in Montreal, Sydney Opera House, Guggenheim Museum Bilbao, Victoria & Albert Museum extension in London, Crematorium “Meiso no Mori” in Gifu and the new CCTV headquarters in Beijing. Among them, the Sydney Opera House, designed by Danish architect Jørn Utzon, condenses many of the main aspects previously investigated regarding the impact of representation methods and structural analysis on the design and construction of architectural projects. For this reason and also because it is considered a global architecture milestone, it is selected as a case study. The building’s general idea, which dates from 1956, is framed at a time immediately preceding the above mentioned scientific and technological development. This lack of available design tools in accordance with the proposal’s formal complexity conditioned enormously the project’s progress, leading to a dramatic delay and multiplying the final budget disproportionately to the point that the Danish architect himself was separated from the works before completion. Furthermore, the built structure differs dramatically from the architect’s initial vision. Where Utzon saw a thin concrete shell floating over the landscape a heavier structure was built, consisting of prestressed concrete ribs with a significantly greater size. The geometry also had to be modified. If this building were to built today, the course of events surely would walk very different paths. Given this assumption, a number of questions could then be formulated: Would it be possible to perform a structural analysis of Utzon’s initially proposed competition-free-ways roof’s geometry with the tools available nowadays?; Would this proposal be structurally feasable?. Throughout the following pages it is intended to clarify this issues, highlighting personal computers and associated software’s impact in building design and construction procedures, especially in the field of iconic building. Variants have also been analyzed for the laminar solution proposed in the competition phase, through which, trying as far as possible to comply with the suggestions that Ove Arup and his team did to Jørn Utzon along the lengthy process project, improving the overall performance of the building structure. Finally, we have started from scratch and analyzed, from a contemporary perspective, possible structural solutions compatible with Utzon’s Opera House’s original geometry and vision –proposal that was never built (nor even analyzed)-, taking into consideration the technological, scientific and industrial means currently available.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this research, the halved and tabled traditional timber scarf joint is analyzed. This joint consists in two end joint pieces usually subjected to tension. Initially, the study is discussed from an experimental point of view. In this way, 3 critical cross-sections are established (section of the notch, section of the horizontal plane and reduced section) and mechanical tests are performed to achieve the failure on each of critical sections by changing the geometry of the joint. The study is completed by developing a finite element model which allows verify experimental results and extend the analysis to other geometries. This model has to simulate the real behavior of the material which is being studied, so mechanical tests are performed to obtain the elastic constants and the coefficients of friction of the material. In the reduced section, an abrupt decrease of the effective cross-section takes place, and this effect is also experimentally analyzed. These tests indicate that a crack is initiated before the bending-tension failure occurs in the reduced section. The test material consists of wood of Pinus sylvestris L. coming from the “Valsaín´s Sawmill” (Segovia) with “premium quality” according to the nonstructural wood visual classification of sawmill. It is observed that initiation of a crack, in the mortise (bottom of reduced section), and shear stress concentration, at the initial part of the heel (beginning of horizontal plane), completely determine the mechanical behaviour of the joint, resulting in 3 failure modes: local compression failure in the section of the notch, shear failure in the horizontal plane, and failure of stresses concentration, mainly perpendicular to the grain tension, at the bottom of reduced section. The geometric optimization is obtained for halved and tabled traditional scarf joint, when the joint has made with similar properties of wood than tested specimens, for any height and width of the cross-section. It is considered the failure due to the initiation of a crack in reduced section, by applying a correction coefficient into the usual equation used to design the members subjected to both tension and bending. Therefore, it is possible to obtain, analytically, the design conditions to be met of the 3 critical cross-sections. According to the theoretical optimization, the tension strength of complete cross-section is reduced until 14%, when using this type of joint. The experimental optimization indicates even a greater reduction, until 6%. En el presente trabajo de investigación se analiza el comportamiento mecánico de las uniones tradicionales de empalme de llave, que consisten en dos piezas unidas por sus testas transmitiéndose entre ellas principalmente un esfuerzo de tracción. Inicialmente, el estudio se aborda desde un punto de vista experimental. De este modo, se establecen las 3 secciones críticas o de estudio (sección del encaje, sección rasante del cogote y sección reducida) y se realizan ensayos mecánicos, variando la geometría de la unión, para alcanzar la rotura en cada una de ellas. Se completa el estudio mediante la elaboración de un modelo por elementos finitos que permite verificar los resultados experimentales y ampliar el análisis a otras geometrías. Este modelo debe simular el comportamiento real del material objeto de estudio, por lo que se realizan ensayos para obtener las constantes elásticas y los coeficientes de rozamiento del mismo. También se analiza, experimentalmente, el efecto entalladura que reduce bruscamente la sección completa del tirante, estableciendo que el fallo por flexotracción en la sección reducida de la pieza, no llega a producirse por el inicio previo de una grieta. El material de ensayo consiste en madera de Pinus sylvestris L. (pino silvestre) procedente del Aserradero de Valsaín (Segovia) y de calidad “Extra” o “Primera” según la clasificación visual no estructural del aserradero. Se observa que el inicio de una grieta en la mortaja del rediente y la concentración de tensiones tangenciales en la parte inicial del cogote, determinan completamente el comportamiento mecánico de la unión, dando lugar a 3 modos distintos de rotura: fallo por compresión en la sección del encaje, fallo por cortante en la sección rasante y fallo por concentración de tensiones, principalmente tracciones perpendiculares, en el rebaje de la sección reducida. Se consigue optimizar geométricamente cualquier empalme de llave confeccionado con madera de características similares a la ensayada, para cualquier valor de la altura y de la anchura de la sección. Se considera el agotamiento en la sección reducida causado por el inicio de grieta, mediante la aplicación de un coeficiente corrector en la expresión habitual de agotamiento por flexotracción, en consecuencia, finalmente es posible obtener, de modo analítico, un valor del índice de agotamiento en cada una de las 3 secciones de estudio. La optimización teórica del empalme de llave indica que la capacidad resistente del tirante bruto se reduce al 14%, cuando se coloca este tipo de unión tradicional. Experimentalmente se obtiene, que, para la sección ensayada, la capacidad resistente del tirante bruto se reduce todavía más, llegando al 6%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rhizobium leguminosarum (Rl) es una alfa-proteobacteria capaz de establecer una simbiosis diazotrófica con distintas leguminosas. A pesar de la importancia de esta simbiosis en el balance global del ciclo del nitrógeno, muy pocos genomas de rhizobios han sido secuenciados, que aporten nuevos conocimientos relacionados con las características genéticas que contribuyen a importantes procesos simbióticos. Únicamente tres secuencias completas de Rl han sido publicadas: Rl bv. viciae 3841 y dos genomas de Rl bv. trifolii (WSM1325 y WSM2304), ambos simbiontes de trébol. La secuencia genómica de Rlv UPM791 se ha determinado por medio de secuenciación 454. Este genoma tiene un tamaño aproximado de 7.8 Mb, organizado en un cromosoma y 5 replicones extracromosómicos, que incluyen un plásmido simbiótico de 405 kb. Este nuevo genoma se ha analizado en relación a las funciones simbióticas y adaptativas en comparación con los genomas completos de Rlv 3841 y Rl bv. trifolii WSM1325 y WSM2304. Mientras que los plásmidos pUPM791a y b se encuentran conservados, el plásmido simbiótico pUPM791c exhibe un grado de conservación muy bajo comparado con aquellos descritos en las otras cepas de Rl. Uno de los factores implicados en el establecimiento de la simbiosis es el sistema de comunicación intercelular conocido como Quorum Sensing (QS). El análisis del genoma de Rlv UPM791 ha permitido la identificación de dos sistemas tipo LuxRI mediados por señales de tipo N-acyl-homoserina lactonas (AHLs). El análisis mediante HPLC-MS ha permitido asociar las señales C6-HSL, C7-HSL y C8-HSL al sistema rhiRI, codificado en el plásmido simbiótico; mientras que el sistema cinRI, localizado en el cromosoma, produce 3OH-C14:1-HSL. Se ha identificado una tercera sintasa (TraI) codificada en el plásmido simbiótico, pero su regulador correspondiente se encuentra truncado debido a un salto de fase. Adicionalmente, se han encontrado tres reguladores de tipo LuxR-orphan que no presentan una sintasa LuxI asociada. El efecto potencial de las señales tipo AHL se ha estudiado mediante una estrategia de quorum quenching, la cual interfiere con los sistemas de QS de la bacteria. Esta estrategia está basada en la introducción del gen aiiA de Bacillus subtilis, que expresa constitutivamente una enzima lactonasa degradadora de AHLs. Para llevar a cabo el análisis en condiciones simbióticas, se ha desarrollado un sistema de doble marcaje que permite la identificación basado en los marcadores gusA y celB, que codifican para una enzima β–glucuronidasa y una β–galactosidasa termoestable, respectivamente. Los resultados obtenidos indican que Rlv UPM791 predomina sobre la cepa Rlv 3841 para la formación de nódulos en plantas de guisante. La baja estabilidad del plásmido que codifica para aiiA, no ha permitido obtener una conclusión definitiva sobre el efecto de la lactonasa AiiA en competitividad. Con el fin de analizar el significado y la regulación de la producción de moléculas señal tipo AHL, se han generado mutantes defectivos en cada uno de los dos sistemas de QS. Se ha llevado a cabo un análisis detallado sobre la producción de AHLs, formación de biofilm y simbiosis con plantas de guisante, veza y lenteja. El efecto de las deleciones de los genes rhiI y rhiR en Rlv UPM791 es más drástico en ausencia del plásmido pUPM791d. Mutaciones en cinI o cinRIS muestran tanto ausencia de señales, como producción exclusivamente de las de bajo peso molecular, respectivamente, producidas por el sistema rhiRI. Estas mutaciones mostraron un efecto importante en simbiosis. El sistema rhiRI se necesita para un comportamiento simbiótico normal. Además, mutantes cinRIS generaron nódulos blancos e ineficientes, mientras que el mutante cinI fue incapaz de producir nódulos en ninguna de las leguminosas utilizadas. Dicha mutación resultó en la inestabilización del plasmido simbiótico por un mecanismo dependiente de cinI que no ha sido aclarado. En general, los resultados obtenidos indican la existencia de un modelo de regulación dependiente de QS significativamente distinto a los que se han descrito previamente en otras cepas de R. leguminosarum, en las cuales no se había observado ningún fenotipo relevante en simbiosis. La regulación de la producción de AHLs Rlv UPM791 es un proceso complejo que implica genes situados en los plásmidos UPM791c y UPM791d, además de la señal 3-OH-C14:1-HSL. Finalmente, se ha identificado un transportador de tipo RND, homologo a mexAB-oprM de P. aeruginosa e implicado en la extrusión de AHLs de cadena larga. La mutación he dicho transportador no tuvo efectos apreciables sobre la simbiosis. ABSTRACT Rhizobium leguminosarum (Rl) is a soil alpha-proteobacterium that establishes a diazotrophic symbiosis with different legumes. Despite the importance of this symbiosis to the global nitrogen cycling balance, very few rhizobial genomes have been sequenced so far which provide new insights into the genetic features contributing to symbiotically relevant processes. Only three complete sequences of Rl strains have been published: Rl bv. viciae 3841, harboring six plasmids (7.75 Mb) and two Rl bv. trifolii (WSM1325 and WSM2304), both clover symbionts, harboring 5 and 4 plasmids, respectively (7.41 and 6.87 Mb). The genomic sequence of Rlv UPM791 was undertaken by means of 454 sequencing. Illumina and Sanger reads were used to improve the assembly, leading to 17 final contigs. This genome has an estimated size of 7.8 Mb organized in one chromosome and five extrachromosomal replicons, including a 405 kb symbiotic plasmid. Four of these plasmids are already closed, whereas there are still gaps in the smallest one (pUPM791d) due to the presence of insertion elements and repeated sequences, which difficult the assembly. The annotation has been carried out thanks to the Manatee pipeline. This new genome has been analyzed as regarding symbiotic and adaptive functions in comparison to the Rlv 3841 complete genome, and to those from Rl bv. trifolii strains WSM1325 and WSM2304. While plasmids pUPM791a and b are conserved, the symbiotic plasmid pUPM791c exhibited the lowest degree of conservation as compared to those from the other Rl strains. One of the factors involved in the symbiotic process is the intercellular communication system known as Quorum Sensing (QS). This mechanism allows bacteria to carry out diverse biological processes in a coordinate way through the production and detection of extracellular signals that regulate the transcription of different target genes. Analysis of the Rlv UPM791 genome allowed the identification of two LuxRI-like systems mediated by N-acyl-homoserine lactones (AHLs). HPLC-MS analysis allowed the adscription of C6-HSL, C7-HSL and C8-HSL signals to the rhiRI system, encoded in the symbiotic plasmid, whereas the cinRI system, located in the chromosome, produces 3OH-C14:1-HSL, previously described as “bacteriocin small”. A third synthase (TraI) is encoded also in the symbiotic plasmid, but its cognate regulator TraR is not functional due to a fameshift mutation. Three additional LuxR orphans were also found which no associated LuxI-type synthase. The potential effect of AHLs has been studied by means of a quorum quenching approach to interfere with the QS systems of the bacteria. This approach is based upon the introduction into the strains Rl UPM791 and Rl 3841 of the Bacillus subtilis gene aiiA expressing constitutively an AHL-degrading lactonase enzyme which led to virtual absence of AHL even when AiiA-expressing cells were a fraction of the total population. No significant effect of AiiA-mediated AHL removal on competitiveness for growth in solid surface was observed. For analysis under symbiotic conditions we have set up a two-label system to identify nodules produced by two different strains in pea roots, based on the markers gusA and celB, encoding a β–glucuronidase and a thermostable β–galactosidase enzymes, respectively. The results obtained show that Rlv UPM791 outcompetes Rlv 3841 for nodule formation in pea plants, and that the presence of the AiiA plasmid does not significantly affect the relative competitiveness of the two Rlv strains. However, the low stability of the pME6863 plasmid, encoding aiiA, did not lead to a clear conclusion about the AiiA lactonase effect on competitiveness. In order to further analyze the significance and regulation of the production of AHL signal molecules, mutants deficient in each of the two QS systems were constructed. A detailed analysis of the effect of these mutations on AHL production, biofilm formation and symbiosis with pea, vetch and lentil plants has been carried out. The effect of deletions on Rlv UPM791 rhiI and rhiR genes is more pronounced in the absence of plasmid pUPM791d, as no signal is detected in UPM791.1, lacking this plasmid. Mutations in cinI or cinRIS show either no signals, or only the small ones produced by the rhiRI system, suggesting that cinR might be regulating the rhiRI system. These mutations had a strong effect on symbiosis. Analysis of rhi mutants revealed that rhiRI system is required for normal symbiotic performance, as a drastic reduction of symbiotic fitness is observed when rhiI is deleted, and rhiR is essential for nitrogen fixation in the absence of plasmid pUPM791d. Furthermore, cinRIS mutants resulted in white and inefficient nodules, whereas cinI mutant was unable to form nodules on any legume tested. The latter mutation is associated to the instabilization of the symbiotic plasmid through a mechanism still uncovered. Overall, the results obtained indicate the existence of a model of QS-dependent regulation significantly different to that previously described in other R. leguminosarum strains, where no relevant symbiotic phenotype had been observed. The regulation of AHL production in Rlv UPM791 is a complex process involving the symbiotic plasmid (pUPM791c) and the smallest plasmid (pUPM791d), with a key role for the 3-OH-C14:1-HSL signal. Finally, we made a search for potential AHL transporters in Rlv UPM791 genome. These signals diffuse freely across membranes, but in the case of the long-chain AHLs an active efflux system might be required, as it has been described for C12-HSL in the case of Pseudomonas aeruginosa. We have identified a putative AHL transporter of the RND family homologous to P. aeruginosa mexAB-oprM. A mutant strain deficient in this transporter has been generated, and TLC analysis shows absence of 3OH-C14:1-HSL in its supernatant. This deficiency was complemented by the reintroduction of an intact copy of the genes via plasmid transfer. The mutation in mexAB genes had no significant effects on the symbiotic performance of R. leguminosarum bv. viciae.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ANÁLISIS CONSTRUCTIVO Y DIMENSIONAL DE FACHADAS DE LA GRAN VÍA MADRILEÑA

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente estudio, se realizó en las instalaciones del CSD con los velocistas del Centro de Alto Rendimiento, se analizó en él una carrera de velocidad de 100m utilizando instrumentos novedosos como son el láser para la obtención de la velocidad instantánea y plantillas podológicas instrumentadas para la medición de la fuerza vertical de los apoyos. Estos instrumentos nos aportan una información imposible de conseguir hasta la fecha fuera de un contexto de laboratorio permitiendo que podamos analizar con detalle en cada fase de la carrera de velocidad tanto la cinemática como la cinética de la misma. Además, a partir de los resultados que nos aportan estos instrumentos y de su posterior análisis, nos encontramos en disposición de entregar a los entrenadores con los que colaboramos un informe detallado acerca de las características específicas de sus corredores en cada tramo de la carrera que les permitirá hacer los ajustes necesarios en su entrenamiento con los que optimizar el rendimiento de sus atletas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En esta tesis se va a describir y aplicar de forma novedosa la técnica del alisado exponencial multivariante a la predicción a corto plazo, a un día vista, de los precios horarios de la electricidad, un problema que se está estudiando intensivamente en la literatura estadística y económica reciente. Se van a demostrar ciertas propiedades interesantes del alisado exponencial multivariante que permiten reducir el número de parámetros para caracterizar la serie temporal y que al mismo tiempo permiten realizar un análisis dinámico factorial de la serie de precios horarios de la electricidad. En particular, este proceso multivariante de elevada dimensión se estimará descomponiéndolo en un número reducido de procesos univariantes independientes de alisado exponencial caracterizado cada uno por un solo parámetro de suavizado que variará entre cero (proceso de ruido blanco) y uno (paseo aleatorio). Para ello, se utilizará la formulación en el espacio de los estados para la estimación del modelo, ya que ello permite conectar esa secuencia de modelos univariantes más eficientes con el modelo multivariante. De manera novedosa, las relaciones entre los dos modelos se obtienen a partir de un simple tratamiento algebraico sin requerir la aplicación del filtro de Kalman. De este modo, se podrán analizar y poner al descubierto las razones últimas de la dinámica de precios de la electricidad. Por otra parte, la vertiente práctica de esta metodología se pondrá de manifiesto con su aplicación práctica a ciertos mercados eléctricos spot, tales como Omel, Powernext y Nord Pool. En los citados mercados se caracterizará la evolución de los precios horarios y se establecerán sus predicciones comparándolas con las de otras técnicas de predicción. ABSTRACT This thesis describes and applies the multivariate exponential smoothing technique to the day-ahead forecast of the hourly prices of electricity in a whole new way. This problem is being studied intensively in recent statistics and economics literature. It will start by demonstrating some interesting properties of the multivariate exponential smoothing that reduce drastically the number of parameters to characterize the time series and that at the same time allow a dynamic factor analysis of the hourly prices of electricity series. In particular this very complex multivariate process of dimension 24 will be estimated by decomposing a very reduced number of univariate independent of exponentially smoothing processes each characterized by a single smoothing parameter that varies between zero (white noise process) and one (random walk). To this end, the formulation is used in the state space model for the estimation, since this connects the sequence of efficient univariate models to the multivariate model. Through a novel way, relations between the two models are obtained from a simple algebraic treatment without applying the Kalman filter. Thus, we will analyze and expose the ultimate reasons for the dynamics of the electricity price. Moreover, the practical aspect of this methodology will be shown by applying this new technique to certain electricity spot markets such as Omel, Powernext and Nord Pool. In those markets the behavior of prices will be characterized, their predictions will be formulated and the results will be compared with those of other forecasting techniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proponer un método de valoración antropométrica y de condición física para la identificación temprana de niños con sobrepeso y obesidad en el entorno escolar. Tras seleccionar los estudios más importantes de valoración de la condición física desde la década de los ochenta hasta la fecha, se decidió llevar a cabo un estudio estadístico de más de 20.000 sujetos de 6 a 18 años y de múltiples regiones de la geografía española a los que se les han realizado las pruebas de esfuerzo de la batería Eurofit.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El MC en baloncesto es aquel fenómeno relacionado con el juego que presenta unas características particulares determinadas por la idiosincrasia de un equipo y puede afectar a los protagonistas y por ende al devenir del juego. En la presente Tesis se ha estudiado la incidencia del MC en Liga A.C.B. de baloncesto y para su desarrollo en profundidad se ha planteado dos investigaciones una cuantitativa y otra cualitativa cuya metodología se detalla a continuación: La investigación cuantitativa se ha basado en la técnica de estudio del “Performance analysis”, para ello se han estudiado cuatro temporadas de la Liga A.C.B. (del 2007/08 al 2010/11), tal y como refleja en la bibliografía consultada se han tomado como momentos críticos del juego a los últimos cinco minutos de partidos donde la diferencia de puntos fue de seis puntos y todos los Tiempos Extras disputados, de tal manera que se han estudiado 197 momentos críticos. La contextualización del estudio se ha hecho en función de la variables situacionales “game location” (local o visitante), “team quality” (mejores o peores clasificados) y “competition” (fases de LR y Playoff). Para la interpretación de los resultados se han realizado los siguientes análisis descriptivos: 1) Análisis Discriminante, 2) Regresión Lineal Múltiple; y 3) Análisis del Modelo Lineal General Multivariante. La investigación cualitativa se ha basado en la técnica de investigación de la entrevista semiestructurada. Se entrevistaron a 12 entrenadores que militaban en la Liga A.C.B. durante la temporada 2011/12, cuyo objetivo ha sido conocer el punto de vista que tiene el entrenador sobre el concepto del MC y que de esta forma pudiera dar un enfoque más práctico basado en su conocimiento y experiencia acerca de cómo actuar ante el MC en el baloncesto. Los resultados de ambas investigaciones coinciden en señalar la importancia del MC sobre el resultado final del juego. De igual forma, el concepto en sí entraña una gran complejidad por lo que se considera fundamental la visión científica de la observación del juego y la percepción subjetiva que presenta el entrenador ante el fenómeno, para la cual los aspectos psicológicos de sus protagonistas (jugadores y entrenadores) son determinantes. ABSTRACT The Critical Moment (CM) in basketball is a related phenomenon with the game that has particular features determined by the idiosyncrasies of a team and can affect the players and therefore the future of the game. In this Thesis we have studied the impact of CM in the A.C.B. League and from a profound development two investigations have been raised, quantitative and qualitative whose methodology is as follows: The quantitative research is based on the technique of study "Performance analysis", for this we have studied four seasons in the A.C.B. League (2007/08 to 2010/11), and as reflected in the literature the Critical Moments of the games were taken from the last five minutes of games where the point spread was six points and all overtimes disputed, such that 197 critical moments have been studied. The contextualization of the study has been based on the situational variables "game location" (home or away), "team quality" (better or lower classified) and "competition" (LR and Playoff phases). For the interpretation of the results the following descriptive analyzes were performed: 1) Discriminant Analysis, 2) Multiple Linear Regression Analysis; and 3) Analysis of Multivariate General Linear Model. Qualitative research is based on the technique of investigation of a semi-structured interview. 12 coaches who belonged to the A.C.B. League were interviewed in seasons 2011/12, which aimed to determine the point of view that the coach has on the CM concept and thus could give a more practical approach based on their knowledge and experience about how to deal with the CM in basketball. The results of both studies agree on the importance of the CM on the final outcome of the game. Similarly, the concept itself is highly complex so the scientific view of the observation of the game is considered essential as well as the subjective perception the coach presents before the phenomenon, for which the psychological aspects of their characters (players and coaches) are crucial.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto tiene la finalidad de diseñar una herramienta mediante métodos numéricos implementados en Matlab que permita estudiar los fenómenos térmicos que tiene lugar en los cables subterráneos de potencia cuando se encuentran en carga. Y a partir de las soluciones obtenidas determinar la capacidad máxima del transporte del cable para un emplazamiento determinado.