150 resultados para Uniones temporales


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La telepesencia combina diferentes modalidades sensoriales, incluyendo, entre otras, la visual y la del tacto, para producir una sensación de presencia remota en el operador. Un elemento clave en la implementación de sistemas de telepresencia para permitir una telemanipulación del entorno remoto es el retorno de fuerza. Durante una telemanipulación, la energía mecánica es transferida entre el operador humano y el entorno remoto. En general, la energía es una propiedad de los objetos físicos, fundamental en su mutual interacción. En esta interacción, la energía se puede transmitir entre los objetos, puede cambiar de forma pero no puede crearse ni destruirse. En esta tesis, se aplica este principio fundamental para derivar un nuevo método de control bilateral que permite el diseño de sistemas de teleoperación estables para cualquier arquitectura concebible. El razonamiento parte del hecho de que la energía mecánica insertada por el operador humano en el sistema debe transferirse hacia el entorno remoto y viceversa. Tal como se verá, el uso de la energía como variable de control permite un tratamiento más general del sistema que el control convencional basado en variables específicas del sistema. Mediante el concepto de Red de Potencia de Retardo Temporal (RPRT), el problema de definir los flujos de energía en un sistema de teleoperación es solucionado con independencia de la arquitectura de comunicación. Como se verá, los retardos temporales son la principal causa de generación de energía virtual. Este hecho se observa con retardos a partir de 1 milisegundo. Esta energía virtual es añadida al sistema de forma intrínseca y representa la causa principal de inestabilidad. Se demuestra que las RPRTs son transportadoras de la energía deseada intercambiada entre maestro y esclavo pero a la vez generadoras de energía virtual debido al retardo temporal. Una vez estas redes son identificadas, el método de Control de Pasividad en el Dominio Temporal para RPRTs se propone como mecanismo de control para asegurar la pasividad del sistema, y as__ la estabilidad. El método se basa en el simple hecho de que esta energía virtual debido al retardo debe transformarse en disipación. As__ el sistema se aproxima al sistema deseado, donde solo la energía insertada desde un extremo es transferida hacia el otro. El sistema resultante presenta dos cualidades: por un lado la estabilidad del sistema queda garantizada con independencia de la arquitectura del sistema y del canal de comunicación; por el otro, el rendimiento es maximizado en términos de fidelidad de transmisión energética. Los métodos propuestos se sustentan con sistemas experimentales con diferentes arquitecturas de control y retardos entre 2 y 900 ms. La tesis concluye con un experimento que incluye una comunicación espacial basada en el satélite geoestacionario ASTRA. ABSTRACT Telepresence combines different sensorial modalities, including vision and touch, to produce a feeling of being present in a remote location. The key element to successfully implement a telepresence system and thus to allow telemanipulation of a remote environment is force feedback. In a telemanipulation, mechanical energy must convey from the human operator to the manipulated object found in the remote environment. In general, energy is a property of all physical objects, fundamental to their mutual interactions in which the energy can be transferred among the objects and can change form but cannot be created or destroyed. In this thesis, we exploit this fundamental principle to derive a novel bilateral control mechanism that allows designing stable teleoperation systems with any conceivable communication architecture. The rationale starts from the fact that the mechanical energy injected by a human operator into the system must be conveyed to the remote environment and Vice Versa. As will be seen, setting energy as the control variable allows a more general treatment of the controlled system in contrast to the more conventional control of specific systems variables. Through the Time Delay Power Network (TDPN) concept, the issue of defining the energy flows involved in a teleoperation system is solved with independence of the communication architecture. In particular, communication time delays are found to be a source of virtual energy. This fact is observed with delays starting from 1 millisecond. Since this energy is added, the resulting teleoperation system can be non-passive and thus become unstable. The Time Delay Power Networks are found to be carriers of the desired exchanged energy but also generators of virtual energy due to the time delay. Once these networks are identified, the Time Domain Passivity Control approach for TDPNs is proposed as a control mechanism to ensure system passivity and therefore, system stability. The proposed method is based on the simple fact that this intrinsically added energy due to the communication must be transformed into dissipation. Then the system becomes closer to the ambitioned one, where only the energy injected from one end of the system is conveyed to the other one. The resulting system presents two benefits: On one hand, system stability is guaranteed through passivity independently from the chosen control architecture and communication channel; on the other, performance is maximized in terms of energy transfer faithfulness. The proposed methods are sustained with a set of experimental implementations using different control architectures and communication delays ranging from 2 to 900 milliseconds. An experiment that includes a communication Space link based on the geostationary satellite ASTRA concludes this thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo se centra en el estudio de problemas aeroacústicos en los trenes de alta velocidad. Se han considerado dos escenarios en los que las ondas de presión generadas son críticos para el confort de los pasajeros. Uno es el debido a las ondas de presión que genera el tren cuando entra y sale de un túnel, que a su vez producen saltos de presión de baja frecuencia en el tren (cuando se cruzan con él) y en los alrededores del túnel cuando alcanzan la salida. Se estudia este fenómeno, y se propone un sistema aeroelástico basado en el galope transversal para disminuir la energía de estas ondas, y se analiza la energía extraíble de las ondas utilizando cuerpos con diferentes secciones transversales [Sorribes-Palmer and Sanz-Andres, 2013]. La influencia de la geometría de los portales en la energía radiada hacia el exterior de túnel es analizada experimentalmente, prestando especial atención a las boquillas porosas. Las ondas de presión en el interior del túnel se han analizado mediante el método de las características. Se han realizado ensayos experimentales para estimar la energía reflejada hacia el interior del túnel al alcanzar las ondas de presión el portal de salida del túnel. Se ha estudiado la formación e interacción entre el portal del túnel y la onda de choque generada en los túneles de gran longitud y pequeña fricción. Se propone un método para describir de forma aproximada el ruido radiado al exterior. Por otro lado se ha estudiado el ruido de media y alta frecuencia de origen aerodinámico. Se ha estudiado la influencia del desprendimiento de la capa límite sobre el tren. Se propone una metodología basada en una sección de tren característica para predecir rápidamente el nivel de presión de sonido dentro y fuera del tren para todo el rango de frecuencias. Se han realizado medidas experimentales en vía de los espectros de presión sobre la superficie del tren, y de la transmisibilidad de las uniones entre estructura y revestimiento. Los resultados experimentales se han utilizado en los modelos vibroacústicos. El método de la sección del tren característica es especialmente útil a altas frecuencias cuando todo el tren se puede modelar mediante el ensamblaje de diferentes secciones características utilizando el análisis estadístico de la energía. ABSTRACT This work is focused on the study of aeroacoustic problems in high speed trains. We have considered two scenarios in which the pressure waves generated are critical for passengers comfort. The first one is due to the pressure waves generated by a train entering in a tunnel. These waves generate pressure gauges inside the train (when they find each other) and outside of the tunnel portals. This phenomenon has been studied, and an aeroelastic system based on transverse galloping to reduce the energy of these waves is proposed. The maximum extractable energy by using bodies with different cross-section shapes is analyzed. The influence of the portals geometry in the energy radiated outwards the tunnel is analyzed experimentally, with particular attention to the porous exits. The pressure waves inside the tunnel have been analyzed using the method of characteristics. Experimental tests to estimate the energy reflected into the tunnel when the pressure waves reach the tunnel portal have been performed. We have studied the generation and interaction between the tunnel portal and a shock wave generated in long tunnels with small friction. A method to describe in an approximated way the pressure radiated outside the tunnel is proposed. In the second scenario, middle and high frequency noise generated aerodynamically has been studied, including the influence of the detachment of the boundary layer around the train. A method based on a train section to quickly predict the sound pressure level inside and outside the train has been proposed. Experimental test have been performed on board to evaluate the pressure power spectra on the surface of the train, and the transmissibility of the junctions between the structure and trim. These experimental results have been used in the vibroacoustic models. The low frequency pressure waves generated with the train during the tunnel crossing has been identified in the pressure spectrum. The train characteristic section method is especially useful at high frequencies, when the whole train can be modeled by assembling different sections using the statistical energy analysis. The sound pressure level inside the train is evaluated inside and outside the tunnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si no tenemos en cuenta posibles procesos subyacentes con significado físico, químico, económico, etc., podemos considerar una serie temporal como un mero conjunto ordenado de valores y jugar con él algún inocente juego matemático como transformar dicho conjunto en otro objeto con la ayuda de una operación matemática para ver qué sucede: qué propiedades del conjunto original se conservan, cuáles se transforman y cómo, qué podemos decir de alguna de las dos representaciones matemáticas del objeto con sólo atender a la otra... Este ejercicio sería de cierto interés matemático por sí solo. Ocurre, además, que las series temporales son un método universal de extraer información de sistemas dinámicos en cualquier campo de la ciencia. Esto hace ganar un inesperado interés práctico al juego matemático anteriormente descrito, ya que abre la posibilidad de analizar las series temporales (vistas ahora como evolución temporal de procesos dinámicos) desde una nueva perspectiva. Hemos para esto de asumir la hipótesis de que la información codificada en la serie original se conserva de algún modo en la transformación (al menos una parte de ella). El interés resulta completo cuando la nueva representación del objeto pertencece a un campo de la matemáticas relativamente maduro, en el cual la información codificada en dicha representación puede ser descodificada y procesada de manera efectiva. ABSTRACT Disregarding any underlying process (and therefore any physical, chemical, economical or whichever meaning of its mere numeric values), we can consider a time series just as an ordered set of values and play the naive mathematical game of turning this set into a different mathematical object with the aids of an abstract mapping, and see what happens: which properties of the original set are conserved, which are transformed and how, what can we say about one of the mathematical representations just by looking at the other... This exercise is of mathematical interest by itself. In addition, it turns out that time series or signals is a universal method of extracting information from dynamical systems in any field of science. Therefore, the preceding mathematical game gains some unexpected practical interest as it opens the possibility of analyzing a time series (i.e. the outcome of a dynamical process) from an alternative angle. Of course, the information stored in the original time series should be somehow conserved in the mapping. The motivation is completed when the new representation belongs to a relatively mature mathematical field, where information encoded in such a representation can be effectively disentangled and processed. This is, in a nutshell, a first motivation to map time series into networks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El primer procesamiento estricto realizado con el software científico Bernese y contemplando las más estrictas normas de cálculo recomendadas internacionalmente, permitió obtener un campo puntual de alta exactitud, basado en la integración y estandarización de los datos de una red GPS ubicada en Costa Rica. Este procesamiento contempló un total de 119 semanas de datos diarios, es decir unos 2,3 años, desde enero del año 2009 hasta abril del año 2011, para un total de 30 estaciones GPS, de las cuales 22 están ubicadas en el territorio nacional de Costa Rica y 8 internaciones pertenecientes a la red del Sistema Geocéntrico para las Américas (SIRGAS). Las denominadas soluciones semilibres generaron, semana a semana, una red GPS con una alta exactitud interna definida por medio de los vectores entre las estaciones y las coordenadas finales de la constelación satelital. La evaluación semanal dada por la repetibilidad de las soluciones brindó en promedio errores de 1,7 mm, 1,4 mm y 5,1 mm en las componentes [n e u], confirmando una alta consistencia en estas soluciones. Aunque las soluciones semilibres poseen una alta exactitud interna, las mismas no son utilizables para fines de análisis cinemático, pues carecen de un marco de referencia. En Latinoamérica, la densificación del Marco Internacional Terrestre de Referencia (ITRF), está representado por la red de estaciones de operación continua GNSS de SIRGAS, denominada como SIRGAS-CON. Por medio de las denominadas coordenadas semanales finales de las 8 estaciones consideradas como vínculo, se refirió cada una de las 119 soluciones al marco SIRGAS. La introducción del marco de referencia SIRGAS a las soluciones semilibres produce deformaciones en estas soluciones. Las deformaciones de las soluciones semilibres son producto de las cinemática de cada una de las placas en las que se ubican las estaciones de vínculo. Luego de efectuado el amarre semanal a las coordenadas SIRGAS, se hizo una estimación de los vectores de velocidad de cada una de las estaciones, incluyendo las de amarre, cuyos valores de velocidad se conocen con una alta exactitud. Para la determinación de las velocidades de las estaciones costarricenses, se programó una rutina en ambiente MatLab, basada en una ajuste por mínimos cuadrados. Los valores obtenidos en el marco de este proyecto en comparación con los valores oficiales, brindaron diferencias promedio del orden de los 0,06 cm/a, -0,08 cm/a y -0,10 cm/a respectivamente para las coordenadas [X Y Z]. De esta manera se logró determinar las coordenadas geocéntricas [X Y Z]T y sus variaciones temporales [vX vY vZ]T para el conjunto de 22 estaciones GPS de Costa Rica, dentro del datum IGS05, época de referencia 2010,5. Aunque se logró una alta exactitud en los vectores de coordenadas geocéntricas de las 22 estaciones, para algunas de las estaciones el cálculo de las velocidades no fue representativo debido al relativo corto tiempo (menos de un año) de archivos de datos. Bajo esta premisa, se excluyeron las ocho estaciones ubicadas al sur de país. Esto implicó hacer una estimación del campo local de velocidades con solamente veinte estaciones nacionales más tres estaciones en Panamá y una en Nicaragua. El algoritmo usado fue el denominado Colocación por Mínimos Cuadrados, el cual permite la estimación o interpolación de datos a partir de datos efectivamente conocidos, el cual fue programado mediante una rutina en ambiente MatLab. El campo resultante se estimó con una resolución de 30' X 30' y es altamente constante, con una velocidad resultante promedio de 2,58 cm/a en una dirección de 40,8° en dirección noreste. Este campo fue validado con base en los datos del modelo VEMOS2009, recomendado por SIRGAS. Las diferencias de velocidad promedio para las estaciones usadas como insumo para el cálculo del campo fueron del orden los +0,63 cm/a y +0,22 cm/a para los valores de velocidad en latitud y longitud, lo que supone una buena determinación de los valores de velocidad y de la estimación de la función de covarianza empírica, necesaria para la aplicación del método de colocación. Además, la grilla usada como base para la interpolación brindó diferencias del orden de -0,62 cm/a y -0,12 cm/a para latitud y longitud. Adicionalmente los resultados de este trabajo fueron usados como insumo para hacer una aproximación en la definición del límite del llamado Bloque de Panamá dentro del territorio nacional de Costa Rica. El cálculo de las componentes del Polo de Euler por medio de una rutina programa en ambiente MatLab y aplicado a diferentes combinaciones de puntos no brindó mayores aportes a la definición física de este límite. La estrategia lo que confirmó fue simplemente la diferencia en la dirección de todos los vectores velocidad y no permitió reveló revelar con mayor detalle una ubicación de esta zona dentro del territorio nacional de Costa Rica. ABSTRACT The first strict processing performed with the Bernese scientific software and contemplating the highest standards internationally recommended calculation, yielded a precise field of high accuracy, based on the integration and standardization of data from a GPS network located in Costa Rica. This processing watched a total of 119 weeks of daily data, is about 2.3 years from January 2009 to April 2011, for a total of 30 GPS stations, of which 22 are located in the country of Costa Rica and 8 hospitalizations within the network of Geocentric System for the Americas (SIRGAS). The semi-free solutions generated, every week a GPS network with high internal accuracy defined by vectors between stations and the final coordinates of the satellite constellation. The weekly evaluation given by repeatability of the solutions provided in average errors of 1.7 mm 1.4 mm and 5.1 mm in the components [n e u], confirming a high consistency in these solutions. Although semi-free solutions have a high internal accuracy, they are not used for purposes of kinematic analysis, because they lack a reference frame. In Latin America, the densification of the International Terrestrial Reference Frame (ITRF), is represented by a network of continuously operating GNSS stations SIRGAS, known as SIRGAS-CON. Through weekly final coordinates of the 8 stations considered as a link, described each of the solutions to the frame 119 SIRGAS. The introduction of the frame SIRGAS to semi-free solutions generates deformations. The deformations of the semi-free solutions are products of the kinematics of each of the plates in which link stations are located. After SIRGAS weekly link to SIRGAS frame, an estimate of the velocity vectors of each of the stations was done. The velocity vectors for each SIRGAS stations are known with high accuracy. For this calculation routine in MatLab environment, based on a least squares fit was scheduled. The values obtained compared to the official values, gave average differences of the order of 0.06 cm/yr, -0.08 cm/yr and -0.10 cm/yr respectively for the coordinates [XYZ]. Thus was possible to determine the geocentric coordinates [XYZ]T and its temporal variations [vX vY vZ]T for the set of 22 GPS stations of Costa Rica, within IGS05 datum, reference epoch 2010.5. The high accuracy vector for geocentric coordinates was obtained, however for some stations the velocity vectors was not representative because of the relatively short time (less than one year) of data files. Under this premise, the eight stations located in the south of the country were excluded. This involved an estimate of the local velocity field with only twenty national stations plus three stations in Panama and Nicaragua. The algorithm used was Least Squares Collocation, which allows the estimation and interpolation of data from known data effectively. The algorithm was programmed with MatLab. The resulting field was estimated with a resolution of 30' X 30' and is highly consistent with a resulting average speed of 2.58 cm/y in a direction of 40.8° to the northeast. This field was validated based on the model data VEMOS2009 recommended by SIRGAS. The differences in average velocity for the stations used as input for the calculation of the field were of the order of +0.63 cm/yr, +0.22 cm/yr for the velocity values in latitude and longitude, which is a good determination velocity values and estimating the empirical covariance function necessary for implementing the method of application. Furthermore, the grid used as the basis for interpolation provided differences of about -0.62 cm/yr, -0.12 cm/yr to latitude and longitude. Additionally, the results of this investigation were used as input to an approach in defining the boundary of Panama called block within the country of Costa Rica. The calculation of the components of the Euler pole through a routine program in MatLab and applied to different combinations of points gave no further contributions to the physical definition of this limit. The strategy was simply confirming the difference in the direction of all the velocity vectors and not allowed to reveal more detail revealed a location of this area within the country of Costa Rica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En España, los datos catastrales de acceso público, obtenidos a través de la Sede Electrónica del Catastro (SEC), no incluyen información sobre la genealogía o las relaciones de linaje existente entre las parcelas, de forma que la gestión de la información histórica es muy limitada. Este artículo presenta un método para obtener las relaciones de linaje más frecuentes entre las parcelas (agregación y segregación) y propone un prototipo de estructura relacional para el almacenamiento y la gestión histórica de los datos catastrales de acceso público. El proceso de análisis para deducir el linaje se basa en superposiciones espacio-temporales junto con secuencias de sentencias SQL. El método proporciona un 70% de relaciones de agregación y segregación correctas; el resto presentan errores debidos, en general, a anomalías presentes en los propios datos catastrales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los dispositivos móviles modernos disponen cada vez de más funcionalidad debido al rápido avance de las tecnologías de las comunicaciones y computaciones móviles. Sin embargo, la capacidad de la batería no ha experimentado un aumento equivalente. Por ello, la experiencia de usuario en los sistemas móviles modernos se ve muy afectada por la vida de la batería, que es un factor inestable de difícil de control. Para abordar este problema, investigaciones anteriores han propuesto un esquema de gestion del consumo (PM) centrada en la energía y que proporciona una garantía sobre la vida operativa de la batería mediante la gestión de la energía como un recurso de primera clase en el sistema. Como el planificador juega un papel fundamental en la administración del consumo de energía y en la garantía del rendimiento de las aplicaciones, esta tesis explora la optimización de la experiencia de usuario para sistemas móviles con energía limitada desde la perspectiva de un planificador que tiene en cuenta el consumo de energía en un contexto en el que ésta es un recurso de primera clase. En esta tesis se analiza en primer lugar los factores que contribuyen de forma general a la experiencia de usuario en un sistema móvil. Después se determinan los requisitos esenciales que afectan a la experiencia de usuario en la planificación centrada en el consumo de energía, que son el reparto proporcional de la potencia, el cumplimiento de las restricciones temporales, y cuando sea necesario, el compromiso entre la cuota de potencia y las restricciones temporales. Para cumplir con los requisitos, el algoritmo clásico de fair queueing y su modelo de referencia se extienden desde los dominios de las comunicaciones y ancho de banda de CPU hacia el dominio de la energía, y en base a ésto, se propone el algoritmo energy-based fair queueing (EFQ) para proporcionar una planificación basada en la energía. El algoritmo EFQ está diseñado para compartir la potencia consumida entre las tareas mediante su planificación en función de la energía consumida y de la cuota reservada. La cuota de consumo de cada tarea con restricciones temporales está protegida frente a diversos cambios que puedan ocurrir en el sistema. Además, para dar mejor soporte a las tareas en tiempo real y multimedia, se propone un mecanismo para combinar con el algoritmo EFQ para dar preferencia en la planificación durante breves intervalos de tiempo a las tareas más urgentes con restricciones temporales.Las propiedades del algoritmo EFQ se evaluan a través del modelado de alto nivel y la simulación. Los resultados de las simulaciones indican que los requisitos esenciales de la planificación centrada en la energía pueden lograrse. El algoritmo EFQ se implementa más tarde en el kernel de Linux. Para evaluar las propiedades del planificador EFQ basado en Linux, se desarrolló un banco de pruebas experimental basado en una sitema empotrado, un programa de banco de pruebas multihilo, y un conjunto de pruebas de código abierto. A través de experimentos específicamente diseñados, esta tesis verifica primero las propiedades de EFQ en la gestión de la cuota de consumo de potencia y la planificación en tiempo real y, a continuación, explora los beneficios potenciales de emplear la planificación EFQ en la optimización de la experiencia de usuario para sistemas móviles con energía limitada. Los resultados experimentales sobre la gestión de la cuota de energía muestran que EFQ es más eficaz que el planificador de Linux-CFS en la gestión de energía, logrando un reparto proporcional de la energía del sistema independientemente de en qué dispositivo se consume la energía. Los resultados experimentales en la planificación en tiempo real demuestran que EFQ puede lograr de forma eficaz, flexible y robusta el cumplimiento de las restricciones temporales aunque se dé el caso de aumento del el número de tareas o del error en la estimación de energía. Por último, un análisis comparativo de los resultados experimentales sobre la optimización de la experiencia del usuario demuestra que, primero, EFQ es más eficaz y flexible que los algoritmos tradicionales de planificación del procesador, como el que se encuentra por defecto en el planificador de Linux y, segundo, que proporciona la posibilidad de optimizar y preservar la experiencia de usuario para los sistemas móviles con energía limitada. Abstract Modern mobiledevices have been becoming increasingly powerful in functionality and entertainment as the next-generation mobile computing and communication technologies are rapidly advanced. However, the battery capacity has not experienced anequivalent increase. The user experience of modern mobile systems is therefore greatly affected by the battery lifetime,which is an unstable factor that is hard to control. To address this problem, previous works proposed energy-centric power management (PM) schemes to provide strong guarantee on the battery lifetime by globally managing energy as the first-class resource in the system. As the processor scheduler plays a pivotal role in power management and application performance guarantee, this thesis explores the user experience optimization of energy-limited mobile systemsfrom the perspective of energy-centric processor scheduling in an energy-centric context. This thesis first analyzes the general contributing factors of the mobile system user experience.Then itdetermines the essential requirements on the energy-centric processor scheduling for user experience optimization, which are proportional power sharing, time-constraint compliance, and when necessary, a tradeoff between the power share and the time-constraint compliance. To meet the requirements, the classical fair queuing algorithm and its reference model are extended from the network and CPU bandwidth sharing domain to the energy sharing domain, and based on that, the energy-based fair queuing (EFQ) algorithm is proposed for performing energy-centric processor scheduling. The EFQ algorithm is designed to provide proportional power shares to tasks by scheduling the tasks based on their energy consumption and weights. The power share of each time-sensitive task is protected upon the change of the scheduling environment to guarantee a stable performance, and any instantaneous power share that is overly allocated to one time-sensitive task can be fairly re-allocated to the other tasks. In addition, to better support real-time and multimedia scheduling, certain real-time friendly mechanism is combined into the EFQ algorithm to give time-limited scheduling preference to the time-sensitive tasks. Through high-level modelling and simulation, the properties of the EFQ algorithm are evaluated. The simulation results indicate that the essential requirements of energy-centric processor scheduling can be achieved. The EFQ algorithm is later implemented in the Linux kernel. To assess the properties of the Linux-based EFQ scheduler, an experimental test-bench based on an embedded platform, a multithreading test-bench program, and an open-source benchmark suite is developed. Through specifically-designed experiments, this thesis first verifies the properties of EFQ in power share management and real-time scheduling, and then, explores the potential benefits of employing EFQ scheduling in the user experience optimization for energy-limited mobile systems. Experimental results on power share management show that EFQ is more effective than the Linux-CFS scheduler in managing power shares and it can achieve a proportional sharing of the system power regardless of on which device the energy is spent. Experimental results on real-time scheduling demonstrate that EFQ can achieve effective, flexible and robust time-constraint compliance upon the increase of energy estimation error and task number. Finally, a comparative analysis of the experimental results on user experience optimization demonstrates that EFQ is more effective and flexible than traditional processor scheduling algorithms, such as those of the default Linux scheduler, in optimizing and preserving the user experience of energy-limited mobile systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El gran esfuerzo realizado durante la última década con el fin de integrar los diferentes materiales superconductores en el campo de los sistemas eléctricos y en otras aplicaciones tecnológicas ha dado lugar a un campo de investigación amplio y prometedor. El comportamiento eléctrico de los Superconductores de Alta Temperatura (SAT) crítica (masivo y cintas) depende de diferentes parámetros desde su fabricación hasta la aplicación final con imanes o cables. Sin embargo, las aplicaciones prácticas de estos materiales están fuertemente vinculadas con su comportamiento mecánico tanto a temperatura ambiente (manipulación durante fabricación o instalación) como a temperaturas criogénicas (condiciones de servicio). En esta tesis se ha estudiado el comportamiento mecánico de materiales masivos y cintas de alta temperatura crítica a 300 y 77 K (utilizando nitrógeno líquido). Se han obtenido la resistencia en flexión, la tenacidad de fractura y la resistencia a tracción a la temperatura de servicio y a 300 K. Adicionalmente, se ha medido la dureza mediante el ensayo Vickers y nanoindentación. El módulo Young se midió mediante tres métodos diferentes: 1) nanoindentación, 2) ensayos de flexión en tres puntos y 3) resonancia vibracional mediante grindosonic. Para cada condición de ensayo, se han analizado detalladamente las superficies de fractura y los micromecanismos de fallo. Las propiedades mecánicas de los materiales se han comparado con el fin de entender la influencia de las técnicas de procesado y de las características microestructurales de los monocristales en su comportamiento mecánico. Se ha estudiado el comportamiento electromecánico de cintas comerciales superconductoras de YBCO mediante ensayos de tracción y fatiga a 77 y 300 K. El campo completo de deformaciones en la superficie del material se ha obtenido utilizando Correlación Digital de Imágenes (DIC, por sus siglas en inglés) a 300 K. Además, se realizaron ensayos de fragmentación in situ dentro de un microscopio electrónico con el fin de estudiar la fractura de la capa superconductora y determinar la resistencia a cortante de la intercara entre el substrato y la capa cerámica. Se ha conseguido ver el proceso de la fragmentación aplicando tensión axial y finalmente, se han implementado simulaciones mediante elementos finitos para reproducir la delaminación y el fenómeno de la fragmentación. Por último, se han preparado uniones soldadas entre las capas de cobre de dos cintas superconductoras. Se ha medido la resistencia eléctrica de las uniones con el fin de evaluar el metal de soldadura y el proceso. Asimismo, se ha llevado a cabo la caracterización mecánica de las uniones mediante ensayos "single lap shear" a 300 y 77 K. El efecto del campo magnético se ha estudiado aplicando campo externo hasta 1 T perpendicular o paralelo a la cinta-unión a la temperatura de servicio (77 K). Finalmente, la distribución de tensiones en cada una de las capas de la cinta se estudió mediante simulaciones de elementos finitos, teniendo en cuenta las capas de la cinta mecánicamente más representativas (Cu-Hastelloy-Cu) que influyen en su comportamiento mecánico. The strong effort that has been made in the last years to integrate the different superconducting materials in the field of electrical power systems and other technological applications led to a wide and promising research field. The electrical behavior of High Temperature Superconducting (HTS) materials (bulk and coated conductors) depends on different parameters since their processing until their final application as magnets or cables. However, practical applications of such materials are strongly related with their mechanical performance at room temperature (handling) as well as at cryogenic temperatures (service conditions). In this thesis, the mechanical behavior of HTS bulk and coated conductors was investigated at 300 and 77 K (by immersion in liquid nitrogen). The flexural strength, the fracture toughness and the tensile strength were obtained at service temperature as well as at 300 K. Furthermore, their hardness was determined by Vickers measurements and nanoindentation and the Young's modulus was measured by three different techniques: 1) nanoindentation, 2) three-point bending tests and 3) vibrational resonance with a grindosonic device. The fracture and deformation micromechanics have been also carefully analyzed for each testing condition. The comparison between the studied materials has been performed in order to understand the influence of the main sintering methods and the microstructural characteristics of the single grains on the macroscopic mechanical behavior. The electromechanical behavior of commercial YBCO coated conductors was studied. The mechanical behavior of the tapes was studied under tensile and fatigue tests at 77 and 300 K. The complete strain field on the surface of the sample was obtained by applying Digital Image Correlation (DIC) at 300 K. Addionally, in situ fragmentation tests inside a Scanning Electron Microscope (SEM) were carried out in order to study the fragmentation of the superconducting layer and determine the interfacial shear strength between substrate and ceramic layer. The fragmentation process upon loading of the YBCO layer has been observed and finally, Finite Element Simulations were employed to reproduce delamination and fragmentation phenomena. Finally, joints between the stabilizing Cu sides of two coated conductors have been prepared. The electrical resistivity of the joints was measured for the purpose of qualifying the soldering material and evaluating the soldering process. Additionally, mechanical characterization under single lap shear tests at 300 and 77 K has been carried out. The effect of the applied magnetic field has been studied by applying external magnetic field up to 1 T perpendicular and parallel to the tape-joint at service temperature (77 K). Finally, finite element simulations were employed to study the distribution of the stresses in earch layer, taking into account the three mechanically relevant layers of the coated conductor (Cu-Hastelloy-Cu) that affect its mechanical behavior

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, y a la luz de los retos a los que se enfrenta la sociedad, algunas voces están urgiendo a dejar atrás los paradigmas modernos —eficiencia y rendimiento— que sustentan a las llamadas prácticas sostenibles, y están alentando a repensar, en el contexto de los cambios científicos y culturales, una agenda termodinámica y ecológica para la arquitectura. La cartografía que presenta esta tesis doctoral se debe de entender en este contexto. Alineándose con esta necesidad, se esfuerza por dar a este empeño la profundidad histórica de la que carece. De este modo, el esfuerzo por dotar a la arquitectura de una agenda de base científica, se refuerza con una discusión cultural sobre el progresivo empoderamiento de las ideas termodinámicas en la arquitectura. Esta cartografía explora la historia de las ideas termodinámicas en la arquitectura desde el principio del siglo XX hasta la actualidad. Estudia, con el paso de los sistemas en equilibrio a los alejados del equilibrio como trasfondo, como las ideas termodinámicas han ido infiltrándose gradualmente en la arquitectura. Este esfuerzo se ha planteado desde un doble objetivo. Primero, adquirir una distancia crítica respecto de las prácticas modernas, de modo que se refuerce y recalibre el armazón intelectual y las herramientas sobre las que se está apoyando esta proyecto termodinámico. Y segundo, desarrollar una aproximación proyectual sobre la que se pueda fundamentar una agenda termodinámica para la arquitectura, asunto que se aborda desde la firme creencia de que es posible una re-descripción crítica de la realidad. De acuerdo con intercambios de energía que se dan alrededor y a través de un edificio, esta cartografía se ha estructurado en tres entornos termodinámicos, que sintetizan mediante un corte transversal la variedad de intercambios de energía que se dan en la arquitectura: -Cualquier edificio, como constructo espacial y material inmerso en el medio, intercambia energía mediante un flujo bidireccional con su contexto, definiendo un primer entorno termodinámico al que se denomina atmósferas territoriales. -En el interior de los edificios, los flujos termodinámicos entre la arquitectura y su ambiente interior definen un segundo entorno termodinámico, atmósferas materiales, que explora las interacciones entre los sistemas materiales y la atmósfera interior. -El tercer entorno termodinámico, atmosferas fisiológicas, explora los intercambios de energía que se dan entre el cuerpo humano y el ambiente invisible que lo envuelve, desplazando el objeto de la arquitectura desde el marco físico hacia la interacción entre la atmósfera y los procesos somáticos y percepciones neurobiológicas de los usuarios. A través de estos tres entornos termodinámicos, esta cartografía mapea aquellos patrones climáticos que son relevantes para la arquitectura, definiendo tres situaciones espaciales y temporales sobre las que los arquitectos deben actuar. Estudiando las conexiones entre la atmósfera, la energía y la arquitectura, este mapa presenta un conjunto de ideas termodinámicas disponibles —desde los parámetros de confort definidos por la industria del aire acondicionado hasta las técnicas de acondicionamiento pasivo— que, para ser efectivas, necesitan ser evaluadas, sintetizadas y recombinadas a la luz de los retos de nuestro tiempo. El resultado es un manual que, mediando entre la arquitectura y la ciencia, y a través de este relato histórico, acorta la distancia entre la arquitectura y la termodinámica, preparando el terreno para la definición de una agenda termodinámica para el proyecto de arquitectura. A este respecto, este mapa se entiende como uno de los pasos necesarios para que la arquitectura recupere la capacidad de intervenir en la acuciante realidad a la que se enfrenta. ABSTRACT During the last five years, in the light of current challenges, several voices are urging to leave behind the modern energy paradigms —efficiency and performance— on which the so called sustainable practices are relying, and are posing the need to rethink, in the light of the scientific and cultural shifts, the thermodynamic and ecological models for architecture. The historical cartography this PhD dissertation presents aligns with this effort, providing the cultural background that this endeavor requires. The drive to ground architecture on a scientific basis needs to be complemented with a cultural discussion of the history of thermodynamic ideas in architecture. This cartography explores the history of thermodynamic ideas in architecture, from the turn of the 20th century until present day, focusing on the energy interactions between architecture and atmosphere. It surveys the evolution of thermodynamic ideas —the passage from equilibrium to far from equilibrium thermodynamics— and how these have gradually empowered within design and building practices. In doing so, it has posed a double-objective: first, to acquire a critical distance with modern practices which strengthens and recalibrates the intellectual framework and the tools in which contemporary architectural endeavors are unfolding; and second, to develop a projective approach for the development a thermodynamic agenda for architecture and atmosphere, with the firm belief that a critical re-imagination of reality is possible. According to the different systems which exchange energy across a building, the cartography has been structured in three particular thermodynamic environments, providing a synthetic cross-section of the range of thermodynamic exchanges which take place in architecture: -Buildings, as spatial and material constructs immersed in the environment, are subject to a contiuous bidirectional flow of energy with its context, defining a the first thermodynamic environment called territorial atmospheres. -Inside buildings, the thermodynamic flow between architecture and its indoor ambient defines a second thermodynamic environment, material atmospheres, which explores the energy interactions between the indoor atmosphere and its material systems. -The third thermodynamic environment, physiological atmospheres, explores the energy exchanges between the human body and the invisible environment which envelopes it, shifting design drivers from building to the interaction between the atmosphere and the somatic processes and neurobiological perceptions of users. Through these three thermodynamic environments, this cartography maps those climatic patterns which pertain to architecture, providing three situations on which designers need to take stock. Studying the connections between atmosphere, energy and architecture this map presents, not a historical paradigm shift from mechanical climate control to bioclimatic passive techniques, but a range of available thermodynamic ideas which need to be assessed, synthesized and recombined in the light of the emerging challenges of our time. The result is a manual which, mediating between architecture and science, and through this particular historical account, bridges the gap between architecture and thermodynamics, paving the way to a renewed approach to atmosphere, energy and architecture. In this regard this cartography is understood as one of the necessary steps to recuperate architecture’s lost capacity to intervene in the pressing reality of contemporary societies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto fin de carrera trata del estudio de los parámetros de sismicidad en la Península Ibérica y América Central, realizando un análisis de su variación en el espacio y en el tiempo. Con estos análisis se podrá determinar la continuidad temporal y la homogeneidad espacial de los parámetros sísmicas de los territorios de estudio, de acuerdo con la información contenida en los catálogos sísmicos. En este proyecto se parte del estudio de los catálogos sísmicos disponibles (catálogo del Instituto Geográfico Nacional de España y catálogo del proyecto RESIS II) y se realizan los análisis de completitud pertinentes, a fin de eliminar información de los catálogos que pueda desvirtuar los resultados obtenidos. Se considera que la sismicidad sigue modelo de Gutenberg-Richter, que establece que la distribución de frecuencias de terremotos con la magnitud responde a una relación lineal entre el (logaritmo del) número acumulado de eventos y la magnitud. De este modelo se obtienen tres parámetros que caracterizan la sismicidad de una zona: el parámetro beta, la tasa acumulada de ocurrencia de terremotos y la magnitud máxima. Se diseña un método para calcular el valor de estos parámetros sísmicos en los territorios considerados, y se implementan diferentes filtros espaciales y temporales para poder determinar la variabilidad espacial y temporal de los valores de los parámetros de sismicidad. Se aplica el método de estimación de parámetros de sismicidad en dos zonas de diferentes características sísmicas: una como la Península Ibérica, donde hay menos actividad sísmica pero hay datos de un periodo de tiempo mayor; y América Central,donde el catálogo no es tan extenso temporalmente, y sin embargo, hay una mayor actividad sísmica. Los resultados del estudio serán de utilidad para la caracterización de fuentes sísmicas en estudios de peligrosidad sísmica, bien sea siguiendo modelos zonificados que consideran que la sismicidad es un proceso de Poisson (para lo cual se necesita un catálogo depurado, como el que se usa en este proyecto para América Central), bien sea para modelos no zonificados, que se nutren de un catálogo sin depurar de réplicas y premonitores (como el que se usa en este proyecto para España).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La observación de la Tierra es una herramienta de gran utilidad en la actualidad para el estudio de los fenómenos que se dan en la misma. La observación se puede realizar a distintas escalas y por distintos métodos dependiendo del propósito. El actual Trabajo Final de Grado persigue exponer la observación del territorio mediante técnicas de Teledetección, o Detección Remota, y su aplicación en la exploración de hidrocarburos. Desde la Segunda Guerra Mundial el capturar imágenes aéreas de regiones de la Tierra estaba restringido a usos cartográficos en el sentido estricto. Desde aquellos tiempos, hasta ahora, ha acontecido una serie de avances científicos que permiten deducir características intrínsecas de la Tierra mediante mecanismos complejos que no apreciamos a simple vista, pero que, están configurados mediante determinados parámetros geométricos y electrónicos, que permiten generar series temporales de fenómenos físicos que se dan en la Tierra. Hoy en día se puede afirmar que el aprovechamiento del espectro electromagnético está en un punto máximo. Se ha pasado del análisis de la región del espectro visible al análisis del espectro en su totalidad. Esto supone el desarrollo de nuevos algoritmos, técnicas y procesos para extraer la mayor cantidad de información acerca de la interacción de la materia con la radiación electromagnética. La información que generan los sistemas de captura va a servir para la aplicación directa e indirecta de métodos de prospección de hidrocarburos. Las técnicas utilizadas en detección por sensores remotos, aplicadas en campañas geofísicas, son utilizadas para minimizar costes y maximizar resultados en investigaciones de campo. La predicción de anomalías en la zona de estudio depende del analista, quien diseña, calcula y evalúa las variaciones de la energía electromagnética reflejada o emitida por la superficie terrestre. Para dicha predicción se revisarán distintos programas espaciales, se evaluará la bondad de registro y diferenciación espectral mediante el uso de distintas clasificaciones (supervisadas y no supervisadas). Por su influencia directa sobre las observaciones realizadas, se realiza un estudio de la corrección atmosférica; se programan distintos modelos de corrección atmosférica para imágenes multiespectrales y se evalúan los métodos de corrección atmosférica en datos hiperespectrales. Se obtendrá temperatura de la zona de interés utilizando los sensores TM-4, ASTER y OLI, así como un Modelo Digital del Terreno generado por el par estereoscópico capturado por el sensor ASTER. Una vez aplicados estos procedimientos se aplicarán los métodos directos e indirectos, para la localización de zonas probablemente afectadas por la influencia de hidrocarburos y localización directa de hidrocarburos mediante teledetección hiperespectral. Para el método indirecto se utilizan imágenes capturadas por los sensores ETM+ y ASTER. Para el método directo se usan las imágenes capturadas por el sensor Hyperion. ABSTRACT The observation of the Earth is a wonderful tool for studying the different kind of phenomena that occur on its surface. The observation could be done by different scales and by different techniques depending on the information of interest. This Graduate Thesis is intended to expose the territory observation by remote sensing acquiring data systems and the analysis that can be developed to get information of interest. Since Second World War taking aerials photographs of scene was restricted only to a cartographic sense. From these days to nowadays, it have been developed many scientific advances that make capable the interpretation of the surface behavior trough complex systems that are configure by specific geometric and electronic parameters that make possible acquiring time series of the phenomena that manifest on the earth’s surface. Today it is possible to affirm that the exploitation of the electromagnetic spectrum is on a maxim value. In the past, analysis of the electromagnetic spectrum was carry in a narrow part of it, today it is possible to study entire. This implicates the development of new algorithms, process and techniques for the extraction of information about the interaction of matter with electromagnetic radiation. The information that has been acquired by remote sensing sensors is going to be a helpful tool for the exploration of hydrocarbon through direct and vicarious methods. The techniques applied in remote sensing, especially in geophysical campaigns, are employed to minimize costs and maximize results of ground-based geologic investigations. Forecasting of anomalies in the region of interest depends directly on the expertise data analyst who designs, computes and evaluates variations in the electromagnetic energy reflected or emanated from the earth’s surface. For an optimal prediction a review of the capture system take place; assess of the goodness in data acquisition and spectral separability, is carried out by mean of supervised and unsupervised classifications. Due to the direct influence of the atmosphere in the register data, a study of the minimization of its influence has been done; a script has been programed for the atmospheric correction in multispectral data; also, a review of hyperspectral atmospheric correction is conducted. Temperature of the region of interest is computed using the images captured by TM-4, ASTER and OLI, in addition to a Digital Terrain Model generated by a pair of stereo images taken by ASTER sensor. Once these procedures have finished, direct and vicarious methods are applied in order to find altered zones influenced by hydrocarbons, as well as pinpoint directly hydrocarbon presence by mean of hyperspectral remote sensing. For this purpose ETM+ and ASTER sensors are used to apply the vicarious method and Hyperion images are used to apply the direct method.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La investigación para el conocimiento del cerebro es una ciencia joven, su inicio se remonta a Santiago Ramón y Cajal en 1888. Desde esta fecha a nuestro tiempo la neurociencia ha avanzado mucho en el desarrollo de técnicas que permiten su estudio. Desde la neurociencia cognitiva hoy se explican muchos modelos que nos permiten acercar a nuestro entendimiento a capacidades cognitivas complejas. Aun así hablamos de una ciencia casi en pañales que tiene un lago recorrido por delante. Una de las claves del éxito en los estudios de la función cerebral ha sido convertirse en una disciplina que combina conocimientos de diversas áreas: de la física, de las matemáticas, de la estadística y de la psicología. Esta es la razón por la que a lo largo de este trabajo se entremezclan conceptos de diferentes campos con el objetivo de avanzar en el conocimiento de un tema tan complejo como el que nos ocupa: el entendimiento de la mente humana. Concretamente, esta tesis ha estado dirigida a la integración multimodal de la magnetoencefalografía (MEG) y la resonancia magnética ponderada en difusión (dMRI). Estas técnicas son sensibles, respectivamente, a los campos magnéticos emitidos por las corrientes neuronales, y a la microestructura de la materia blanca cerebral. A lo largo de este trabajo hemos visto que la combinación de estas técnicas permiten descubrir sinergias estructurofuncionales en el procesamiento de la información en el cerebro sano y en el curso de patologías neurológicas. Más específicamente en este trabajo se ha estudiado la relación entre la conectividad funcional y estructural y en cómo fusionarlas. Para ello, se ha cuantificado la conectividad funcional mediante el estudio de la sincronización de fase o la correlación de amplitudes entre series temporales, de esta forma se ha conseguido un índice que mide la similitud entre grupos neuronales o regiones cerebrales. Adicionalmente, la cuantificación de la conectividad estructural a partir de imágenes de resonancia magnética ponderadas en difusión, ha permitido hallar índices de la integridad de materia blanca o de la fuerza de las conexiones estructurales entre regiones. Estas medidas fueron combinadas en los capítulos 3, 4 y 5 de este trabajo siguiendo tres aproximaciones que iban desde el nivel más bajo al más alto de integración. Finalmente se utilizó la información fusionada de MEG y dMRI para la caracterización de grupos de sujetos con deterioro cognitivo leve, la detección de esta patología resulta relevante en la identificación precoz de la enfermedad de Alzheimer. Esta tesis está dividida en seis capítulos. En el capítulos 1 se establece un contexto para la introducción de la connectómica dentro de los campos de la neuroimagen y la neurociencia. Posteriormente en este capítulo se describen los objetivos de la tesis, y los objetivos específicos de cada una de las publicaciones científicas que resultaron de este trabajo. En el capítulo 2 se describen los métodos para cada técnica que fue empleada: conectividad estructural, conectividad funcional en resting state, redes cerebrales complejas y teoría de grafos y finalmente se describe la condición de deterioro cognitivo leve y el estado actual en la búsqueda de nuevos biomarcadores diagnósticos. En los capítulos 3, 4 y 5 se han incluido los artículos científicos que fueron producidos a lo largo de esta tesis. Estos han sido incluidos en el formato de la revista en que fueron publicados, estando divididos en introducción, materiales y métodos, resultados y discusión. Todos los métodos que fueron empleados en los artículos están descritos en el capítulo 2 de la tesis. Finalmente, en el capítulo 6 se concluyen los resultados generales de la tesis y se discuten de forma específica los resultados de cada artículo. ABSTRACT In this thesis I apply concepts from mathematics, physics and statistics to the neurosciences. This field benefits from the collaborative work of multidisciplinary teams where physicians, psychologists, engineers and other specialists fight for a common well: the understanding of the brain. Research on this field is still in its early years, being its birth attributed to the neuronal theory of Santiago Ramo´n y Cajal in 1888. In more than one hundred years only a very little percentage of the brain functioning has been discovered, and still much more needs to be explored. Isolated techniques aim at unraveling the system that supports our cognition, nevertheless in order to provide solid evidence in such a field multimodal techniques have arisen, with them we will be able to improve current knowledge about human cognition. Here we focus on the multimodal integration of magnetoencephalography (MEG) and diffusion weighted magnetic resonance imaging. These techniques are sensitive to the magnetic fields emitted by the neuronal currents and to the white matter microstructure, respectively. The combination of such techniques could bring up evidences about structural-functional synergies in the brain information processing and which part of this synergy fails in specific neurological pathologies. In particular, we are interested in the relationship between functional and structural connectivity, and how two integrate this information. We quantify the functional connectivity by studying the phase synchronization or the amplitude correlation between time series obtained by MEG, and so we get an index indicating similarity between neuronal entities, i.e. brain regions. In addition we quantify structural connectivity by performing diffusion tensor estimation from the diffusion weighted images, thus obtaining an indicator of the integrity of the white matter or, if preferred, the strength of the structural connections between regions. These quantifications are then combined following three different approaches, from the lowest to the highest level of integration, in chapters 3, 4 and 5. We finally apply the fused information to the characterization or prediction of mild cognitive impairment, a clinical entity which is considered as an early step in the continuum pathological process of dementia. The dissertation is divided in six chapters. In chapter 1 I introduce connectomics within the fields of neuroimaging and neuroscience. Later in this chapter we describe the objectives of this thesis, and the specific objectives of each of the scientific publications that were produced as result of this work. In chapter 2 I describe the methods for each of the techniques that were employed, namely structural connectivity, resting state functional connectivity, complex brain networks and graph theory, and finally, I describe the clinical condition of mild cognitive impairment and the current state of the art in the search for early biomarkers. In chapters 3, 4 and 5 I have included the scientific publications that were generated along this work. They have been included in in their original format and they contain introduction, materials and methods, results and discussion. All methods that were employed in these papers have been described in chapter 2. Finally, in chapter 6 I summarize all the results from this thesis, both locally for each of the scientific publications and globally for the whole work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se ha realizado un análisis de la estructura del juego y de los parámetros morfológicos y fisiológicos en jugadores de bádminton. Para ello se han realizado 4 estudios aplicados. Objetivo: Los objetivos del trabajo han sido: (1) comprobar si existen diferencias entre el lado dominante y no dominante de las medidas antropométricas en jugadores de bádminton de máximo nivel nacional, así como verificar si el lado del cuerpo donde se realiza la medición puede influir en el cálculo de la composición corporal y del somatotipo. (2) Comparar la estuctura temporal y notacional en partidos de individual masculino entre los Juegos Olímpicos de Pekín y de Londres para observar como ha evolucionado el bádminton de 2008 a 2012. (3) Medir la ocurrencia de daño muscular después de un partido simulado de bádminton y su influencia en parámetros físicos y hematológicos. (4) Investigar la efectividad de una bebida energética que contiene cafeína para mejorar el rendimiento físico y el rendimiento en un partido en jugadores de élite de bádminton. Metodología: Para caracterizar el bádminton participaron en esta tesis un total de 78 jugadores de bádminton de élite (63 hombres y 15 mujeres), distribuidos en tres estudios y se analizaron 40 sets de bádminton de individual masculino usando los videos oficiales de los Juegos Olímpicos de Pekín 2008 y Londres 2012. En el primer estudio se tomaron medidas de pliegues cutáneos, diámetros, longitudes y perímetros del lado dominante y no dominante de los jugadores. Se calculó la composición corporal y el somatotipo. En el segundo estudio se analizaron los factores temporales y los factores notacionales de los partidos. En el tercer estudio se midieron la fuerza máxima isométrica, la velocidad en test específicos de bádminton y se tomaron muestras de sangre antes y después de jugar un partido de bádminton de 45 minutos. En el cuarto estudio se realizó un experimento a doble ciego, aleatorizado y controlado con placebo, los jugadores ingirieron 3 mg de cafeína por kilógramo de masa corporal en forma de bebida energética, o la misma bebida sin cafeína (placebo). En este estudio se registraron diferente tests específicos de bádminton (tests de salto, fuerza máxima y test de agilidad) y se jugó un partido simulado de 45 minutos. Resultados y discusión: (1) El porcentaje óseo fue mayor calculado a partir de las mediciones del lado dominante (dominante = 16.37 ± 1.14 %, no dominante = 15.66 ± 1.12 %; P < 0.001), mientras que el porcentaje muscular fue mayor calculado a partir de las mediciones del lado no dominante (dominante = 49.39 ± 2.60 %, no dominante = 50.18 ± 2.69%; P < 0.001). (2) La duración del set (Pekín: 1124.6 ± 229.9 s vs Londres: 1260.3 ± 267.1 s.; P < 0.05), el tiempo real de juego (Pekín: 306.9 ± 45.7 s vs Londres: 354.7 ± 86.5 s; P < 0.05), tiempo de rally, golpeos por rally, tiempo de descanso en el punto 11, tiempo de descanso entre sets y golpeos por rally fueron significativamente mayores en Londres que en Pekín. (3) El partido simulado de bádminton no afectó a la fuerza isométrica máxima (Pre: 1263.6 ± 245.5, Post: 1290.8 ± 240.4 N) o a la velocidad específica de bádminton (Pre: 21.0 ± 1.7, Post: 20.9 ± 1.8 s), sin embargo las concentraciones de mioglobina y de creatina quinasa en sangre aumentaron de 26.5 ± 11.6 a 197.3 ± 70.2 μg • L-1 y de 258.6 ± 192.2 a 466.0 ± 296.5 U • L-1, respectivamente después del partido de bádminton. (4) En comparación con la bebida placebo, la ingesta de la bebida energética con cafeína incrementó la altura del SJ (34.5±4.7 vs. 36.4±4.3 cm; P < 0.05) y del CMJ (37.7 ± 4.5 vs. 39.5 ± 5.1 cm; P < 0.05) y aumentó el número de aceleraciones totales durante el partido (7395 ± 1594 vs. 7707 ± 2033 aceleraciones; P < 0.05). Conclusiones: (1) Existen asimetrías corporales en los jugadores de bádminton de alto nivel, al encontrarse diferencias en los diámetros óseos y en los perímetros entre el lado dominante y no dominante. Al calcular la composición corporal con el lado dominante de los jugadores de bádminton se está sobreestimando el porcentaje óseo e infraestimando el porcentaje muscular. (2) El bádminton está evolucionando hacía rallies más largos con intervalos de descanso mayores, lo que resulta en partidos más largos. (3) El partido de bádminton generó daño muscular, sin embargo, el nivel de daño muscular alcanzado después de un partido de bádminton no produjo una disminución del rendimiento muscular. (4) El uso de una bebida energética con cafeína puede ser una ayuda nutricional eficaz para aumentar el rendimiento en el salto y patrones de actividad durante el juego en jugadores de élite de bádminton. ABSTRACT: This study analyzes the structure of the game and the morphological and physiological parameters in badminton players, investigated in four applied studies. Purpose: The purposes of the study were: (1) To check if there are differences between the dominant and non-dominant side in the anthropometric measures of badminton players at the highest national level and verify if the side of the body where the measurements are performed can influence the calculation of the body composition and the somatotype. (2) To compare the temporal and notational structure in men’s singles matches between the Olympic Games in Beijing and London to observe the evolution of badminton between 2008 and 2012. (3) To asses the occurrence of muscle damage after a simulated badminton match and its influence on physical and haematological parameters. (4) To determine the effectiveness of a commercially available energy drink that contains caffeine to improve match performance in elite badminton players. Methods: A total of 78 elite badminton players (63 men and 15 women) participated in this thesis to characterize the sport of badminton distributed in three studies and 40 sets of men’s singles badminton analyzed using the official videos of the Olympic Games of Beijing 2008 and London 2012. In the first study skinfolds, diameters, lengths and perimeters of the dominant and non-dominant side of the players were measured and body composition and somatotype were calculated. In the second study the temporal and notational factors were analyzed. In the third study maximal isometric force and speed in badminton specific tests were measured and blood samples were taken before and after a badminton match of 45 minutes. In the fourth study, a double-blind, randomized placebo-controlled experiment, players ingested 3 mg of caffeine per kilogram of body mass in the form of an energy drink or an identical drink with no caffeine content (placebo). In this study different badminton specific tests (jump tests, handgrip force test and an agility test) were recorded and a simulated badminton match of 45 minutes was played. Results and discussion: (1) The percentage of bone was higher when calculated from measurements of the dominant body side (dominant = 16.37 ± 1.14 %, nondominant = 15.66 ± 1.12 %; P < 0.001), while the muscle percentage was higher when calculated from measurements of the non-dominant side (dominant = 49.39 ± 2.60 %, non-dominant = 50.18 ± 2.69%; P < 0.001). (2) Set duration (Beijing: 1124.6 ± 229.9 s vs. London: 1260.3 ± 267.1 s.; P < 0.05), real time played (Beijing: 306.9 ± 45.7 s vs. London: 354.7 ± 86.5 s; P < 0.05), rally time, shots per rally, rest time at point 11, rest time between sets and shots per rally were significantly higher in London than in Beijing. (3) A simulated badminton match did not affect maximal isometric force (Pre: 1263.6 ± 245.5, Post: 1290.8 ± 240.4 N) or specific badminton speed (Pre: 21.0 ± 1.7, Post: 20.9 ± 1.8 s), however, concentrations of myoglobin and creatine kinase in blood increased from 26.5 ± 11.6 to 197.3 ± 70.2 μg • L-1 and from 258.6 ± 192.2 to 466.0 ± 296.5 U • L-1, respectively after the badminton match. (4) In comparison to the placebo drink, the caffeinated beverage increased height in the SJ (34.5±4.7 vs. 36.4±4.3 cm; P < 0.05) and in the CMJ (37.7 ± 4.5 vs. 39.5 ± 5.1 cm; P < 0.05) and increased the number of total accelerations during the match (7395 ± 1594 vs. 7707 ± 2033 accelerations; P < 0.05). Conclusions: (1) Body asymmetries were found in high level badminton players, due to the differences found in bone diameters and perimeters between the dominant and non-dominant body side. When calculating body composition with the dominant side of the badminton players we are overestimating bone percentage and underestimating muscle percentage. (2) Badminton is evolving towards longer rallies with greater rest intervals, resulting in longer matches. (3) The badminton match generated muscle damage, however, the level of muscle damage reached after a badminton match did not produce a decrease in muscle performance. (4) The ingestion of an energy drink containing caffeine might be an effective ergogenic nutritional supplement to increase jump performance and activity patterns during the game in elite badminton players.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A pesar de los importantes avances en la reducción del hambre, la seguridad alimentaria continúa siendo un reto de dimensión internacional. La seguridad alimentaria es un concepto amplio y multidimensional, cuyo análisis abarca distintas escalas y horizontes temporales. Dada su complejidad, la identificación de las causas de la inseguridad alimentaria y la priorización de las medias para abordarlas, son dos cuestiones que suscitan un intenso debate en la actualidad. El objetivo de esta tesis es evaluar el impacto de la globalización y el crecimiento económico en la seguridad alimentaria en los países en desarrollo, desde una perspectiva macro y un horizonte temporal a largo plazo. La influencia de la globalización se aborda de una manera secuencial. En primer lugar, se analiza la relación entre la inversión público-privada en infraestructuras y las exportaciones agrarias. A continuación, se estudia el impacto de las exportaciones agrarias en los indicadores de seguridad alimentaria. El estudio del impacto del crecimiento económico aborda los cambios paralelos en la distribución de la renta, y cómo la inequidad influye en el comportamiento de la seguridad alimentaria nacional. Además, se analiza en qué medida el crecimiento económico contribuye a acelerar el proceso de mejora de la seguridad alimentaria. Con el fin de conseguir los objetivos mencionados, se llevan a cabo varios análisis econométricos basados en datos de panel, en el que se combinan datos de corte transversal de 52 países y datos temporales comprendidos en el periodo 1991-2012. Se analizan tanto variables en niveles como variables en tasas de cambio anual. Se aplican los modelos de estimación de efectos variables y efectos fijos, ambos en niveles y en primeras diferencias. La tesis incluye cuatro tipos de modelos econométricos, cada uno de ellos con sus correspondientes pruebas de robustez y especificaciones. Los resultados matizan la importancia de la globalización y el crecimiento económico como mecanismos de mejora de la seguridad alimentaria en los países en desarrollo. Se obtienen dos conclusiones relativas a la globalización. En primer lugar, los resultados sugieren que la promoción de las inversiones privadas en infraestructuras contribuye a aumentar las exportaciones agrarias. En segundo lugar, se observa que las exportaciones agrarias pueden tener un impacto negativo en los indicadores de seguridad alimentaria. La combinación de estas dos conclusiones sugiere que la apertura comercial y financiera no contribuye por sí misma a la mejora de la seguridad alimentaria en los países en desarrollo. La apertura internacional de los países en desarrollo ha de ir acompañada de políticas e inversiones que desarrollen sectores productivos de alto valor añadido, que fortalezcan la economía nacional y reduzcan su dependencia exterior. En relación al crecimiento económico, a pesar del incuestionable hecho de que el crecimiento económico es una condición necesaria para reducir los niveles de subnutrición, no es una condición suficiente. Se han identificado tres estrategias adicionales que han de acompañar al crecimiento económico con el fin de intensificar su impacto positivo sobre la subnutrición. Primero, es necesario que el crecimiento económico sea acompañado de una distribución más equitativa de los ingresos. Segundo, el crecimiento económico ha de reflejarse en un aumento de inversiones en salud, agua y saneamiento y educación. Se observa que, incluso en ausencia de crecimiento económico, mejoras en el acceso a agua potable contribuyen a reducir los niveles de población subnutrida. Tercero, el crecimiento económico sostenible en el largo plazo parece tener un mayor impacto positivo sobre la seguridad alimentaria que el crecimiento económico más volátil o inestable en el corto plazo. La estabilidad macroeconómica se identifica como una condición necesaria para alcanzar una mayor mejora en la seguridad alimentaria, incluso habiéndose mejorado la equidad en la distribución de los ingresos. Por último, la tesis encuentra que los países en desarrollo analizados han experimentado diferentes trayectorias no lineales en su proceso de mejora de sus niveles de subnutrición. Los resultados sugieren que un mayor nivel inicial de subnutrición y el crecimiento económico son responsables de una respuesta más rápida al reto de la mejora de la seguridad alimentaria. ABSTRACT Despite the significant reductions of hunger, food security still remains a global challenge. Food security is a wide concept that embraces multiple dimensions, and has spatial-temporal scales. Because of its complexity, the identification of the drivers underpinning food insecurity and the prioritization of measures to address them are a subject of intensive debate. This thesis attempts to assess the impact of globalization and economic growth on food security in developing countries with a macro level scale (country) and using a long-term approach. The influence of globalization is addressed in a sequential way. First, the impact of public-private investment in infrastructure on agricultural exports in developing countries is analyzed. Secondly, an assessment is conducted to determine the impact of agricultural exports on food security indicators. The impact of economic growth focuses on the parallel changes in income inequality and how the income distribution influences countries' food security performance. Furthermore, the thesis analyzes to what extent economic growth helps accelerating food security improvements. To address the above mentioned goals, various econometric models are formulated. Models use panel data procedures combining cross-sectional data of 52 countries and time series data from 1991 to 2012. Yearly data are expressed both in levels and in changes. The estimation models applied are random effects estimation and fixed effects estimations, both in levels and in first differences. The thesis includes four families of econometric models, each with its own set of robustness checks and specifications. The results qualify the relevance of globalization and economic growth as enabling mechanisms for improving food security in developing countries. Concerning globalization, two main conclusions can be drawn. First, results showed that enhancing foreign private investment in infrastructures contributes to increase agricultural exports. Second, agricultural exports appear to have a negative impact on national food security indicators. These two conclusions suggest that trade and financial openness per se do not contribute directly to improve food security in development countries. Both measures should be accompanied by investments and policies to support the development of national high value productive sectors, to strengthen the domestic economy and reduce its external dependency. Referring to economic growth, despite the unquestionable fact that income growth is a pre-requisite for reducing undernourishment, results suggest that it is a necessary but not a sufficient condition. Three additional strategies should accompany economic growth to intensifying its impact on food security. Firstly, it is necessary that income growth should be accompanied by a better distribution of income. Secondly, income growth needs to be followed by investments and policies in health, sanitation and education to improve food security. Even if economic growth falters, sustained improvements in the access to drinking water may still give rise to reductions in the percentage of undernourished people. And thirdly, long-term economic growth appears to have a greater impact on reducing hunger than growth regimes that combine periods of growth peaks followed by troughs. Macroeconomic stability is a necessary condition for accelerating food security. Finally, the thesis finds that the developing countries analyzed have experienced different non-linear paths toward improving food security. Results also show that a higher initial level of undernourishment and economic growth result in a faster response for improving food security.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La resistencia genética mediada por los genes R es uno de los sistemas de defensa de las plantas frente a patógenos y se activa una vez que los patógenos han superado la defensa basal que otorgan la cutícula y pared celular. Los mecanismos de resistencia genética se inician a su vez, por el reconocimiento de productos derivados de genes de avirulencia de los patógenos (avr) por parte de las proteínas R. Tanto la respuesta de defensa basal como la respuesta de defensa por genes R están influenciadas por patrones de regulación hormonal, que incluye a las principales hormonas vegetales ácido salicílico (SA), ácido jasmónico (JA) y etileno (ET). En tomate (Solanum lycopersicum) uno de los genes R es el gen MiG1, que confiere resistencia a nematodos formadores de nódulos (Meloidogyne javanica, M. incognita y M. arenaria). Uno de los eventos más importantes que caracterizan a la respuesta de resistencia es la reacción hipersensible (HR), que está mediada por la activación temprana de una serie de sistemas enzimáticos, entre los que destaca el de las peroxidasas (PRXs) Clase III. Su función es importante tanto para limitar el establecimiento y expansión del nematodo, al generar ambientes altamente tóxicos por su contribución en la producción masiva de ROS, como por su implicación en la síntesis y depósito de lignina generando barreras estructurales en el sitio de infección. Además de estos mecanismos de defensa asociados a la resistencia constitutiva, las plantas pueden desarrollar resistencia sistémica adquirida (SAR) que en la naturaleza ocurre, en ocasiones, en una fase posterior a que la planta haya sufrido el ataque de un patógeno. Así mismo hay diferentes productos de origen químico como el benzotiadiazol o BTH (ácido S-metil benzol-(1,2,3)-tiadiozole-7-carbónico ester) que pueden generar esta misma respuesta SAR. Como resultado, la planta adquiere resistencia sistémica frente a nuevos ataques de patógenos. En este contexto, el presente trabajo aborda en primer lugar el análisis comparativo, mediante microarrays de oligonucleótidos, de los transcriptomas de los sistemas radicales de plantas de tomate de 8 semanas de edad de dos variedades, una portadora del gen de resistencia MiG1 (Motelle) y otra carente del mismo y, por tanto, susceptible (Moneymaker), antes y después de la infección por M. javanica. Previo a la infección se observó que la expresión de un gran número de transcritos era más acusada en la variedad resistente que en la susceptible, entre ellos el propio gen MiG1 o los genes PrG1 (o P4), LEJA1 y ER24, lo que indica que, en ausencia de infección, las rutas hormonales del SA, JA y ET están más activas en la raíz de la variedad resistente. Por el contrario, un número mucho menor de transcritos presentaban su expresión más reducida en Motelle que en Moneymaker, destacando un gen de señalización para sintetizar la hormona giberelina (GA). La infección por M. javanica causa importantes cambios transcripcionales en todo el sistema radical que modifican sustancialmente las diferencias basales entre plantas Motelle y Moneymaker, incluida la sobreexpresión en la variedad resistente de los transcritos de MiG1, que se reduce parcialmente, mientras que las rutas hormonales del SA y el JA continuan más activas que en la susceptible (evidente por los genes PrG1 y LEJA1). Además, los cambios asociados a la infección del nematodo se evidencian por las grandes diferencias entre los dos tiempos post-infección considerados, de tal forma que en la fase temprana (2 dpi) de la interacción compatible predomina la sobreexpresión de genes de pared celular y en la tardía (12 dpi) los relacionados con el ARN. En el análisis de la interacción incompatible, aunque también hay muchas diferencias entre ambas fases, hay que destacar la expresión diferencial común de los genes loxA y mcpi (sobrexpresados) y del gen loxD (reprimido) por su implicación en defensa en otras interacciones planta-patógeno. Cabe destacar que entre las interacciones compatible e incompatible hubo muy pocos genes en común. En la etapa temprana de la interacción compatible destacó la activación de genes de pared celular y la represión de la señalización; en cambio, en la interacción incompatible hubo proteínas principalmente implicadas en defensa. A los 12 días, en la interacción compatible los genes relacionados con el ARN y la pared celular se sobreexpresaban principalmente, y se reprimían los de proteínas y transporte, mientras que en la incompatible se sobreexpresaron los relacionados con el estrés, el metabolismo secundario y el de hormonas y se reprimieron los de ARN, señalización, metabolismo de hormonas y proteínas. Por otra parte, la técnica de silenciamiento génico VIGS reveló que el gen TGA 1a está implicado en la resistencia mediada por el gen MiG1a M. javanica. Así mismo se evaluó el transcriptoma de todo el sistema radical de la variedad susceptible tras la aplicación del inductor BTH, y se comparó con el transcriptoma de la resistente. Los resultados obtenidos revelan que el tratamiento con BTH en hojas de Moneymaker ejerce notables cambios transcripcionales en la raíz; entre otros, la activación de factores de transcripción Myb (THM16 y THM 27) y del gen ACC oxidasa. Las respuestas inducidas por el BTH parecen ser de corta duración ya que no hubo transcritos diferenciales comunes a las dos fases temporales de la infección comparadas (2 y 12 dpi). El transcriptoma de Moneymaker tratada con BTH resultó ser muy diferente al de la variedad resistente Motelle, ambas sin infectar, destacando la mayor expresión en el primero del gen LeEXP2, una expansina relacionada con defensa frente a nematodos. Las respuestas inducidas por los nematodos en Moneymaker-BTH también fueron muy distintas a las observadas previamente en la interacción incompatible mediada por MiG1, pues sólo se detectaron 2 genes sobreexpresados comunes a ambos eventos. Finalmente, se abordó el estudio de la expresión diferencial de genes que codifican PRXs y su relación con la resistencia en la interacción tomate/M. javanica. Para ello, se realizó en primer lugar el estudio del análisis del transcriptoma de tomate de la interacción compatible, obtenido en un estudio previo a partir de tejido radical infectado en distintos tiempos de infección. Se han identificado 16 unigenes de PRXs con expresión diferencial de los cuales 15 se relacionan por primera vez con la respuesta a la infección de nematodos. La mayoría de los genes de PRXs identificados, 11, aparecen fuertemente reprimidos en el sitio de alimentación, en las células gigantes (CG). Dada la implicación directa de las PRXs en la activación del mecanismo de producción de ROS, la supresión de la expresión génica local de genes de PRXs en el sitio de establecimiento y alimentación pone de manifiesto la capacidad del nematodo para modular y superar la respuesta de defensa de la planta de tomate en la interacción compatible. Posteriormente, de estos genes identificados se han elegido 4: SGN-U143455, SGN-U143841 y SGN-U144042 reprimidos en el sitio de infección y SGN-U144671 inducido, cuyos cambios de expresión se han determinado mediante análisis por qRT-PCR y de hibridación in situ en dos tiempos de infección (2 dpi y 4 dpi) y en distintos tejidos radicales de tomate resistente y susceptible. Los patrones de expresión obtenidos demuestran que en la interacción incompatible la transcripción global de los 4 genes estudiados se dispara en la etapa más temprana en el sitio de infección, detectándose la localización in situ de transcritos en el citoplasma de las células corticales de la zona meristemática afectadas por el nematodo. A 4 dpi se observó que los niveles de expresión en el sitio de infección cambian de tendencia y los genes SGN-U144671 y SGN-U144042 se reprimen significativamente. Los diferentes perfiles de expresión de los genes PRXs en los dos tiempos de infección sugieren que su inducción en las primeras 48 horas es crucial para la respuesta de defensa relacionada con la resistencia frente a la invasión del nematodo. Por último, al analizar el tejido radical sistémico, se detectó una inducción significativa de la expresión en la fase más tardía de la infección del gen SGN-U144042 en el genotipo susceptible y del SGN-U143841 en ambos genotipos. En este estudio se describe por primera vez la inducción de la expresión sistémica de genes de PRXs en tomate durante la interacción compatible e incompatible con M. javanica lo que sugiere su posible implicación funcional en la respuesta de defensa SAR activada por la infección previa del nematodo. ABSTRACT Plants defend themselves from pathogens by constitutive and/or induced defenses. A common type of induced defense involves plant resistance genes (R), which are normally activated in response to attack by specific pathogen species. Typically, a specific plant R protein recognizes a specific pathogen avirulence (avr) compound. This initiates a complex biochemical cascade inside the plant that results in synthesis of antipathogen compounds. This response can involve chemical signaling, transcription, translation, enzymes and metabolism, and numerous plant hormones such as salicylic acid (SA), jasmonates (JA) and ethylene (ET). Induced plant defense can also activate Class III peroxidases (PRXs), which produce reactive oxygen species (ROS), regulate extracellular H2O2, and play additional roles in plant defense. R-gene activation and the resulting induced defense often remain localized in the specific tissues invaded by the plant pathogen. In other cases, the plant responds by signaling the entire plant to produce defense compounds (systemic induction). Plant defense can also be induced by the exogenous application of natural or synthetic elicitors, such as benzol-(1,2,3)-thiadiazole-7-carbothionic acid. There is much current scientific interest in R-genes and elicitors, because they might be manipulated to increase agricultural yield. Scientists also are interested in systemic induction, because this allows the entire plant to be defended. In this context, one of the aims of this investigation was the transcriptoma analysis of the root systems of two varieties of tomato, the resistant variety (Motelle) that carrier MiG1 and the susceptible (Moneymaker) without MiG1, before and after infection with M. javanica. The overexpression was more pronounced in the transcriptoma of the resistant variety compared with susceptible, before infection, including the MiG1 gene, PrG1 (or P4) genes, LEJA1 and ER24, indicating that hormone SA, JA and ET are active in the resistant variety. Moreover, GA hormone presents an opposite behavior. M. javanica infection causes significant transcriptional changes in both compatible (Moneymaker-M. javanica) and incompatible (Motelle-M. javanica) interaction. In the incompatible transcriptome root system, was notably reduced the expression of the MiG1 gene, and a continuity in the expression of the hormonal pathways of SA and JA. In other hand, transcriptional profile changes during compatible interaction were associated with nematode infection. The large differences between the two times point infection considered (2 dpi and 12 dpi) indicates an overexpression of cell wall related genes in the first phase, and conversely an overexpression of RNA genes in the late phase. Transcriptoma analysis of incompatible interaction, although there were differences between the two phases, should be highlighted the common differential gene expression: loxA and mcpi (overexpressed) and loxD gene (suppressed), as they are involved in defenses in other plant-pathogen interactions. The VIGS tool has provided evidence that TGA 1a is involved in MiG1 mediated resistance to M. javanica. Likewise, the systemic application of BTH was assessed and compared with susceptible and resistant variety. Root system transcriptoma of BTH treatment on leaves showed the activation of Myb transcription factors (THM16 and THM27), the ACC oxidase gene. and the LeEXP2 gene, encoding for an expansin enzyme, related with defense against nematodes. The activation appears to be reduced by subsequent infection and establishment of nematodes. To assist in elucidate the role of tomato PRXs in plant defence against M. javanica, the transcriptome obtained previously from isolated giant cells (GC) and galls at 3 and 7 dpi from the compatible interaction was analysed. A total of 18 different probes corresponding to 16 PRX encoding genes were differentially expressed in infection site compared to the control uninfected root tissues. Most part of them (11) was down-regulated. These results yielded a first insight on 15 of the PRX genes responding to tomato–Meloidogyne interaction and confirm that repression of PRX genes might be crucial for feeding site formation at the initial stages of infection. To study the involvement of PRX genes in resistance response, four genes have been selected: SGN-U143455, SGN-U143841 and SGN-U144042 consistently down-regulated and SGN-U144671 consistently up-regulated at infection site in compatible interaction. The expression changes were determined by qRT-PCR and in situ location at 2 dpi and 4 dpi, and in different root tissues of resistant and susceptible plants. Early upon infection (2 dpi), the transcripts levels of the four genes were strongly increased in infected tissue of resistant genotype. In situ hybridization showed transcript accumulation of them in meristem cortical cells, where the nematode made injury. The results obtained provide strong evidence that early induction of PRX genes is important for defence response of the resistance against nematode invasion. Moreover, the induction patterns of SGN-U144042 gene observed at 4 dpi in distal noninfected root tissue into the susceptible genotype and of SGN-U143841 gene in both genotypes suggest a potential involvement of PRX in the systemic defence response.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el caso específico de la tarea de resto de un primer servicio en tenis, el defensor debe hacer frente a enormes exigencias temporales. El 50 – 70 % de todos los puntos de un partido dependen de la calidad del servicio o del resto. Los servidores profesionales de excelencia logran 8 – 14 aces en un partido al mejor de tres set. Los cuales equivalen al 10.2 – 17.9 % de todos los primeros servicios ejecutados (Schonborn, 1999). Además, ellos son capaces deimprimirle a la bola una velocidad media de 202 km/h (Michikami y cols., 2003). Por este motivo, parece de manera evidente que el tiempo de reacción del jugador debe ser el más corto posible y el dinamismo de su respuesta viene a ser un requisito fundamental porque la bola tarda aproximadamente 0.4 segundos en llegar a la zona del restador (USPTA, 2005). Por lo tanto, de un punto de vista comportamental, los jugadores de tenis aprenden a emplear una secuencia muy particular y sistemática que consiste en efectuar un split step (despegue) en los instantes previos al golpe del oponente para retomar el contacto con el suelo (caída) en los momentos consecutivos al golpe adverso y así contribuir a un explosivo desplazamiento lateral hacia la dirección de la bola. Según Schmidt (1993) el jugador utiliza dos tipos diferentes de anticipación. En primer lugar, la anticipación temporal, relacionada a un evento evidente que va a suceder donde el sujeto debe ser capaz de prever en que instante ocurrirá. Por ejemplo "anticipar el instante del contacto bola-raqueta ». Segundo, la anticipación espacial (o del evento) que permite ayudar al jugador a predecir lo que posiblemente va a pasar en el ambiente para organizar su movimiento con antelación. Por ejemplo, « pr edecir si el atacante en tenis va a dirigir la bola hacia la izquierda o hacia la derecha ».