12 resultados para Gains in selection

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper describes the implementation of an LTE downlink simulator that is able to precisely model the fast time and frequency variations existing in a multipath channel. This is decisive to properly simulate the gains achievable by the channeldependent scheduling LTE is capable of. The aim of this study is to investigate the relationship between the throughput achieved by a base station and parameters of active users in the cell (such as SINR or speed). The ultimate goal is to obtain a model that can predict throughput as a function of a few selected parameters that characterize users’ conditions. A proportional fair scheduler is used because of its ability to maximize the BS throughput while preventing user starvation. Some conclusions are drawn on the main parameters affecting the BS throughput based on results obtained so far.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The term "Logic Programming" refers to a variety of computer languages and execution models which are based on the traditional concept of Symbolic Logic. The expressive power of these languages offers promise to be of great assistance in facing the programming challenges of present and future symbolic processing applications in Artificial Intelligence, Knowledge-based systems, and many other areas of computing. The sequential execution speed of logic programs has been greatly improved since the advent of the first interpreters. However, higher inference speeds are still required in order to meet the demands of applications such as those contemplated for next generation computer systems. The execution of logic programs in parallel is currently considered a promising strategy for attaining such inference speeds. Logic Programming in turn appears as a suitable programming paradigm for parallel architectures because of the many opportunities for parallel execution present in the implementation of logic programs. This dissertation presents an efficient parallel execution model for logic programs. The model is described from the source language level down to an "Abstract Machine" level suitable for direct implementation on existing parallel systems or for the design of special purpose parallel architectures. Few assumptions are made at the source language level and therefore the techniques developed and the general Abstract Machine design are applicable to a variety of logic (and also functional) languages. These techniques offer efficient solutions to several areas of parallel Logic Programming implementation previously considered problematic or a source of considerable overhead, such as the detection and handling of variable binding conflicts in AND-Parallelism, the specification of control and management of the execution tree, the treatment of distributed backtracking, and goal scheduling and memory management issues, etc. A parallel Abstract Machine design is offered, specifying data areas, operation, and a suitable instruction set. This design is based on extending to a parallel environment the techniques introduced by the Warren Abstract Machine, which have already made very fast and space efficient sequential systems a reality. Therefore, the model herein presented is capable of retaining sequential execution speed similar to that of high performance sequential systems, while extracting additional gains in speed by efficiently implementing parallel execution. These claims are supported by simulations of the Abstract Machine on sample programs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La vulnerabilidad de los sistemas ganaderos de pastoreo pone en evidencia la necesidad de herramientas para evaluar y mitigar los efectos de la sequía. El avance en la teledetección ha despertado el interés por explotar potenciales aplicaciones, y está dando lugar a un intenso desarrollo de innovaciones en distintos campos. Una de estas áreas es la gestión del riesgo climático, en donde la utilización de índices de vegetación permite la evaluación de la sequía. En esta investigación, se analiza el impacto de la sequía y se evalúa el potencial de nuevas tecnologías como la teledetección para la gestión del riesgo de sequía en sistemas de ganadería extensiva. Para ello, se desarrollan tres aplicaciones: (i) evaluar el impacto económico de la sequía en una explotación ganadera extensiva de la dehesa de Andalucía, (ii) elaborar mapas de vulnerabilidad a la sequía en pastos de Chile y (iii) diseñar y evaluar el potencial de un seguro indexado para sequía en pastos en la región de Coquimbo en Chile. En la primera aplicación, se diseña un modelo dinámico y estocástico que integra aspectos climáticos, ecológicos, agronómicos y socioeconómicos para evaluar el riesgo de sequía. El modelo simula una explotación ganadera tipo de la dehesa de Andalucía para el período 1999-2010. El método de Análisis Histórico y la simulación de MonteCarlo se utilizan para identificar los principales factores de riesgo de la explotación, entre los que destacan, los periodos de inicios del verano e inicios de invierno. Los resultados muestran la existencia de un desfase temporal entre el riesgo climático y riesgo económico, teniendo este último un periodo de duración más extenso en el tiempo. También, revelan que la intensidad, frecuencia y duración son tres atributos cruciales que determinan el impacto económico de la sequía. La estrategia de reducción de la carga ganadera permite aminorar el riesgo, pero conlleva una disminución en el margen bruto de la explotación. La segunda aplicación está dedicada a la elaboración de mapas de vulnerabilidad a la sequia en pastos de Chile. Para ello, se propone y desarrolla un índice de riesgo económico (IRESP) sencillo de interpretar y replicable, que integra factores de riesgo y estrategias de adaptación para obtener una medida del Valor en Riesgo, es decir, la máxima pérdida esperada en un año con un nivel de significación del 5%.La representación espacial del IRESP pone en evidencia patrones espaciales y diferencias significativas en la vulnerabilidad a la sequía a lo largo de Chile. Además, refleja que la vulnerabilidad no siempre esta correlacionada con el riesgo climático y demuestra la importancia de considerar las estrategias de adaptación. Las medidas de autocorrelación espacial revelan que el riesgo sistémico es considerablemente mayor en el sur que en el resto de zonas. Los resultados demuestran que el IRESP transmite información pertinente y, que los mapas de vulnerabilidad pueden ser una herramienta útil en el diseño de políticas y toma de decisiones para la gestión del riesgo de sequía. La tercera aplicación evalúa el potencial de un seguro indexado para sequía en pastos en la región de Coquimbo en Chile. Para lo cual, se desarrolla un modelo estocástico para estimar la prima actuarialmente justa del seguro y se proponen y evalúan pautas alternativas para mejorar el diseño del contrato. Se aborda el riesgo base, el principal problema de los seguros indexados identificado en la literatura y, que está referido a la correlación imperfecta del índice con las pérdidas de la explotación. Para ello, se sigue un enfoque bayesiano que permite evaluar el impacto en el riesgo base de las pautas de diseño propuestas: i) una zonificación por clúster que considera aspectos espacio-temporales, ii) un período de garantía acotado a los ciclos fenológicos del pasto y iii) umbral de garantía. Los resultados muestran que tanto la zonificación como el periodo de garantía reducen el riesgo base considerablemente. Sin embargo, el umbral de garantía tiene un efecto ambiguo sobre el riesgo base. Por otra parte, la zonificación por clúster contribuye a aminorar el riesgo sistémico que enfrentan las aseguradoras. Estos resultados han puesto de manifiesto que un buen diseño de contrato puede tener un doble dividendo, por un lado aumentar su utilidad y, por otro, reducir el coste del seguro. Un diseño de contrato eficiente junto con los avances en la teledetección y un adecuado marco institucional son los pilares básicos para el buen funcionamiento de un programa de seguro. Las nuevas tecnologías ofrecen un importante potencial para la innovación en la gestión del riesgo climático. Los avances en este campo pueden proporcionar importantes beneficios sociales en los países en desarrollo y regiones vulnerables, donde las herramientas para gestionar eficazmente los riesgos sistémicos como la sequía pueden ser de gran ayuda para el desarrollo. The vulnerability of grazing livestock systems highlights the need for tools to assess and mitigate the adverse impact of drought. The recent and rapid progress in remote sensing has awakened an interest for tapping into potential applications, triggering intensive efforts to develop innovations in a number of spheres. One of these areas is climate risk management, where the use of vegetation indices facilitates assessment of drought. This research analyzes drought impacts and evaluates the potential of new technologies such as remote sensing to manage drought risk in extensive livestock systems. Three essays in drought risk management are developed to: (i) assess the economic impact of drought on a livestock farm in the Andalusian Dehesa, (ii) build drought vulnerability maps in Chilean grazing lands, and (iii) design and evaluate the potential of an index insurance policy to address the risk of drought in grazing lands in Coquimbo, Chile. In the first essay, a dynamic and stochastic farm model is designed combining climate, agronomic, socio-economic and ecological aspects to assess drought risk. The model is developed to simulate a representative livestock farm in the Dehesa of Andalusia for the time period 1999-2010. Burn analysis and MonteCarlo simulation methods are used to identify the significance of various risk sources at the farm. Most notably, early summer and early winter are identified as periods of peak risk. Moreover, there is a significant time lag between climate and economic risk and this later last longer than the former. It is shown that intensity, frequency and duration of the drought are three crucial attributes that shape the economic impact of drought. Sensitivity analysis is conducted to assess the sustainability of farm management strategies and demonstrates that lowering the stocking rate reduces farmer exposure to drought risk but entails a reduction in the expected gross margin. The second essay, mapping drought vulnerability in Chilean grazing lands, proposes and builds an index of economic risk (IRESP) that is replicable and simple to interpret. This methodology integrates risk factors and adaptation strategies to deliver information on Value at Risk, maximum expected losses at 5% significance level. Mapping IRESP provides evidence about spatial patterns and significant differences in drought vulnerability across Chilean grazing lands. Spatial autocorrelation measures reveal that systemic risk is considerably larger in the South as compared to Northern or Central Regions. Furthermore, it is shown that vulnerability is not necessarily correlated with climate risk and that adaptation strategies do matter. These results show that IRESP conveys relevant information and that vulnerability maps may be useful tools to assess policy design and decision-making in drought risk management. The third essay develops a stochastic model to estimate the actuarially fair premium and evaluates the potential of an indexed insurance policy to manage drought risk in Coquimbo, a relevant livestock farming region of Chile. Basis risk refers to the imperfect correlation of the index and farmer loses and is identified in the literature as a main limitation of index insurance. A Bayesian approach is proposed to assess the impact on basis risk of alternative guidelines in contract design: i) A cluster zoning that considers space-time aspects, ii) A guarantee period bounded to fit phenological cycles, and iii) the triggering index threshold. Results show that both the proposed zoning and guarantee period considerably reduces basis risk. However, the triggering index threshold has an ambiguous effect on basis risk. On the other hand, cluster zoning contributes to ameliorate systemic risk faced by the insurer. These results highlighted that adequate contract design is important and may result in double dividend. On the one hand, increasing farmers’ utility and, secondly, reducing the cost of insurance. An efficient contract design coupled with advances in remote sensing and an appropriate institutional framework are the basis for an efficient operation of an insurance program. The new technologies offer significant potential for innovation in climate risk managements. Progress in this field is capturing increasing attention and may provide important social gains in developing countries and vulnerable regions where the tools to efficiently manage systemic risks, such as drought, may be a means to foster development.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

By analysing the dynamic principles of the human gait, an economic gait‐control analysis is performed, and passive elements are included to increase the energy efficiency in the motion control of active orthoses. Traditional orthoses use position patterns from the clinical gait analyses (CGAs) of healthy people, which are then de‐normalized and adjusted to each user. These orthoses maintain a very rigid gait, and their energy cosT is very high, reducing the autonomy of the user. First, to take advantage of the inherent dynamics of the legs, a state machine pattern with different gains in eachstate is applied to reduce the actuator energy consumption. Next, different passive elements, such as springs and brakes in the joints, are analysed to further reduce energy consumption. After an off‐line parameter optimization and a heuristic improvement with genetic algorithms, a reduction in energy consumption of 16.8% is obtained by applying a state machine control pattern, and a reduction of 18.9% is obtained by using passive elements. Finally, by combining both strategies, a more natural gait is obtained, and energy consumption is reduced by 24.6%compared with a pure CGA pattern.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper reports on design studies concerning a moderator concept which aims to maximize the time averaged flux. The idea is to provide neutron spectra showing two clear maxima, with peaks at View the MathML source and View the MathML source arising from leakage from both cryogenic and thermal moderators. Such a concept known as a bi-spectral moderator (Mezei, 2006 [1]) while proven on a reactor source has only been examined for the ESS 2003 proposal. Filges et al. (2003 [2]), which featured a different design than the current ESS. This paper thus reports on a baseline design for such a moderator concept and shows that it can provide substantial gains in count rates for those applications not requiring high resolution in time-of-flight.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La segmentación de imágenes es un campo importante de la visión computacional y una de las áreas de investigación más activas, con aplicaciones en comprensión de imágenes, detección de objetos, reconocimiento facial, vigilancia de vídeo o procesamiento de imagen médica. La segmentación de imágenes es un problema difícil en general, pero especialmente en entornos científicos y biomédicos, donde las técnicas de adquisición imagen proporcionan imágenes ruidosas. Además, en muchos de estos casos se necesita una precisión casi perfecta. En esta tesis, revisamos y comparamos primero algunas de las técnicas ampliamente usadas para la segmentación de imágenes médicas. Estas técnicas usan clasificadores a nivel de pixel e introducen regularización sobre pares de píxeles que es normalmente insuficiente. Estudiamos las dificultades que presentan para capturar la información de alto nivel sobre los objetos a segmentar. Esta deficiencia da lugar a detecciones erróneas, bordes irregulares, configuraciones con topología errónea y formas inválidas. Para solucionar estos problemas, proponemos un nuevo método de regularización de alto nivel que aprende información topológica y de forma a partir de los datos de entrenamiento de una forma no paramétrica usando potenciales de orden superior. Los potenciales de orden superior se están popularizando en visión por computador, pero la representación exacta de un potencial de orden superior definido sobre muchas variables es computacionalmente inviable. Usamos una representación compacta de los potenciales basada en un conjunto finito de patrones aprendidos de los datos de entrenamiento que, a su vez, depende de las observaciones. Gracias a esta representación, los potenciales de orden superior pueden ser convertidos a potenciales de orden 2 con algunas variables auxiliares añadidas. Experimentos con imágenes reales y sintéticas confirman que nuestro modelo soluciona los errores de aproximaciones más débiles. Incluso con una regularización de alto nivel, una precisión exacta es inalcanzable, y se requeire de edición manual de los resultados de la segmentación automática. La edición manual es tediosa y pesada, y cualquier herramienta de ayuda es muy apreciada. Estas herramientas necesitan ser precisas, pero también lo suficientemente rápidas para ser usadas de forma interactiva. Los contornos activos son una buena solución: son buenos para detecciones precisas de fronteras y, en lugar de buscar una solución global, proporcionan un ajuste fino a resultados que ya existían previamente. Sin embargo, requieren una representación implícita que les permita trabajar con cambios topológicos del contorno, y esto da lugar a ecuaciones en derivadas parciales (EDP) que son costosas de resolver computacionalmente y pueden presentar problemas de estabilidad numérica. Presentamos una aproximación morfológica a la evolución de contornos basada en un nuevo operador morfológico de curvatura que es válido para superficies de cualquier dimensión. Aproximamos la solución numérica de la EDP de la evolución de contorno mediante la aplicación sucesiva de un conjunto de operadores morfológicos aplicados sobre una función de conjuntos de nivel. Estos operadores son muy rápidos, no sufren de problemas de estabilidad numérica y no degradan la función de los conjuntos de nivel, de modo que no hay necesidad de reinicializarlo. Además, su implementación es mucho más sencilla que la de las EDP, ya que no requieren usar sofisticados algoritmos numéricos. Desde un punto de vista teórico, profundizamos en las conexiones entre operadores morfológicos y diferenciales, e introducimos nuevos resultados en este área. Validamos nuestra aproximación proporcionando una implementación morfológica de los contornos geodésicos activos, los contornos activos sin bordes, y los turbopíxeles. En los experimentos realizados, las implementaciones morfológicas convergen a soluciones equivalentes a aquéllas logradas mediante soluciones numéricas tradicionales, pero con ganancias significativas en simplicidad, velocidad y estabilidad. ABSTRACT Image segmentation is an important field in computer vision and one of its most active research areas, with applications in image understanding, object detection, face recognition, video surveillance or medical image processing. Image segmentation is a challenging problem in general, but especially in the biological and medical image fields, where the imaging techniques usually produce cluttered and noisy images and near-perfect accuracy is required in many cases. In this thesis we first review and compare some standard techniques widely used for medical image segmentation. These techniques use pixel-wise classifiers and introduce weak pairwise regularization which is insufficient in many cases. We study their difficulties to capture high-level structural information about the objects to segment. This deficiency leads to many erroneous detections, ragged boundaries, incorrect topological configurations and wrong shapes. To deal with these problems, we propose a new regularization method that learns shape and topological information from training data in a nonparametric way using high-order potentials. High-order potentials are becoming increasingly popular in computer vision. However, the exact representation of a general higher order potential defined over many variables is computationally infeasible. We use a compact representation of the potentials based on a finite set of patterns learned fromtraining data that, in turn, depends on the observations. Thanks to this representation, high-order potentials can be converted into pairwise potentials with some added auxiliary variables and minimized with tree-reweighted message passing (TRW) and belief propagation (BP) techniques. Both synthetic and real experiments confirm that our model fixes the errors of weaker approaches. Even with high-level regularization, perfect accuracy is still unattainable, and human editing of the segmentation results is necessary. The manual edition is tedious and cumbersome, and tools that assist the user are greatly appreciated. These tools need to be precise, but also fast enough to be used in real-time. Active contours are a good solution: they are good for precise boundary detection and, instead of finding a global solution, they provide a fine tuning to previously existing results. However, they require an implicit representation to deal with topological changes of the contour, and this leads to PDEs that are computationally costly to solve and may present numerical stability issues. We present a morphological approach to contour evolution based on a new curvature morphological operator valid for surfaces of any dimension. We approximate the numerical solution of the contour evolution PDE by the successive application of a set of morphological operators defined on a binary level-set. These operators are very fast, do not suffer numerical stability issues, and do not degrade the level set function, so there is no need to reinitialize it. Moreover, their implementation is much easier than their PDE counterpart, since they do not require the use of sophisticated numerical algorithms. From a theoretical point of view, we delve into the connections between differential andmorphological operators, and introduce novel results in this area. We validate the approach providing amorphological implementation of the geodesic active contours, the active contours without borders, and turbopixels. In the experiments conducted, the morphological implementations converge to solutions equivalent to those achieved by traditional numerical solutions, but with significant gains in simplicity, speed, and stability.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El continuo crecimiento de la demanda del transporte aéreo, junto con los nuevos escenarios de intervención militar, están obligando a una optimización en el uso del espacio aéreo. De este modo, la UE y los EEUU (a través de SESAR y NextGen respectivamente) han asentado las bases para una nueva gestión del tráfico aéreo (ATM). Con ello, se pretende aumentar la capacidad de aeropuertos y rutas aéreas, otorgando mayor flexibilidad al uso del espacio aéreo sin comprometer la seguridad de los usuarios. Desde un punto de vista puramente técnico, la clave de este cambio de modelo está en el conocimiento de la posición de cada aeronave en cada instante. En este sentido, la tendencia en ATM es el uso de ADS-B como fuente principal de posicionamiento. Sin embargo, debido a que este sistema está basado en la difusión de la posición obtenida a través de GPS, es necesario un sistema de seguimiento independiente. Actualmente, la intención es migrar del radar secundario de vigilancia (SSR) a la multilateración de área extensa (WAM), con el fin de mejorar la integridad de la posición para aplicaciones en ruta. Aprovechando el rápido despliegue de ADS-B, se pretende reutilizar sus estaciones base para WAM. Cada estación base que recibe el mensaje ADS-B de la aeronave envía conjuntamente la medida del tiempo de llegada (TOA) de dicho mensaje al centro de tráfico aéreo. La posición de la aeronave se obtiene mediante multilateración, cuya técnica consiste en utilizar las medidas de TOA de un mismo mensaje ADS-B obtenidas en las distintas estaciones base. El objetivo es estimar la posición de cada aeronave con la mayor precisión posible. Para poder diseñar el sistema que permite alcanzar este objetivo, son dos los aspectos básicos a estudiar. Por una parte, la identificación y posterior caracterización de los errores (tanto sistemáticos como aleatorios) que afectan a la medida de TOA. Por otra parte, es necesario el estudio de los sistemas de seguimiento, basados en versiones sofisticadas del filtro de Kalman (IMM, UKF). Una vez establecidos estos dos pilares, la presente tesis doctoral propone un sistema que permite efectuar el seguimiento de las aeronaves, corrigiendo los efectos de las principales distorsiones que afectan a la medida de TOA: la refracción troposférica y el error de sincronismo. La mejora en la precisión de la localización ha sido evaluada mediante simulación de escenarios hipotéticos. ABSTRACT The ever-growing demand in the air transportation and the new military intervention scenarios, are generating a need to optimize the use of the airspace. This way, the EU and the USA (through SESAR and NextGen respectively) have set the ground to overhaul the current air traffic management. The intention is to enhance the capacity of airports and air routes, providing greater flexibility in the use of airspace without jeopardizing the security of the end-users. From a technical perspective, the key for this change lies in the knowledge of the aircraft position. The trend in Air Traffic Management (ATM) is to rely on ADS-B as the main source for aircraft positioning. However, this system is based on the aircraft’s self-declaration of its own (often GPS-based) navigation solution. It is therefore necessary to have an independent surveillance system. Nowadays, the intention is to gradually migrate from Secondary Surveillance Radar (SSR) towards Wide Area Multilateration (WAM) in order to enhance surveillance integrity for en-route applications. Given the fast deployment of ADS-B, the aim is to use its base stations for WAM. Each station sends the Time of Arrival (TOA) of the received ADS-B messages to the air traffic center (ATC). The aircraft position is obtained through multilateration, using the TOA of the same message measured by each station. The aim is to accurately estimate the position of each aircraft. Knowledge from two key areas has to be gathered prior to designing such a system. It is necessary to identify and then characterize the errors (both systematic and random) affecting the TOA measurements. The second element is the study of tracking systems based on sophisticated versions of the Kalman filtering (e.g. IMM, UKF). Based on this knowledge, the main contribution of this Ph.D. is an aircraft tracking system that corrects the effects of the main errors involved in the TOA measurement: tropospheric refraction and synchronization issues. Performance gains in positioning accuracy have been assessed by simulating hypothetical WAM scenarios.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En este proyecto hemos realizado un análisis sobre la sostenibilidad de las tecnologías de generación más representativas desde un punto de vista sostenible. El objetivo de este proyecto es valorar cuantitativamente la sostenibilidad utilizando para ello los tres pilares de la sostenibilidad, para ello nos hemos apoyado en estudios sobre impactos medioambientales, seguridad en el suministro y costes de generación. Todo esto nos ha llevado a la conclusión de que aunque no existe una tecnología que satisfaga todas las necesidades, las nuevas tecnologías de generación, como las renovables, ganan en competitividad si añadimos un punto de vista sostenible. ABSTRACT In this paper, we have done an analysis about the sustainability of the power generation technologies most representative form a sustainable point of view. The objective of this paper is to evaluate quantitatively the sustainability using for this the three pillars of sustainability, for this we have relied on studies about environmental impacts, security supply and generation costs. All this led us to the conclusion that although there is no technology that satisfies all the necessities, the new generation technologies, such as the renewable, gains in competitiveness if we add a sustainable point of view.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In many applications (like social or sensor networks) the in- formation generated can be represented as a continuous stream of RDF items, where each item describes an application event (social network post, sensor measurement, etc). In this paper we focus on compressing RDF streams. In particular, we propose an approach for lossless RDF stream compression, named RDSZ (RDF Differential Stream compressor based on Zlib). This approach takes advantage of the structural similarities among items in a stream by combining a differential item encoding mechanism with the general purpose stream compressor Zlib. Empirical evaluation using several RDF stream datasets shows that this combi- nation produces gains in compression ratios with respect to using Zlib alone.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En las últimas décadas, ha aumentado el interés de la investigación sobre el desarrollo de la coordinación motriz en la adolescencia por ser una etapa sensible, crítica y crucial para la adquisición de hábitos y conductas saludables de vida. Estos estudios han mostrado que la adquisición de unos niveles óptimos de coordinación y competencia motriz van a ser determinantes para el bienestar del adolescente y van a estar relacionados e influidos por otras dimensiones del desarrollo de la persona. Recientes investigaciones han sacado a la luz datos alarmantes sobre el aumento de problemas de coordinación motriz en la población infantil y adolescente (Cantell, Smyth y Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutiérrez y Miyahara, 2003; Sudgen y Chambers, 2005) donde abrocharse los botones de una camisa o correr de forma armónica puede ser todo un mundo lleno de dificultades y consecuencias sobre otras dimensiones del desarrollo (Ramón-Otero y Ruiz, 2015). Estos problemas han sido tratados por investigadores como una “dificultad oculta” (Gómez, Ruiz y Mata, 2006), cuya manifestación está presente en las actividades de la vida cotidiana, en contextos deportivos, en juegos y/o en la clase de Educación Física (Ruiz, 2004). La preocupación por estas dificultades se ha extendido a nivel internacional, creando todo un campo de investigación que estudia el diagnóstico de éstos problemas, conocido bajo las siglas DCD (Developmental Coordination Disorder). El presente estudio se centra en la etapa adolescente, periodo de transición entre la etapa infantil y adulta, caracterizada por numerosos cambios biológicos, cognitivos y socioemocionales (Santrock, 2005), que van a determinar la adaptación con el entorno (Gallahue, Ozmun y Goodway, 2011; Gómez, Ruiz, y Mata, 2006). El propósito principal del estudio es analizar el desarrollo de la coordinación motriz en la etapa adolescente investigando las diferencias de género y de edad en relación con variables psicosociales, los hábitos de práctica y las variables antropométricas. El diseño de la investigación se estructura en dos estudios. El primero de ellos, de carácter transversal, analizó una muestra representativa de 1.966 adolescentes de 1º a 4º de la ESO. El segundo, de naturaleza longitudinal, utilizó un grupo de 89 adolescentes del estudio transversal los cuales fueron estudiados durante 4 años, desde los 12 a los 15 años. Los mismos instrumentos fueron utilizados en ambos estudios: el Test Sportcomp para la evaluación de la coordinación motriz, el test AMPET4 para valorar la motivación de logro para el aprendizaje en Educación Física, el inventario HBSC para conocer los hábitos saludables sobre la práctica de actividad física y, por ultimo, se utilizó un estadiómetro para obtener el peso y la altura y así calcular el índice de masa corporal (IMC). La toma de datos del Estudio Transversal se realizó en 2 cursos académicos (2011/12 - 2012/13), en la cual se requirieron 3 sesiones coincidiendo con la clase de Educación Física. En la primera sesión, se evaluó la coordinación motriz. En la segunda se aplicaron los cuestionarios (AMPET4 y HBSC) y, en la última sesión se midió el peso y la altura en un espacio reservado al estadiómetro. El análisis de datos fue descriptivo y diferencial de cada una de las variables estudiadas: motoras, psicosociales, de hábitos de práctica de actividad física y antropométricas. Asimismo, se llevaron a cabo pruebas de análisis univariante y multivariante, calculando el valor-p y las pruebas de efecto. Respecto al Estudio Longitudinal, la toma de datos se llevó cabo durante 4 años desde el 2011 al 2014. La evaluación de la coordinación motriz se realizó en cada uno de los 4 años. Sin embargo, los 2 cuestionarios y las medidas antropométricas fueron evaluadas en el primer y cuarto año. Los análisis de datos fueron descriptivos y comparativos entre las variables analizadas. En el caso de la coordinación motriz, se realizaron las pruebas de medidas repetidas y, en el caso de las demás variables analizadas, se realizaron Prueba T para muestras relacionadas. Los resultados globales mostraron que el índice motor en el Estudio Transversal fue progresivo en el conjunto de chicos. Sin embargo, en las chicas, el rendimiento se estabiliza a partir de los 13 años. En el caso del Estudio Longitudinal, este índice se estabiliza en los 3 primeros años y a la edad de los 14, es cuando comienzan a acusarse las diferencias de género. En el caso de los hombres el rendimiento mejora y, por el contrario, en las mujeres empeora. En el Estudio Transversal, el análisis de varianza mostraron diferencias en función de la edad [F(7, 1958) = 220.70, p < .001; η2 = .101], del género [F(7, 1958) = 29.76, p < .001; η2 = .044], así como en la interacción entre ambos [F(7, 1958)= 11.90, p < .001; η2 = .018]. Únicamente aparecieron diferencias significativas con la edad en todos los grupos de hombres, excepto entre 14 y 15 años. En el Longitudinal, los contrastes multivariados mostraron que no hubo diferencias sgnificativas en el tiempo [F(3,85) = .05, p = .987, η2= .002] mostrando un nivel de coordinación estable a lo largo de los años, aunque existieron diferencias entre chicos y chicas [F(3,85) = 4.64 p = .005] con un tamaño de efecto destacable (η2 = .141). En cuanto a la motivación de logro para prender en Educación Física, en ambos estudios, los chicos fueron los que obtuvieron puntuaciones más elevadas en todas las dimensiones positivas del test (compromiso de aprendizaje, competencia autopercibida y comparada). Sin embargo, en la dimensión negativa del test, la referida a la ansiedad y al agobio ante el fracaso, fueron las chicas las que puntuaron más alto. En el Estudio Transversal, los resultados mostraron diferencias significativas en todas las dimensiones del AMPET4 en función del nivel de coordinación motriz: compromiso con el aprendizaje [F(2, 1644) = 8.66, p < .001; η2 = .010], competencia autopercibida [F(2, 1644) = 50.94, p < .001; η2 = .048], competencia comparada [F(2, 1644) = 41.56, p < .001, η2 = .020] y ansiedad [F(2, 1644) = 16.67, p < .001, η2 = .058]. En este sentido, los grupos de mejor nivel de coordinación motriz, fueron los que mayor puntuación obtuvieron en las dimensiones positivas y los que menor, en la negativa. En el Estudio Longitudinal, también se encontraron diferencias entre el primer y cuarto año de estudio en todas las dimensiones, excepto en competencia motriz autopercibida. Estas diferencias se tradujeron en una disminución en las 3 variables significativas del primer al cuarto año. Respecto al inventario HBSC, en el Estudio Longitudinal, la prueba T mostró únicamente la existencia de diferencias significativas entre el primer y cuarto año en 2 de los 11 ítems: percepción de la forma física (p = .006) y percepción de la salud (p = .047), los cuales disminuyeron en el intervalo de tiempo del estudio. En el Transversal, las diferencias se observaron en función del género (p < .001) y de la edad (p < .001). Asimismo, se mostraron diferencias significativas en todos los ítems respecto al nivel de coordinación motriz, excepto en 2 de ellos: frecuencia tiempo libre con los amigos fuera del colegio (p = .580) y facilidad para hacer amigos en el centro escolar (p = .098). Por último, en las variables antropométricas, los resultados del Estudio Transversal y Longitudinal coinciden tanto en la estatura como en el peso, apuntando, que en ambos estudios, se produce un aumento progresivo tanto en chicos como en chicas a medida que se avanza en edad. Concretamente en el Transversal, estas diferencias en la edad se encuentran en todos los grupos en ambos géneros, excepto en el conjunto de chicas entre los 14 y los 15 años. Asimismo, ambos estudios coincidieron en que tanto las ganancias en cm y kg, como las puntuaciones medias, fueron mayores en los chicos que en las chicas. Respecto al IMC, los 2 estudios coincidieron en que la evolución es paralela, y tal y como apuntan los resultados del Transversal, no se encontraron diferencias ni en la edad (p = 792) ni en el género (p = 284). No obstante, el Longitudinal apuntó únicamente diferencias significativas entre el primer y cuarto año en el conjunto de los hombres [t(41) = -4.01, p < .001]. Finalmente, y en relación con los niveles de coordinación motriz, hubo diferencias significativas en relación con el IMC (p = .012), mostrando como el grupo de peso normal coincide con puntuaciones óptimas de coordinación motriz. A modo de conclusiones, el presente estudio revela cómo la adquisición de un nivel de coordinación óptimo va a ser fundamental para el desarrollo psicosocial, para el desarrollo de hábitos saludables de práctica y para mantener un IMC dentro de la normalidad para el género y la edad. De esta manera, el desarrollo de la coordinación motriz será un aspecto fundamental para lograr un estado de bienestar físico y mental, y unos hábitos favorables para la práctica de actividad física. ABSTRACT In the past couple of decades, adolescence stage in motor coordination gained significant interest in research especially due to its sensitive and critical importance to achieving a healthy life style. These studies observed how to acquire optimum levels of coordination and motor competence, which proved crucial to the quality of the adolescent stage in addition to being influenced by other dimensions of development for each individual. Recent research shed light to an alarming set of data, which showed increased motor coordination problems in children and adolescents (Cantell, Smyth & Ahonen, 1994; Gómez, 2004; Ruiz, Graupera, Gutierrez & Miyahara, 2003; Sugden & Chambers, 2005). For instance, even to the extent that buttoning a shirt or running in a harmonic form can lead to a whole set of consequences and difficulties on the development stage. Researchers have addressed such problems in various studies such as “dificultad oculta” (Gomez, Ruiz & Mata, 2006), which literally translates as “hidden trouble”. The studies are evidently present in the activities of daily life, sporting contexts, games and/or Physical Education (Ruiz, 2004). Concern about these difficulties spread internationally, creating a whole framework research studying the diagnosis of these problems, known under the acronym DCD (Developmental Coordination Disorder). The study focuses on the adolescent stage, transition period between childhood and adulthood characterized by numerous biological, cognitive and socio-emotional changes (Santrock, 2005), which interestingly determines an individual´s adaptation to the environment (Gallahue, Ozmun & Goodway, 2011; Gomez, Ruiz & Mata, 2006). The main purpose of the study is to analyse the development of motor coordination in the adolescent stage investigating gender differences and age in relation to psychological variables, physical activity habits and anthropometric variables. The research design is structured in two studies. The first (transversal nature), analyses a representative sample of 1,966 adolescents from 1st to 4th of Secondary Education School. The second (longitudinal nature) used a group of 89 teenagers from cross-sectional study, which were studied for four years, from 12 to 15 years. The same instruments were used in both studies, namely; “Sportcomp Test” used to evaluate of motor coordination; “AMPET4 Test” which assesses the motivational achievement of learning Physical Education; “HBSC Inventory” to find out the healthy habits gained from physical activities; And finally a “stadiometer” was used to obtain the weight and height and thus calculate the body mass index (BMI). The data collection of the cross-sectional Study was conducted in two academic years (2011/12 - 2012/13), in which 3 sessions coinciding with the Physical Education level are required. In the first session, motor coordination was evaluated; questionnaires were applied in the second session (AMPET4 and HBSC); and in the last session the weight and height were measured in a reserved space for the “stadiometer”. Notably, data analysis was descriptive and differential in each of the variable studies: motor, psychological, practical and anthropometric habits of physical activity. Thus the tests were conducted in a univariate and multivariate analysis, calculating the p-value and effect tests. Regarding the Longitudinal Study, data collection was carried out during four years from 2011 to 2014 inclusively. The assessment of motor coordination was performed on each of the four years, however, the 2 questionnaires and anthropometric measures were evaluated in the first and fourth year. Data analyses were also descriptive and comparative among the variables that were put to the test. In the case of motor coordination tests, they were done on repeated measures, whilst, in the case of other variables analysed, they were accomplished through T Tests under comparable samples. The overall results showed that the engine Motor Index in Study 1 was progressive in all male gender studies, however in the females the performance remained constant after reaching 13 years of age. For the Longitudinal Study, this index is stabilized in the first 3 years and at the age of 14 is when the gender differences take place. In the case of males, the performance improves, however, in females worsens. The cross-sectional Study, analysis of variance showed differences in terms of age [F(7, 1958) = 220.70, p < .001; η2 = .101], gender [F(7, 1958) = 29.76, p <.001; η2 = .044], as well as their interaction [F(7, 1958) = 11.90, p <.001; η2 = .018]. They only show significant differences in respect to age in the male set sample, in all groups except between 14 and 15 years old. In the Longitudinal, the multivariate contrasts showed no significant differences in time [F(3,85) = 0.05, p = 0.987, η2 = 0.002] showing a stable level of coordination over the years, but if there were differences between both genders [F(3,85) = 4.64, p = .005] it took place with a noteworthy effect size (η2 = .141). In regards, to the Motivational Achievement for learning Physical Education, in both studies the male sample administered obtained higher scores on all the positive dimensions of the test (commitment to learning, self-assessed competence, and comparable competence). However, on the negative assessment side, namely, anxiety and fear of failure, the female sample scored higher than the male one. In Study 1, the multivariate analysis showed significant differences between the psychosocial dimensions and levels of motor coordination with moderate to significant effect [Lambada de Wilks = .931, F(8, 3282) = 14.99; p = <0.001; η2 = .035]. By the same token, the groups with the best level of motor coordination were the highest scoring ones in the positive dimensions, whilst the lower performing ones, performed better in the negative dimension. In the longitudinal study, there is also differences were also found between the first and fourth years of study in all dimensions, except in self-perceived motor competition. These differences resulted in a significant decrease in the 3 variables from first to fourth year. Regarding, the “HBSC Inventory”, the T test in the longitudinal study showed uniquely the existence of significant differences between the first and fourth year in 2 of the 11 items: perception of physical fitness (p = .006) and perceived health (p = 047), which diminished in the interval time of the study. In the Cross-sectional study, the se differences were also observed in gender (p < .001) and age (p < .001). Similarly, they showed significant differences in all items in respect to the motor coordination level, except in 2 of them; frequency of free time with friends outside of school (p = .580) and the ease to make friends at the educational centre (p = 098). And last but not least, the anthropometric variables, both the results of the Transversal and Longitudinal Study matched both height and weight, pointing out that in both studies a gradual increase in both genders, as they grow older. Notably in the Cross-sectional, these differences in age are found in all groups in both genders, except for the set of girls between 14 and 15 years. Thus both studies concluded that both gains in cm and kg and the mean scores were higher amongst males compared to females. Regarding BMI, the 2 studies concluded that the evolution is parallel, and as pointed cross-sectional study there isn’t differences found in age (p = 792) or in gender (p = 284). However, the Longitudinal study uniquely shows significant difference between the first and fourth year for male set sample [t (41) = -4.01, p < .001]. Finally, in relation to levels of motor coordination, there were significant differences in relation to BMI (p = .012), showing how the “normal weight group” matches the optimal scores of motor coordination. In conclusion, this study reveals how the acquisition of an optimal level of coordination is vital for psychological development, to develop and practice healthy habits, and to maintain a BMI within the normal range for age and gender. Therefore, the development of motor coordination is fundamental to achieving a state of physical and mental wellbeing, and preferable habits to pursuing physical activity.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta tesis se estudia cómo lograr el equilibrio entre dos fenómenos naturales que afectan a los huecos de fachadas: la iluminación natural y la ganancia solar. Es decir, el cómo, conseguir la optimización de la iluminación natural que se introduce a través de las ventanas existentes, sin realizar una laboriosa intervención de sustitución de las mismas y el cómo, conseguir la protección de la radiación solar directa de la zona acristalada, para evitar tanto las ganancias térmicas innecesarias como el deslumbramiento que afecta a la calidad lumínica de los recintos. Para el desarrollo esta investigación se ha propuesto una metodología de estudio dividida en dos fases: La primera, de Análisis y Diagnóstico, en la que se han de definir los estándares a cumplir y las variables con las que se evaluarán las bandejas. Y, la segunda, de Evaluación y Comprobación en la que se han de establecer los criterios de valoración y ponderación de cada variable. En la primera fase, se definirán las variables físico-ambientales, para lo que se seleccionarán algunas ciudades a estudiar, a las cuales se les estudiará las necesidades de confort térmico, se determinarán las dimensiones que deben tener las protecciones solares en esas ciudades, además se determinarán las actuaciones a realizar en los huecos de fachada según sea su posición en el plano vertical de la misma. Así mismo, se plantea hacer un análisis de casos reales, para lo que se caracterizarán desde el punto de vista lumínico algunas viviendas, realizando medidas “in situ” y comparando resultados con los que se obtienen de los programas de simulación, para seleccionar las viviendas en las que la realidad y la simulación se aproximen más, una de estas viviendas servirá de modelo en las simulaciones que se realizará en la segunda fase. También, en esta primera fase, mediante un modelo neutro, se estudiará el comportamiento térmico y lumínico del tamaño del hueco en el que se insertará la bandeja posteriormente, para luego estudiar la posición de la bandeja en el plano vertical de la ventana, desde el punto de vista ergonómico. Y finalmente se estudiará, el comportamiento térmico y lumínico del modelo con la bandeja ubicada a 40, 50 y 60cm del techo. En la segunda fase, se establecerá la valoración y ponderación de las variables con las que seleccionar la bandeja que mejor equilibre los aspectos térmicos y lumínicos, teniendo en cuenta estrategias pasivas de acondicionamiento ambiental, como favorecer las ganancias solares en invierno en horas diurnas y evitar las pérdidas de calor en horas nocturnas; y en verano implementar sistemas de sombreamiento en la zona acristalada para evitar las ganancias de calor; y, tanto en verano como en invierno, aprovechar la iluminación natural, para favorecer la iluminancia útil y evitar el deslumbramiento. Una vez definidos los criterios de valoración y ponderación se aplicará a la evaluación térmica y lumínica del modelo neutro con la bandeja, consiguiendo seleccionar la bandeja con mejor comportamiento. Posteriormente se comprobará la metodología de estudio desarrollada en el modelo seleccionado, se evaluará el comportamiento térmico y lumínico, con la incorporación de algunas alternativas de bandeja. Con esta investigación se quiere demostrar que mediante la aplicación de esta metodología de estudio, es posible evaluar y seleccionar bandejas que respondan a las necesidades requeridas en distintos casos de estudio, por lo que se considera que, la bandeja puede ser un elemento arquitectónico aplicable tanto en rehabilitación como en nueva construcción, de espacios en los que sea necesario mejorar sus condiciones lumínicas y térmicas simultáneamente. ABSTRACT This thesis studies how to balance two natural events that affect the window opening of facades: daylighting and solar gain. That is to say, how to achieve optimization of natural light that gets in through the existing windows, without making a laborious intervention of replacing them and how to get protection from direct solar radiation from the glass area, to avoid unnecessary heat gain and glare affecting the light quality of the enclosures. To develop this research, it has been proposed a methodology of study divided into two phases: First phase, Analysis and Diagnostics, in which the variables with which the light shelf are evaluated will be defined along with the standards the light shelves will meet. The second phase, Assessment and Verification, in which the assessment criteria and weighting of each variable will be established. In the first phase, the physical and environmental variables shall be defined, various cities will be selected to be studied, and in each the needs of thermal comfort will be determined along with the dimensions of shading devices in the cities. In addition the actions to be taken in the window opening of the façade will be determined, depending on their position in the vertical plane. An analysis of real cases will be undertaken, which will be characterized from the luminous point of view, performing "in situ" measurements and comparing results with those obtained from simulation programs, to select places/dwellings where reality and simulation are closer, one of these places/dwellings will be a model, in the simulations to perform at the second phase. Also, in this first phase, by a neutral model, the thermal and light behavior of the size of the window opening will be studied, in which the light shelf is inserted later, the position of the light shelf in the vertical plane of the window is studied, from an ergonomic point of view. And finally to study the thermal and light behavior of the model with the light shelf located at 40, 50 and 60cm from the ceiling. In the second phase, the evaluation and weighting of the variables will be established selecting the light shelf that best balances the thermal and daylighting aspects, taking into account passive environmental conditioning strategies; such as getting solar gains in winter during daylight hours, and preventing heat loss during the night hours; and in summer implementing shading systems in the glazing area to avoid heat gains. And in both summer and winter, taking advantage of natural lighting, to improve useful illuminance and avoid glare. Once defined, the evaluation criteria and weighting will be applied to thermal and daylighting evaluation to the neutral model with the light shelf, the best performing light shelf will be selected. The study methodology developed in the selected model will be verified the thermal and daylighting performance with the addition of some light shelf alternative will also be studied. With this research, we want to show that by applying this study methodology it is possible to evaluate and select the light shelf that meets the needs required in different case studies, so it is considered that the light shelf may be an applicable architectural element in both refurbishment and new construction of spaces where necessary to improve their daylighting and thermal conditions simultaneously.