40 resultados para sentencias interlocutorias con fuerza de definitivas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dede utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con objeto de minimizar la fricción y desgaste, la industria diseña sus máquinas para que estas funcionen en régimen elastohidrodinámico durante el mayor tiempo posible. Científicos de todos los tiempos han dedicado sus vidas al estudio de la lubricación en régimen de película gruesa. Con especial interés, Ingenieros del último siglo y medio han realizado multitud de experimentos y, con los medios disponibles en su momento, han analizado y tabulado resultados, con objeto de disponer de herramientas que permitieran calcular la fuerza de fricción en contactos EHD. En el presente trabajo de tesis se ha elaborado un modelo propio de lubricación en régimen elastohidrodinámico. Este modelo permite la resolución del problema EHD por dos vías. En primer lugar la resolución analítica del problema EHD permite obtener de forma rápida valores aproximados de coeficiente de fricción y espesor de película, comprobar las hipótesis de cada modelo, y estudiar la influencia de los parámetros. En segundo lugar es posible resolver el problema EHD de forma numérica, realizándose un cálculo totalmente paramétrico de coeficiente de fricción y de la película lubricante. El cálculo se realiza de forma interactiva y a través de una herramienta informática. El objetivo del trabajo es disponer de una herramienta que aplicada a cualquier contacto tribológico (engranajes, rodamientos, etc), permita estudiar su eficiencia, predecir flash de temperatura, posibilidad de fallo por desgaste o gripado. Para el ajuste del modelo ha sido necesaria la realización de unos experimentos previos de ajuste de los equipos de ensayo. Los equipos de ensayo de laboratorio nos ofrecen unos resultados de coeficiente de fricción. Estos valores son introducidos en los modelos de la teoría elastohidrodinámica clásica disponibles en la literatura. Los modelos nos permiten estimar valores teóricos de coeficiente de fricción y espesor de película, que son contrastados con los valores de coeficiente de fricción obtenidos experimentalmente. Por repetición de experiencias ha sido posible ajustar los parámetros de material y lubricante que definen los modelos, hasta ajustar los resultados calculados con los obtenidos por vía experimental. Este ajuste ha permitido comprobar los cálculos y validar las hipótesis de los regímenes y condiciones de operación de los equipos de ensayo. Finalmente se han empleado los parámetros de material y lubricante obtenidos, para formar el modelo EHD propio. Introduciendo en el modelo los resultados obtenidos, es posible calcular el espesor de película y el coeficiente de fricción, para cualquier condición de velocidad, temperatura y carga. Para la elaboración de este modelo se ha partido de las ecuaciones de estado de la hidrodinámica (Ley de Continuidad de Reynols). Este modelo predice el comportamiento ideal en régimen hidrodinámico. Para aproximarnos al régimen elastohidrodinámico no es posible considerar a los cuerpos en contacto como sólidos rígidos que mantienen su geometría inalterada, y por tanto se introducen en este modelo las leyes que consideran la deformación elástica de los materiales. Por último es necesario tener en cuenta que sólo cuando el fluido lubricante está sometido a bajas velocidades de deformación y las condiciones de carga no son elevadas, es posible considerar su comportamiento ideal newtoniano, según el cual la tensión tangencial que ofrece es proporcional al gradiente de velocidad al que se encuentra sometido. Para el ajuste del modelo y adecuada predicción de la película lubricante es necesario introducir modelos de comportamiento del lubricante más complejos que tienen en cuenta las propiedades viscoelásticas de este, tales como Newton/Barus, Tensión Cortante Límite y Carreau. Para ello se han tomado medidas reológicas de los fluidos a distintas presiones y temperaturas. Se ha demostrado que los modelos isotermos no predicen adecuadamente el coeficiente de fricción en condiciones de funcionamiento con deslizamientos elevados, debido al calentamiento del aceite por compresión y cizalla. Es estos casos es necesario emplear un modelo termoelastohidrodinámico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se presenta una solución para mejorar el rendimiento de los robots móviles con ruedas que se desplacen sobre superficies con un bajo coeficiente de fricción estática. En estas circunstancias, los robots móviles con ruedas pueden experimentar pérdidas de tracción, y por tanto, sufrir deslizamientos a lo largo de la superficie. La solución descrita propone la utilización de una configuración especial para el robot móvil, en la que todas las ruedas son accionadas de forma independiente, y una estructura de control que consta de tres partes bien diferenciadas: un controlador de seguimiento con realimentación de estado basado en el modelo cinemático del robot, una extensión de la ley de control cinemático resultante para incorporar la dinámica del robot móvil utilizando backstepping, y un algoritmo de distribución de la fuerza de tracción global, que calcula las señales de referencia adecuadas para cada una de las ruedas. Con esta estructura se consigue controlar la posición y la velocidad del robot móvil, y al mismo tiempo, distribuir la fuerza de tracción global entre las ruedas, evitando así el deslizamiento del robot. El funcionamiento de los algoritmos de control es evaluado mediante pruebas experimentales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir del 29 de noviembre se desarrollará en la Escuela de Ingenieros de Telecomunicación de Madrid un curso sobre la Crisis de la Informática, en el que se intentará un análisis de las líneas de fuerza de la tormenta de cambios tecnológicos, industriales, organizativos y educativos que está agitando a nuestro sector. Es un momento propicio para esbozar en este articulo unos comentarios sobre el tema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El modelo matemático más sencillo para representar el sistema con un grado de libertad está formado por el acoplamiento de dos elementos: una masa que se mueve con respecto al sistema de referencia y unido a ella un muelle de comportamiento lineal. Hay otro modelo ligeramente más complicado en el que se halla presente, además de la masa y el muelle, un elemento que reacciona linealmente con una fuerza proporcional a la velocidad del desplazamiento, denominado émbolo. En el análisis de ambos modelos matemáticos, se consideran una serie de cuestiones complementarias: los movimientos inducidos por el soporte, la carga proporcional a la frecuencia de impulsión, la energía del sistema vibrante y el amortiguamiento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introducción. Las enfermedades cardiovasculares (ECV) son la principal causa de muerte en nuestro país. Entre los factores independientes más importantes para el desarrollo de ECV se encuentran en primer lugar las alteraciones del perfil lipídico como el aumento del colesterol total (TC), las lipoproteínas de baja densidad (LDL) y los triglicéridos (TG) y/o la disminución de las lipoproteínas de alta densidad (HDL). Entre las diferentes formas de abordar el problema para prevenir y tratar estas patologías se encuentra la modificación de los hábitos de vida a través de un programa combinado de dieta y ejercicio. La evidencia confirma la efectividad de la primera variable, sin embargo, en el empleo del ejercicio se encuentran discrepancias acerca de cuál es el modo más eficaz para mejorar el perfil lipídico. Objetivo. Estudiar los cambios en las variables del perfil lipídico y los índices lipoproteicos comparando cuatro tipos de intervención que combinan dieta y diferentes modos de ejercicio, así como, analizar otras variables independientes (género, edad y genotipo ApoE) que pueden tener influencia sobre estos cambios. Diseño de la investigación. Los datos analizados en esta tesis forman parte del estudio “PROgramas de Nutrición y Actividad Física para el tratamiento de la obesidad” (PRONAF). Se trata de un estudio clínico desarrollado en España entre el 2008 y el 2011. La metodología del estudio nos permite comparar cuatro tipos de intervención para la pérdida de peso y evaluar su impacto sobre el perfil lipídico. El diseño fue experimental aleatorizado donde a todos los participantes se les sometió a un programa de dieta equilibrada hipocalórica junto a uno de los tres modos de ejercicio (grupo de entrenamiento de fuerza, grupo de entrenamiento de resistencia y grupo de entrenamiento combinado de los modos anteriores; los cuales fueron igualados en volumen e intensidad) o grupo de recomendaciones de actividad física. Las principales variables analizadas en los estudios que comprende esta tesis doctoral fueron: HDL, LDL, TG y TC, los índices derivados de estas y variables de la composición corporal y del entrenamiento. Conclusiones. Los cuatro tipos de intervención mostraron ser favorables para mejorar las variables del perfil lipídico y los índices lipoproteicos, sin diferencias significativas entre ellos. Tras la intervención, los varones mostraron una respuesta más favorable en los cambios del perfil lipídico. El genotipo ApoE2 obtuvo una reducción mayor en la concentración de TG y TC que el genotipo ApoE3 y ApoE4. Por último, los índices lipoproteicos mejoraron tras un programa de pérdida de peso, obteniéndose mayores cambios en el grupo de dieta más entrenamiento aeróbico para los índices ApoB/ApoA-1, TG/HDL y LDL/ApoB. ABSTRACT Introduction. The main cause of death in our country is cardiovascular disease (CVD). The most important independent factors for the development of CVD are the lipid profile alterations: increased total cholesterol (TC), low density lipoprotein (LDL) and triglycerides (TG) and/or decreased high-density lipoprotein (HDL). Among the different approaches to prevent and treat these diseases is modifying the lifestyle combining a diet and exercise program. The evidence confirms the effectiveness of the first variable, however, there is still controversy about the most effective mode of exercise combined with diet to achieve improvements. Objective. To study changes in lipoprotein profile comparing four types of intervention combining diet with different modes of exercise, and to analyze the independent variables (gender, age, and ApoE genotype) that can influence these changes. Research design. The data analized in this thesis are part of the study Nutrition and Physical Activity Programs for Obesity Treatments (the PRONAF study according to its Spanish initials). This is a clinical research carried out in Spain between 2008 and 2011. The aim of this study was to compare four types of intervention to weight loss with diet combining exercise. The design was experimental randomized where all participants were subjected to follow a hypocaloric balanced diet along one of the three modes of exercise (strength training group, resistance training group and combined training group of the above modes, which were matched by volume and intensity) or physical activity recommendations group. The main variables under investigation in this thesis were: HDL, LDL, TG and TC, the lipoprotein ratios, body composition and training variables. Main outcomes. The four types of interventions shown to be favorable to improve the lipid profile and lipoprotein level, with no significant differences between intervention groups. After the intervention, the men showed a more favorable respond in lipid profile changes. The genotype ApoE2 obtained more positive changes in the concentration of TG and TC than ApoE3 and ApoE4 genotype. Last, the lipoprotein ratios improve after weight loss treatment with diet combined different modes exercise. Our results reflected greater changes for E group in apoB/ApoA1, TG/HDL and LDL/ApoB compared within different intervention groups.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La condición física, o como mejor se la conoce hoy en día el “fitness”, es una variable que está cobrando gran protagonismo, especialmente desde la perspectiva de la salud. La mejora de la calidad de vida que se ha experimentado en los últimos años en las sociedades desarrolladas, conlleva un aumento de la esperanza de vida, lo que hace que cada vez más personas vivan más años. Este rápido crecimiento de la población mayor de 60 años hace que, un grupo poblacional prácticamente olvidado desde el punto de vista de la investigación científica en el campo de la actividad física y del deporte, cobre gran relevancia, con el fin de poder ayudar a alcanzar el dicho “no se trata de aportar años a la vida sino vida a lo años”. La presente memoria de Tesis Doctoral tiene como principal objetivo valorar los niveles de fitness en población mayor española, además de analizar la relación existente entre el fitness, sus condicionantes y otros aspectos de la salud, tales como la composición corporal y el estado cognitivo. Entendemos que para poder establecer futuras políticas de salud pública en relación a la actividad física y el envejecimiento activo es necesario conocer cuáles son los niveles de partida de la población mayor en España y sus condicionantes. El trabajo está basado en los datos del estudio multicéntrico EXERNET (Estudio Multi-céntrico para la Evaluación de los Niveles de Condición Física y su relación con Estilos de Vida Saludables en población mayor española no institucionalizada), así como en los datos de dos estudios, llevados a cabo en población mayor institucionalizada. Se han analizado un total de 3136 mayores de vida independiente, procedentes de 6 comunidades autónomas, y 153 mayores institucionalizados en residencias de la Comunidad de Madrid. Los principales resultados de esta tesis son los siguientes: a) Fueron establecidos los valores de referencia, así como las curvas de percentiles, para cada uno de los test de fitness, de acuerdo a la edad y al sexo, en población mayor española de vida independiente y no institucionalizada. b) Los varones obtuvieron mejores niveles de fitness que las mujeres, excepto en los test de flexibilidad; existe una tendencia a disminuir la condición física en ambos sexos a medida que la edad aumenta. c) Niveles bajos de fitness funcional fueron asociados con un aumento en la percepción de problemas. d) El nivel mínimo de fitness funcional a partir del cual los mayores perciben problemas en sus actividades de la vida diaria (AVD) es similar en ambos sexos. e) Niveles elevados de fitness fueron asociados con un menor riesgo de sufrir obesidad sarcopénica y con una mejor salud percibida en los mayores. f) Las personas mayores con obesidad sarcopénica tienen menor capacidad funcional que las personas mayores sanas. g) Niveles elevados de fuerza fueron asociados con un mejor estado cognitivo siendo el estado cognitivo la variable que más influye en el deterioro de la fuerza, incluso más que el sexo y la edad. ABSTRACT Fitness is a variable that is gaining in prominence, especially from the health perspective. Improvement of life quality that has been experienced in the last few years in developed countries, leads to an expanded life expectancy, increasing the numbers of people living longer. This population consisting of people of over 60 years, an almost forgotten population group from the point of view of scientific research in the field of physical activity and sport, is becoming increasingly important, with the main aim of helping to achieve the saying “do not only add years to life, but also add life to years”. The principal aim of the current thesis was to assess physical fitness levels in Spanish elderly people, of over 65 years, analyzing relationship between physical fitness, its determinants, and other aspects of health such as body composition and cognitive status. In order to establish further public health policies in relation to physical activity and active ageing it is necessary to identify the starting physical fitness levels of the Spanish population and their determinants. The work is based on data from the EXERNET multi-center study ("Multi-center Study for the Evaluation of Fitness levels and their relationship to Healthy Lifestyles in noninstitutionalized Spanish elderly"), and on data from two studies conducted in institutionalized elderly people: a total of 3136 non-institutionalized elderly, from 6 Regions of Spain, and 153 institutionalized elderly in nursing homes of Madrid. The main outcomes of this thesis are: a) sex- and age-specific physical fitness normative values and percentile curves for independent and non-institutionalized Spanish elderly were established. b) Greater physical fitness was present in the elderly men than in women, except for the flexibility test, and a trend toward decreased physical fitness in both sexes as their age increased. c) Lower levels of functional fitness were associated with increased perceived problems. d) The minimum functional fitness level at which older adults perceive problems in their ADLs, is similar for both sexes e) Higher levels of physical fitness were associated with a reduced risk of suffering sarcopenic obesity and better perceived health among the elderly. f) The elderly with sarcopenic obesity have lower physical functioning than healthy counterparts. g) Higher strength values were associated with better cognitive status with cognitive status being the most influencing variable in strength deterioration even more than sex and age.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Al considerar los mecanismos de unión entre dos elementos, metálicos o no, es cada vez más habitual referirse a la adhesión. El término adhesión se refiere a un complejo conjunto de fenómenos relacionados entre sí que están lejos de ser completamente entendidos y, por lo tanto, tiene sentido considerar la conveniencia de cualquier intento de predecir el comportamiento mediante el uso de métodos semi-empíricos. El empleo de adhesivos en las uniones entre materiales iguales o diferentes es un hecho que se ha implantado como sistema de unión en diferentes campos, tales como la industria metalúrgica, la industria de los medios de transporte (aviación, automóvil, transportes de viajeros por carretera urbanos e interurbanos, industria naval y, en los últimos años, transporte ferroviario), la electrónica y comunicaciones, la biomecánica, la nanotecnología, etc. Las funciones del adhesivo en la unión pueden ser variadas: desde soportar esfuerzos mecánicos, como lo hacen los materiales que une -adhesivos estructurales-, a, simplemente, dar continuidad a un objeto o a actuar como sellado y protección de un conjunto electrónico, con funciones aislantes o incluso conductoras. En todos los casos, el adhesivo realiza su función uniendo superficies. El estudio de cómo es y cómo se comporta esa superficie es fundamental para poder definir y diseñar los parámetros más adecuados de los elementos que participan en la unión. Pero el concepto de superficie no queda bien definido si no lo están sus características: así, la rugosidad, la energía superficial o la estructura y orientación cristalina van a definir el resultado final, junto con las propiedades del adhesivo empleado. Se ha comprobado que un tratamiento superficial realizado sobre un sustrato, puede realizar cambios superficiales no sólo a nivel topográfico, sino también a nivel químico y/o microestructural, lo que podría modificar la energía superficial del sustrato. En ensayos realizados en el propio laboratorio, se ha detectado que en casos en los que los valores de la rugosidad obtenida es la misma, la energía superficial del sustrato es diferente dependiendo del tipo de ataque, para la misma aleación del material. Se podría deducir, a priori, que la modificación cristalográfica conseguida influye, además de en la rugosidad, en las características termodinámicas de la misma. Si bien es cierto que la relación entre la rugosidad y la fuerza de adhesión ha sido ampliamente estudiada, la influencia de diferentes tipos de tratamientos superficiales, tanto en la rugosidad como en las características termodinámicas y en las fuerzas de adhesión, es un tema que produce discrepancias en diferentes autores. No todos los autores o investigadores en los mecanismos de la adhesión ven de igual manera la influencia de una u otra característica de la superficie, ni la posibilidad de aplicación de uno u otro criterio de valorización. Por otra parte, un factor de vital importancia en una buena adhesión es la viscosidad del adhesivo y su velocidad de curado. La aplicación de un adhesivo sobre el adherente implica que, si no hay una buena relación entre las energías superficiales de uno y otro, es decir si no se produce un buen mojado, la capacidad de penetración del adhesivo en los poros o microporos del adherente se reduce de forma sinérgica con la velocidad de curado del adhesivo, es decir, con el aumento de viscosidad. Los adhesivos presentan propiedades reológicas muy diferentes antes y después de su curado. En el momento de su aplicación se comportan como fluidos cuyo comportamiento reológico afecta, entre otras, a características tales como la procesabilidad, su ámbito de uso, la dosificación o la capacidad de relleno de holgura. Antes del curado, deben ser fluidos capaces de ser transportados hasta la superficie del sustrato y copiar su superficie realizando un buen mojado. Según va produciéndose el curado del adhesivo, éste va aumentando su viscosidad hasta comportarse como un sólido; una vez completado el curado, los adhesivos han de presentar propiedades mecánicas adecuadas a los requisitos de ensamblaje. En adhesión, la medida en la que un adhesivo es capaz de impregnar la superficie del sustrato sobre el cual se desea realizar la unión, realizar un contacto interfacial intimo y una buena penetración en las oquedades y rugosidades superficiales del sólido, se denomina mojado. Para que la adhesión sea buena, es condición indispensable que el mojado del sustrato por el adhesivo sea bueno. Para el estudio y cuantificación del mojado se utilizan medidas del ángulo de contacto que forma una gota de adhesivo depositada en el sólido tras esperar a que el sistema alcance el equilibrio. Dado el interés que tiene lo que ocurre en la interfase para alcanzar un mayor conocimiento de los procesos de adhesión, el objetivo principal de esta tesis es caracterizar morfológicamente la superficie de un adherente de aluminio para determinar la influencia que tiene en los parámetros que definen la unión adhesiva. Para ello se han marcado unos objetivos parciales que, fundamentalmente, son: • Caracterizar la superficie de un sustrato (aluminio) sometido a diferentes tratamientos superficiales, tanto mecánicos como químicos • Determinar la energía superficial del mismo sustrato después de los tratamientos superficiales mediante la medida de los ángulos de mojado • Analizar la influencia de la viscosidad en el mojado del sustrato, en función de la rugosidad • Determinar la aplicabilidad de la ecuación de Wenzel en función de la magnitud de la rugosidad • Validar los resultados de las características superficiales mediante la realización de ensayos de tracción Para alcanzar estos objetivos, se han empleado nueve tipos diferentes de tratamientos, en los que se ha buscado la obtención de muy diferentes acabados superficiales, razón por la que no todos los tratamientos que se han utilizado son de aplicación actual en la industria. Los tratamientos mecánicos han sido abrasivos de dos clases: • por rozamiento (Pulido y lijado con dos granulometrías diferentes) y • por impacto (Granallado y LSP) Los ataques químicos han sido, también, de dos tipos • Ácidos (HCl en dos concentraciones diferentes) y • Básicos (NaOH en dos concentraciones distintas) La caracterización superficial se ha realizado con el estudio de los parámetros de rugosidad superficiales, definidos en la normativa de rugosidad 3D, y con el estudio derivado de los análisis de la superficie por transformadas de Fourier La energía superficial se ha realizado mediante dos métodos: la determinación de la energía crítica, γc, por el método de Zisman y el cálculo de las componentes polar y dispersiva de la energía superficial mediante la aproximación de van Oss, Chaudhury y Good. Como estudio paralelo, se ha ensayado el efecto de la viscosidad del adhesivo y su velocidad de curado sobre unas muestras de aluminio con rugosidades diferentes. El estudio finaliza con las conclusiones que relacionan el tratamiento superficial y su influencia en el proceso de la adhesión, teniendo como elemento de referencia el efecto producido en las características topográficas y termodinámicas de la superficie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La planificación es un concepto sumamente importante en el deporte. Planificar es tener un plan general, organizado y con posibilidad de cambio para obtener un objetivo determinado ya que no solo concierne a la preparación física, sino que también hace referencia al calendario de competiciones, objetivos de entrenamiento a corto y a largo plazo, aspectos psicológicos. Todo lo que tenga que ver con el marco deportivo. Es una tarea complicada, pues dentro de la planificación del deportista existen muchas variables como pueden ser lesiones, modificaciones del calendario competitivo u otros problemas del entorno. Este trabajo nos muestra la importancia de una buena planificación en el deporte de alto rendimiento. En este caso nos referimos al Judo, un deporte individual en el cual la fuerza es fundamental. Hacemos mención a los distintos tipos de fuerza que necesitamos potenciar para lograr el máximo rendimiento, los métodos a seguir y sus beneficios así como los diferentes tipos de planificación y cómo se usan o se combinan entre ellas según varios autores. Realizamos una planificación de un ciclo olímpico para Rio 2016, es decir a largo plazo, con los posibles problemas que se puede encontrar un preparador físico. Utilizamos tres posibles lesiones: leve, media y aguda y mostramos la variabilidad en el calendario. Por consiguiente podemos afirmar que la planificación es la que se adapta al deportista y a sus necesidades. Por eso es necesario conocer la teoría pero también es muy importante conocer a nuestro deportista y mejorar todos los aspectos para conseguir sus objetivos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabajo presenta un sistema de posicionamiento local (LPS) para personas en entornos interiores basado en la combinación de tecnología RFID activa y una metodología bayesiana de estimación de la posición a partir de la fuerza de las señales de RF recibidas. La complejidad inherente a la propagación de las ondas de RF en entornos interiores causa grandes fluctuaciones en el nivel de la fuerza de la señal, por lo que las técnicas bayesianas, de naturaleza estadística, tienen ventajas significativas frente a métodos de posicionamiento más comunes, como multilateración, minimización cuadrática o localización por fingerprinting. En la validación experimental del sistema RFID-LPS se consigue un error de posicionamiento medio de 2.10 m (mediana de 1.84 m y 3.89 m en el 90% de los casos), en un área abarcada de 475 m2 con 29 tags RFID, y con velocidades de desplazamiento de hasta 0.5 m/s, prestaciones iguales o superiores a otros sistemas del estado del arte. Aunque existen precedentes en Robótica móvil, la combinación de métodos bayesianos y tecnología RFID activa usada en este trabajo es original en el marco de los sistemas de localización de personas, cuyos desplazamientos son generalmente más impredecibles que los de los robots. Otros aspectos novedosos investigados son la posibilidad de alcanzar una estimación conjunta de posición y orientación de un usuario con dos métodos distintos (uso de antenas directivas y aprovechamiento de la atenuación de la señal de RF por el cuerpo humano), la escalabilidad del sistema RFID-LPS, y la estimación de la posición por técnicas bayesianas en sistemas simples que pueden detectar los marcadores RFID, pero no medir su fuerza de señal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La obesidad es una enfermedad crónica, que se ha convertido en un problema de salud global de dimensiones epidémicas. Su origen es diverso y multifactorial, pero son los estilos de vida sedentarios y una alimentación inadecuada las causas fundamentales de su desarrollo. Muchos estudios han demostrado que los tratamientos que combinan dieta hipocalórica y ejercicio físico son los que mejor pronóstico presentan, pero poco se ha investigado sobre el tipo de ejercicio más adecuado en este tipo de intervención. El estudio PRONAF demostró que cualquier protocolo de ejercicio combinado con dieta hipocalórica es eficaz en la pérdida de peso, y sobre todo es el entrenamiento mixto (fuerza y aeróbico) el que mejores resultados ha presentado. El problema aún recae en que existe gran variabilidad interindividual ante un mismo tratamiento. Este trabajo muestra el estudio de un caso perteneciente al estudio PRONAF.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En el ámbito de la actividad física, cada vez es más común el uso de gadgets para cuantificar el entrenamiento que realizamos. De esta manera, el usuario dispone de datos de distancia, velocidad, calorías quemadas… lo que le supone un mayor conocimiento sobre la calidad del entrenamiento que ha realizado. Pero si nos fijamos en el mercado de este tipo de gadgets solo miden entrenamiento cardiovascular sin haber aún ninguno que cuantifique un entrenamiento de fuerza, el cual sería de gran utilidad debido a la cantidad de beneficios y resultados distintos que se pueden obtener según se modifiquen de una manera u otra las cargas de entrenamiento. Para este trabajo hemos realizado un estudio sobre la eficacia que presentan los acelerómetros a la hora de cuantificar los movimientos que se realizan en entrenamientos de fuerza con pesos libres. Para ello comparamos los datos obtenidos por el acelerómetro y el sistema de VICON de captura de movimiento para comprobar el margen de erros existente y hasta qué punto podría ser factible diseñar un gadget que mida el entrenamiento de fuerza basado en el uso de acelerómetros.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente Trabajo fin Fin de Máster, versa sobre una caracterización preliminar del comportamiento de un robot de tipo industrial, configurado por 4 eslabones y 4 grados de libertad, y sometido a fuerzas de mecanizado en su extremo. El entorno de trabajo planteado es el de plantas de fabricación de piezas de aleaciones de aluminio para automoción. Este tipo de componentes parte de un primer proceso de fundición que saca la pieza en bruto. Para series medias y altas, en función de las propiedades mecánicas y plásticas requeridas y los costes de producción, la inyección a alta presión (HPDC) y la fundición a baja presión (LPC) son las dos tecnologías más usadas en esta primera fase. Para inyección a alta presión, las aleaciones de aluminio más empleadas son, en designación simbólica según norma EN 1706 (entre paréntesis su designación numérica); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). Para baja presión, EN AC AlSi7Mg0,3 (EN AC 42100). En los 3 primeros casos, los límites de Silicio permitidos pueden superan el 10%. En el cuarto caso, es inferior al 10% por lo que, a los efectos de ser sometidas a mecanizados, las piezas fabricadas en aleaciones con Si superior al 10%, se puede considerar que son equivalentes, diferenciándolas de la cuarta. Las tolerancias geométricas y dimensionales conseguibles directamente de fundición, recogidas en normas como ISO 8062 o DIN 1688-1, establecen límites para este proceso. Fuera de esos límites, las garantías en conseguir producciones con los objetivos de ppms aceptados en la actualidad por el mercado, obligan a ir a fases posteriores de mecanizado. Aquellas geometrías que, funcionalmente, necesitan disponer de unas tolerancias geométricas y/o dimensionales definidas acorde a ISO 1101, y no capaces por este proceso inicial de moldeado a presión, deben ser procesadas en una fase posterior en células de mecanizado. En este caso, las tolerancias alcanzables para procesos de arranque de viruta se recogen en normas como ISO 2768. Las células de mecanizado se componen, por lo general, de varios centros de control numérico interrelacionados y comunicados entre sí por robots que manipulan las piezas en proceso de uno a otro. Dichos robots, disponen en su extremo de una pinza utillada para poder coger y soltar las piezas en los útiles de mecanizado, las mesas de intercambio para cambiar la pieza de posición o en utillajes de equipos de medición y prueba, o en cintas de entrada o salida. La repetibilidad es alta, de centésimas incluso, definida según norma ISO 9283. El problema es que, estos rangos de repetibilidad sólo se garantizan si no se hacen esfuerzos o éstos son despreciables (caso de mover piezas). Aunque las inercias de mover piezas a altas velocidades hacen que la trayectoria intermedia tenga poca precisión, al inicio y al final (al coger y dejar pieza, p.e.) se hacen a velocidades relativamente bajas que hacen que el efecto de las fuerzas de inercia sean menores y que permiten garantizar la repetibilidad anteriormente indicada. No ocurre así si se quitara la garra y se intercambia con un cabezal motorizado con una herramienta como broca, mandrino, plato de cuchillas, fresas frontales o tangenciales… Las fuerzas ejercidas de mecanizado generarían unos pares en las uniones tan grandes y tan variables que el control del robot no sería capaz de responder (o no está preparado, en un principio) y generaría una desviación en la trayectoria, realizada a baja velocidad, que desencadenaría en un error de posición (ver norma ISO 5458) no asumible para la funcionalidad deseada. Se podría llegar al caso de que la tolerancia alcanzada por un pretendido proceso más exacto diera una dimensión peor que la que daría el proceso de fundición, en principio con mayor variabilidad dimensional en proceso (y por ende con mayor intervalo de tolerancia garantizable). De hecho, en los CNCs, la precisión es muy elevada, (pudiéndose despreciar en la mayoría de los casos) y no es la responsable de, por ejemplo la tolerancia de posición al taladrar un agujero. Factores como, temperatura de la sala y de la pieza, calidad constructiva de los utillajes y rigidez en el amarre, error en el giro de mesas y de colocación de pieza, si lleva agujeros previos o no, si la herramienta está bien equilibrada y el cono es el adecuado para el tipo de mecanizado… influyen más. Es interesante que, un elemento no específico tan común en una planta industrial, en el entorno anteriormente descrito, como es un robot, el cual no sería necesario añadir por disponer de él ya (y por lo tanto la inversión sería muy pequeña), puede mejorar la cadena de valor disminuyendo el costo de fabricación. Y si se pudiera conjugar que ese robot destinado a tareas de manipulación, en los muchos tiempos de espera que va a disfrutar mientras el CNC arranca viruta, pudiese coger un cabezal y apoyar ese mecanizado; sería doblemente interesante. Por lo tanto, se antoja sugestivo poder conocer su comportamiento e intentar explicar qué sería necesario para llevar esto a cabo, motivo de este trabajo. La arquitectura de robot seleccionada es de tipo SCARA. La búsqueda de un robot cómodo de modelar y de analizar cinemática y dinámicamente, sin limitaciones relevantes en la multifuncionalidad de trabajos solicitados, ha llevado a esta elección, frente a otras arquitecturas como por ejemplo los robots antropomórficos de 6 grados de libertad, muy populares a nivel industrial. Este robot dispone de 3 uniones, de las cuales 2 son de tipo par de revolución (1 grado de libertad cada una) y la tercera es de tipo corredera o par cilíndrico (2 grados de libertad). La primera unión, de tipo par de revolución, sirve para unir el suelo (considerado como eslabón número 1) con el eslabón número 2. La segunda unión, también de ese tipo, une el eslabón número 2 con el eslabón número 3. Estos 2 brazos, pueden describir un movimiento horizontal, en el plano X-Y. El tercer eslabón, está unido al eslabón número 4 por la unión de tipo corredera. El movimiento que puede describir es paralelo al eje Z. El robot es de 4 grados de libertad (4 motores). En relación a los posibles trabajos que puede realizar este tipo de robot, su versatilidad abarca tanto operaciones típicas de manipulación como operaciones de arranque de viruta. Uno de los mecanizados más usuales es el taladrado, por lo cual se elige éste para su modelización y análisis. Dentro del taladrado se elegirá para acotar las fuerzas, taladrado en macizo con broca de diámetro 9 mm. El robot se ha considerado por el momento que tenga comportamiento de sólido rígido, por ser el mayor efecto esperado el de los pares en las uniones. Para modelar el robot se utiliza el método de los sistemas multicuerpos. Dentro de este método existen diversos tipos de formulaciones (p.e. Denavit-Hartenberg). D-H genera una cantidad muy grande de ecuaciones e incógnitas. Esas incógnitas son de difícil comprensión y, para cada posición, hay que detenerse a pensar qué significado tienen. Se ha optado por la formulación de coordenadas naturales. Este sistema utiliza puntos y vectores unitarios para definir la posición de los distintos cuerpos, y permite compartir, cuando es posible y se quiere, para definir los pares cinemáticos y reducir al mismo tiempo el número de variables. Las incógnitas son intuitivas, las ecuaciones de restricción muy sencillas y se reduce considerablemente el número de ecuaciones e incógnitas. Sin embargo, las coordenadas naturales “puras” tienen 2 problemas. El primero, que 2 elementos con un ángulo de 0 o 180 grados, dan lugar a puntos singulares que pueden crear problemas en las ecuaciones de restricción y por lo tanto han de evitarse. El segundo, que tampoco inciden directamente sobre la definición o el origen de los movimientos. Por lo tanto, es muy conveniente complementar esta formulación con ángulos y distancias (coordenadas relativas). Esto da lugar a las coordenadas naturales mixtas, que es la formulación final elegida para este TFM. Las coordenadas naturales mixtas no tienen el problema de los puntos singulares. Y la ventaja más importante reside en su utilidad a la hora de aplicar fuerzas motrices, momentos o evaluar errores. Al incidir sobre la incógnita origen (ángulos o distancias) controla los motores de manera directa. El algoritmo, la simulación y la obtención de resultados se ha programado mediante Matlab. Para realizar el modelo en coordenadas naturales mixtas, es preciso modelar en 2 pasos el robot a estudio. El primer modelo se basa en coordenadas naturales. Para su validación, se plantea una trayectoria definida y se analiza cinemáticamente si el robot satisface el movimiento solicitado, manteniendo su integridad como sistema multicuerpo. Se cuantifican los puntos (en este caso inicial y final) que configuran el robot. Al tratarse de sólidos rígidos, cada eslabón queda definido por sus respectivos puntos inicial y final (que son los más interesantes para la cinemática y la dinámica) y por un vector unitario no colineal a esos 2 puntos. Los vectores unitarios se colocan en los lugares en los que se tenga un eje de rotación o cuando se desee obtener información de un ángulo. No son necesarios vectores unitarios para medir distancias. Tampoco tienen por qué coincidir los grados de libertad con el número de vectores unitarios. Las longitudes de cada eslabón quedan definidas como constantes geométricas. Se establecen las restricciones que definen la naturaleza del robot y las relaciones entre los diferentes elementos y su entorno. La trayectoria se genera por una nube de puntos continua, definidos en coordenadas independientes. Cada conjunto de coordenadas independientes define, en un instante concreto, una posición y postura de robot determinada. Para conocerla, es necesario saber qué coordenadas dependientes hay en ese instante, y se obtienen resolviendo por el método de Newton-Rhapson las ecuaciones de restricción en función de las coordenadas independientes. El motivo de hacerlo así es porque las coordenadas dependientes deben satisfacer las restricciones, cosa que no ocurre con las coordenadas independientes. Cuando la validez del modelo se ha probado (primera validación), se pasa al modelo 2. El modelo número 2, incorpora a las coordenadas naturales del modelo número 1, las coordenadas relativas en forma de ángulos en los pares de revolución (3 ángulos; ϕ1, ϕ 2 y ϕ3) y distancias en los pares prismáticos (1 distancia; s). Estas coordenadas relativas pasan a ser las nuevas coordenadas independientes (sustituyendo a las coordenadas independientes cartesianas del modelo primero, que eran coordenadas naturales). Es necesario revisar si el sistema de vectores unitarios del modelo 1 es suficiente o no. Para este caso concreto, se han necesitado añadir 1 vector unitario adicional con objeto de que los ángulos queden perfectamente determinados con las correspondientes ecuaciones de producto escalar y/o vectorial. Las restricciones habrán de ser incrementadas en, al menos, 4 ecuaciones; una por cada nueva incógnita. La validación del modelo número 2, tiene 2 fases. La primera, al igual que se hizo en el modelo número 1, a través del análisis cinemático del comportamiento con una trayectoria definida. Podrían obtenerse del modelo 2 en este análisis, velocidades y aceleraciones, pero no son necesarios. Tan sólo interesan los movimientos o desplazamientos finitos. Comprobada la coherencia de movimientos (segunda validación), se pasa a analizar cinemáticamente el comportamiento con trayectorias interpoladas. El análisis cinemático con trayectorias interpoladas, trabaja con un número mínimo de 3 puntos máster. En este caso se han elegido 3; punto inicial, punto intermedio y punto final. El número de interpolaciones con el que se actúa es de 50 interpolaciones en cada tramo (cada 2 puntos máster hay un tramo), resultando un total de 100 interpolaciones. El método de interpolación utilizado es el de splines cúbicas con condición de aceleración inicial y final constantes, que genera las coordenadas independientes de los puntos interpolados de cada tramo. Las coordenadas dependientes se obtienen resolviendo las ecuaciones de restricción no lineales con el método de Newton-Rhapson. El método de las splines cúbicas es muy continuo, por lo que si se desea modelar una trayectoria en el que haya al menos 2 movimientos claramente diferenciados, es preciso hacerlo en 2 tramos y unirlos posteriormente. Sería el caso en el que alguno de los motores se desee expresamente que esté parado durante el primer movimiento y otro distinto lo esté durante el segundo movimiento (y así sucesivamente). Obtenido el movimiento, se calculan, también mediante fórmulas de diferenciación numérica, las velocidades y aceleraciones independientes. El proceso es análogo al anteriormente explicado, recordando la condición impuesta de que la aceleración en el instante t= 0 y en instante t= final, se ha tomado como 0. Las velocidades y aceleraciones dependientes se calculan resolviendo las correspondientes derivadas de las ecuaciones de restricción. Se comprueba, de nuevo, en una tercera validación del modelo, la coherencia del movimiento interpolado. La dinámica inversa calcula, para un movimiento definido -conocidas la posición, velocidad y la aceleración en cada instante de tiempo-, y conocidas las fuerzas externas que actúan (por ejemplo el peso); qué fuerzas hay que aplicar en los motores (donde hay control) para que se obtenga el citado movimiento. En la dinámica inversa, cada instante del tiempo es independiente de los demás y tiene una posición, una velocidad y una aceleración y unas fuerzas conocidas. En este caso concreto, se desean aplicar, de momento, sólo las fuerzas debidas al peso, aunque se podrían haber incorporado fuerzas de otra naturaleza si se hubiese deseado. Las posiciones, velocidades y aceleraciones, proceden del cálculo cinemático. El efecto inercial de las fuerzas tenidas en cuenta (el peso) es calculado. Como resultado final del análisis dinámico inverso, se obtienen los pares que han de ejercer los cuatro motores para replicar el movimiento prescrito con las fuerzas que estaban actuando. La cuarta validación del modelo consiste en confirmar que el movimiento obtenido por aplicar los pares obtenidos en la dinámica inversa, coinciden con el obtenido en el análisis cinemático (movimiento teórico). Para ello, es necesario acudir a la dinámica directa. La dinámica directa se encarga de calcular el movimiento del robot, resultante de aplicar unos pares en motores y unas fuerzas en el robot. Por lo tanto, el movimiento real resultante, al no haber cambiado ninguna condición de las obtenidas en la dinámica inversa (pares de motor y fuerzas inerciales debidas al peso de los eslabones) ha de ser el mismo al movimiento teórico. Siendo así, se considera que el robot está listo para trabajar. Si se introduce una fuerza exterior de mecanizado no contemplada en la dinámica inversa y se asigna en los motores los mismos pares resultantes de la resolución del problema dinámico inverso, el movimiento real obtenido no es igual al movimiento teórico. El control de lazo cerrado se basa en ir comparando el movimiento real con el deseado e introducir las correcciones necesarias para minimizar o anular las diferencias. Se aplican ganancias en forma de correcciones en posición y/o velocidad para eliminar esas diferencias. Se evalúa el error de posición como la diferencia, en cada punto, entre el movimiento teórico deseado en el análisis cinemático y el movimiento real obtenido para cada fuerza de mecanizado y una ganancia concreta. Finalmente, se mapea el error de posición obtenido para cada fuerza de mecanizado y las diferentes ganancias previstas, graficando la mejor precisión que puede dar el robot para cada operación que se le requiere, y en qué condiciones. -------------- This Master´s Thesis deals with a preliminary characterization of the behaviour for an industrial robot, configured with 4 elements and 4 degrees of freedoms, and subjected to machining forces at its end. Proposed working conditions are those typical from manufacturing plants with aluminium alloys for automotive industry. This type of components comes from a first casting process that produces rough parts. For medium and high volumes, high pressure die casting (HPDC) and low pressure die casting (LPC) are the most used technologies in this first phase. For high pressure die casting processes, most used aluminium alloys are, in simbolic designation according EN 1706 standard (between brackets, its numerical designation); EN AC AlSi9Cu3(Fe) (EN AC 46000) , EN AC AlSi9Cu3(Fe)(Zn) (EN AC 46500), y EN AC AlSi12Cu1(Fe) (EN AC 47100). For low pressure, EN AC AlSi7Mg0,3 (EN AC 42100). For the 3 first alloys, Si allowed limits can exceed 10% content. Fourth alloy has admisible limits under 10% Si. That means, from the point of view of machining, that components made of alloys with Si content above 10% can be considered as equivalent, and the fourth one must be studied separately. Geometrical and dimensional tolerances directly achievables from casting, gathered in standards such as ISO 8062 or DIN 1688-1, establish a limit for this process. Out from those limits, guarantees to achieve batches with objetive ppms currently accepted by market, force to go to subsequent machining process. Those geometries that functionally require a geometrical and/or dimensional tolerance defined according ISO 1101, not capable with initial moulding process, must be obtained afterwards in a machining phase with machining cells. In this case, tolerances achievables with cutting processes are gathered in standards such as ISO 2768. In general terms, machining cells contain several CNCs that they are interrelated and connected by robots that handle parts in process among them. Those robots have at their end a gripper in order to take/remove parts in machining fixtures, in interchange tables to modify position of part, in measurement and control tooling devices, or in entrance/exit conveyors. Repeatibility for robot is tight, even few hundredths of mm, defined according ISO 9283. Problem is like this; those repeatibilty ranks are only guaranteed when there are no stresses or they are not significant (f.e. due to only movement of parts). Although inertias due to moving parts at a high speed make that intermediate paths have little accuracy, at the beginning and at the end of trajectories (f.e, when picking part or leaving it) movement is made with very slow speeds that make lower the effect of inertias forces and allow to achieve repeatibility before mentioned. It does not happens the same if gripper is removed and it is exchanged by an spindle with a machining tool such as a drilling tool, a pcd boring tool, a face or a tangential milling cutter… Forces due to machining would create such big and variable torques in joints that control from the robot would not be able to react (or it is not prepared in principle) and would produce a deviation in working trajectory, made at a low speed, that would trigger a position error (see ISO 5458 standard) not assumable for requested function. Then it could be possible that tolerance achieved by a more exact expected process would turn out into a worst dimension than the one that could be achieved with casting process, in principle with a larger dimensional variability in process (and hence with a larger tolerance range reachable). As a matter of fact, accuracy is very tight in CNC, (its influence can be ignored in most cases) and it is not the responsible of, for example position tolerance when drilling a hole. Factors as, room and part temperature, manufacturing quality of machining fixtures, stiffness at clamping system, rotating error in 4th axis and part positioning error, if there are previous holes, if machining tool is properly balanced, if shank is suitable for that machining type… have more influence. It is interesting to know that, a non specific element as common, at a manufacturing plant in the enviroment above described, as a robot (not needed to be added, therefore with an additional minimum investment), can improve value chain decreasing manufacturing costs. And when it would be possible to combine that the robot dedicated to handling works could support CNCs´ works in its many waiting time while CNCs cut, and could take an spindle and help to cut; it would be double interesting. So according to all this, it would be interesting to be able to know its behaviour and try to explain what would be necessary to make this possible, reason of this work. Selected robot architecture is SCARA type. The search for a robot easy to be modeled and kinematically and dinamically analyzed, without significant limits in the multifunctionality of requested operations, has lead to this choice. Due to that, other very popular architectures in the industry, f.e. 6 DOFs anthropomorphic robots, have been discarded. This robot has 3 joints, 2 of them are revolute joints (1 DOF each one) and the third one is a cylindrical joint (2 DOFs). The first joint, a revolute one, is used to join floor (body 1) with body 2. The second one, a revolute joint too, joins body 2 with body 3. These 2 bodies can move horizontally in X-Y plane. Body 3 is linked to body 4 with a cylindrical joint. Movement that can be made is paralell to Z axis. The robt has 4 degrees of freedom (4 motors). Regarding potential works that this type of robot can make, its versatility covers either typical handling operations or cutting operations. One of the most common machinings is to drill. That is the reason why it has been chosen for the model and analysis. Within drilling, in order to enclose spectrum force, a typical solid drilling with 9 mm diameter. The robot is considered, at the moment, to have a behaviour as rigid body, as biggest expected influence is the one due to torques at joints. In order to modelize robot, it is used multibodies system method. There are under this heading different sorts of formulations (f.e. Denavit-Hartenberg). D-H creates a great amount of equations and unknown quantities. Those unknown quatities are of a difficult understanding and, for each position, one must stop to think about which meaning they have. The choice made is therefore one of formulation in natural coordinates. This system uses points and unit vectors to define position of each different elements, and allow to share, when it is possible and wished, to define kinematic torques and reduce number of variables at the same time. Unknown quantities are intuitive, constrain equations are easy and number of equations and variables are strongly reduced. However, “pure” natural coordinates suffer 2 problems. The first one is that 2 elements with an angle of 0° or 180°, give rise to singular positions that can create problems in constrain equations and therefore they must be avoided. The second problem is that they do not work directly over the definition or the origin of movements. Given that, it is highly recommended to complement this formulation with angles and distances (relative coordinates). This leads to mixed natural coordinates, and they are the final formulation chosen for this MTh. Mixed natural coordinates have not the problem of singular positions. And the most important advantage lies in their usefulness when applying driving forces, torques or evaluating errors. As they influence directly over origin variable (angles or distances), they control motors directly. The algorithm, simulation and obtaining of results has been programmed with Matlab. To design the model in mixed natural coordinates, it is necessary to model the robot to be studied in 2 steps. The first model is based in natural coordinates. To validate it, it is raised a defined trajectory and it is kinematically analyzed if robot fulfils requested movement, keeping its integrity as multibody system. The points (in this case starting and ending points) that configure the robot are quantified. As the elements are considered as rigid bodies, each of them is defined by its respectively starting and ending point (those points are the most interesting ones from the point of view of kinematics and dynamics) and by a non-colinear unit vector to those points. Unit vectors are placed where there is a rotating axis or when it is needed information of an angle. Unit vectors are not needed to measure distances. Neither DOFs must coincide with the number of unit vectors. Lengths of each arm are defined as geometrical constants. The constrains that define the nature of the robot and relationships among different elements and its enviroment are set. Path is generated by a cloud of continuous points, defined in independent coordinates. Each group of independent coordinates define, in an specific instant, a defined position and posture for the robot. In order to know it, it is needed to know which dependent coordinates there are in that instant, and they are obtained solving the constraint equations with Newton-Rhapson method according to independent coordinates. The reason to make it like this is because dependent coordinates must meet constraints, and this is not the case with independent coordinates. When suitability of model is checked (first approval), it is given next step to model 2. Model 2 adds to natural coordinates from model 1, the relative coordinates in the shape of angles in revoluting torques (3 angles; ϕ1, ϕ 2 and ϕ3) and distances in prismatic torques (1 distance; s). These relative coordinates become the new independent coordinates (replacing to cartesian independent coordinates from model 1, that they were natural coordinates). It is needed to review if unit vector system from model 1 is enough or not . For this specific case, it was necessary to add 1 additional unit vector to define perfectly angles with their related equations of dot and/or cross product. Constrains must be increased in, at least, 4 equations; one per each new variable. The approval of model 2 has two phases. The first one, same as made with model 1, through kinematic analysis of behaviour with a defined path. During this analysis, it could be obtained from model 2, velocities and accelerations, but they are not needed. They are only interesting movements and finite displacements. Once that the consistence of movements has been checked (second approval), it comes when the behaviour with interpolated trajectories must be kinematically analyzed. Kinematic analysis with interpolated trajectories work with a minimum number of 3 master points. In this case, 3 points have been chosen; starting point, middle point and ending point. The number of interpolations has been of 50 ones in each strecht (each 2 master points there is an strecht), turning into a total of 100 interpolations. The interpolation method used is the cubic splines one with condition of constant acceleration both at the starting and at the ending point. This method creates the independent coordinates of interpolated points of each strecht. The dependent coordinates are achieved solving the non-linear constrain equations with Newton-Rhapson method. The method of cubic splines is very continuous, therefore when it is needed to design a trajectory in which there are at least 2 movements clearly differents, it is required to make it in 2 steps and join them later. That would be the case when any of the motors would keep stopped during the first movement, and another different motor would remain stopped during the second movement (and so on). Once that movement is obtained, they are calculated, also with numerical differenciation formulas, the independent velocities and accelerations. This process is analogous to the one before explained, reminding condition that acceleration when t=0 and t=end are 0. Dependent velocities and accelerations are calculated solving related derivatives of constrain equations. In a third approval of the model it is checked, again, consistence of interpolated movement. Inverse dynamics calculates, for a defined movement –knowing position, velocity and acceleration in each instant of time-, and knowing external forces that act (f.e. weights); which forces must be applied in motors (where there is control) in order to obtain requested movement. In inverse dynamics, each instant of time is independent of the others and it has a position, a velocity, an acceleration and known forces. In this specific case, it is intended to apply, at the moment, only forces due to the weight, though forces of another nature could have been added if it would have been preferred. The positions, velocities and accelerations, come from kinematic calculation. The inertial effect of forces taken into account (weight) is calculated. As final result of the inverse dynamic analysis, the are obtained torques that the 4 motors must apply to repeat requested movement with the forces that were acting. The fourth approval of the model consists on confirming that the achieved movement due to the use of the torques obtained in the inverse dynamics, are in accordance with movements from kinematic analysis (theoretical movement). For this, it is necessary to work with direct dynamics. Direct dynamic is in charge of calculating the movements of robot that results from applying torques at motors and forces at the robot. Therefore, the resultant real movement, as there was no change in any condition of the ones obtained at the inverse dynamics (motor torques and inertial forces due to weight of elements) must be the same than theoretical movement. When these results are achieved, it is considered that robot is ready to work. When a machining external force is introduced and it was not taken into account before during the inverse dynamics, and torques at motors considered are the ones of the inverse dynamics, the real movement obtained is not the same than the theoretical movement. Closed loop control is based on comparing real movement with expected movement and introducing required corrrections to minimize or cancel differences. They are applied gains in the way of corrections for position and/or tolerance to remove those differences. Position error is evaluated as the difference, in each point, between theoretical movemment (calculated in the kinematic analysis) and the real movement achieved for each machining force and for an specific gain. Finally, the position error obtained for each machining force and gains are mapped, giving a chart with the best accuracy that the robot can give for each operation that has been requested and which conditions must be provided.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este artículo se presenta el modelado y análisis de un sistema de teloperación bilateral no lineal de n grados de libertad controlado por convergencia de estado. Se considera que el operador humano aplica una fuerza constante sobre el manipulador local mientras realiza la tarea. Además, la interacción entre el manipulador remoto y el entorno se considera pasiva. La comunicación entre el sitio local y remoto se realiza mediante un canal de comunicación con retardo de tiempo. El análisis presentado en este artículo considerada que éste es variable. En este artículo también se demuestra la estabilidad del sistema utilizando la teoría de Lyapunov-Krasovskii demostrándose que el esquema de control por convergencia de estado para el caso con retardo de tiempo variable asegura la estabilidad del sistema de teleoperación no lineal. También se muestra experimentalmente que, para el caso de protocolos de comunicación fiables, el esquema propuesto garantiza que se logra la coordinación posición local-remoto.