42 resultados para máximas conversacionales
em Universidad Politécnica de Madrid
Resumo:
La obra está destinada a introducir a los profesionales de la minería y estudiantes de ingenieía en el concepto del desarrollo minero sostenible y en la necesidad de integración de estrategias de éste tipo en la actividad extractiva de recursos minerales. Se describen las líneas de desarrollo minero sostenible desde la perspetiva europea, así como las estrategias europeas sobre el uso de los recursos minerales y el contexto jurídico vigente a éste respecto. El libro describe desde un punto de vista general las distintas directivas europeas que configuran el nuevo marco regulatorio en el que deben desenvolverse la producción, circulación y utilización de sustancias minerales para garantizar las máximas cotas de seguridad y sostenibilidad. La parte final del libro aborda la gestión medioambiental de las empresas mineras en éste nuevo contexto.
Resumo:
Este artículo presenta la plataforma TutorGSI que facilita el uso de agentes conversacionales en entornos de eLearning como Moodle. La plataforma ha sido desarrollada dentro del proyecto eduWAI (eduWAI, 2010), y simplifica el proceso de resolución de dudas académicas a través de un agente con el que se interactúa en lenguaje natural. TutorGSI posibilita que los profesores puedan modificar las conversaciones existentes o crear nuevos tipos en función de las consultas que vayan planteando los alumnos.
Resumo:
Se plantea la posible demanda en un futuro del transporte de grandes plataformas petrolíferas semisumergibles de más de 70.000 t de peso, para perforaciones a más de 10.000 pies de profundidad. Estudia la estabilidad de buques Heavy Lift Carrier con mangas atípicas, capaces de transportar estas cargas, y en algunos casos sobresaliendo por sus amuras. Para esto se: 1. Estudia y genera posibles carenas, su compartimentación y lastre para la inmersión o emersión de la cubierta de intemperie, a más de 10 m de profundidad para tomar o dejar la carga, optimizando el proceso. 2. Analiza la estabilidad del buque tanto en inmersión/emersión y navegación, con máximas cargas y con altos centros de gravedad, y establece ábacos de estabilidad límite en función de los parámetros del buque. 3. Plantea la corrección de estabilidad excesiva del buque en condiciones de navegación para evitar las excesivas aceleraciones. Los resultados obtenidos aportan ábacos que permiten, en función de los parámetros carga a transportar (Zg max) - Peso Carga), elegir el buque más adecuado, capaz de efectuar la inmersión, emersión, y navegación, y plantea acciones futuras de investigación. ABSTRACT This work raises the potential demand in the future, to transport large semisubmersible oil rigs over 70,000 tonnes of weight for drilling to 10,000 feet deep. Study vessel stability Heavy Lift Carrier with atypical breadths capable of carrying these burdens, and in some cases standing out for their bows. 1. Examines possible hulls, their partitioning and ballast for immersion or emersion of the weather deck, more than 10 m deep to take –loading (lifting) - or leave (off- loading). 2. Analyzes the stability of the vessel both immersion / emersion and navigation, with maximum loads with high centers of gravity and stability limit states abacus according to the parameters of the ship. 3. Correction raises the stability of the ship over navigation to prevent excessive accelerations. The results allow, in terms of cargo transport parameters (Zg max) - Weight Load), choosing the most suitable vessel capable of carrying out the immersion, emersion, and navigation, and suggests future research activities.
Resumo:
Este trabajo analiza la capacidad estructural de los elementos verticales que componen el pórtico resistente más limitativo de la variante de invernadero multitúnel más utilizada en el sudeste de España. Se estudia la influencia de la longitud y anchura del invernadero en la distribución de tensiones que se produce en dichos elementos. Se ha realizado un modelo tridimensional de elementos finitos con el programa ROBOT MILLENNIUM en su versión 20.1 en el que se ha representado la estructura de barras que conforma el invernadero. Se han analizado los resultados de tensiones normales máximas de 16 estructuras con geometría de túnel similar, pero de diferente anchura y longitud, de tal forma que la superficie en planta oscila entre los 600 m 2 y los 38.400 m 2 . El cálculo de las acciones existentes sobre los invernaderos se ha realizado según la norma UNE-EN 13031-1. Los resultados numéricos obtenidos han sido estudiados para determinar la influencia de las dimensiones del invernadero en la distribución de tensiones. Aunque se observan significativas reducciones en las tensiones con la adición de túneles, no se puede generalizar la influencia del aumento de las dimensiones del invernadero en los cambios tensionales del mismo. Los resultados obtenidos se consideran de gran utilidad para la optimización de las estructuras de los invernaderos multitúnel así como para garantizar la seguridad mecánica de las mismas
Análisis estructural 3D de los invernaderos multitunel del sudeste de España. Elementos horizontales
Resumo:
Este trabajo analiza la capacidad estructural de los Este trabajo analiza la capacidad estructural de los elementos horizontales que componen el pórtico resistente más limitativo de la variante de invernadero multitúnel más utilizada en el sudeste de España. Se analiza la influencia de la anchura y longitud del invernadero en la distribución de tensiones que se producen en dichos elementos. Se ha realizado un modelo tridimensional de elementos finitos con el programa ROBOT MILLENNIUM en su versión 20.1 en el que se ha representado la estructura de barras que conforma el invernadero. Se han analizado los resultados de tensiones normales máximas de 16 estructuras con geometría de túnel similar, pero de diferente anchura y longitud, de tal forma que la superficie en planta oscila entre los 600 m 2 y los 38.400 m 2 .El cálculo de las acciones existentes sobre los invernaderos se ha realizado según la norma UNE-EN 13031-1. El aumento de las dimensiones del invernadero conlleva importantes variaciones en las tensiones máximas registradas por canalones. Sin embargo, en arcos y tirantes de cercha, las tensiones permanecen constantes. Los resultados obtenidos se consideran de gran utilidad para la optimización de las estructuras de los invernaderos multitúnel así como para garantizar la seguridad mecánica de las mismas.
Resumo:
Las estructuras mixtas tienen como filosofía una disposición óptima de los materiales que las forman tanto por su resistencia, aspecto constructivo, funcional y formal. Habitualmente estos materiales serán acero y hormigón que trabajan de forma solidaria gracias a la conexión dispuesta en la interfaz entre materiales y que transmite el flujo rasante entre ambos permitiendo así que la sección trabaje de un modo solidario. Tanto el hormigón como el acero, pueden formar parte de las secciones mixtas de diferentes maneras. En el caso del acero, se tratará primordialmente de acero estructural en la zona inferior de la sección, pero también se encontrará embebido en el hormigón en forma de armadura pasiva, o en forma de armaduras activas, aunque en el siguiente trabajo nos centraremos más en los casos en que la losa se refuerce mediante armadura pasiva. Además, estudiaremos casos en los que las distintas chapas que forman la sección metálica, puedan tener diferentes resistencias, tratándose entonces de secciones metálicas híbridas. Por otra parte, el hormigón no sólo estará presente en las secciones como hormigón vertido “in situ” sino que también existirán casos a los que llegaremos más adelante en el que se usen losas de hormigón prefabricado, que incluso puedan trabajar de encofrado perdido del hormigón “in situ” pasando a formar, los dos tipos, parte de la losa de hormigón bien superior o inferior según la tipología de puente empleado. La acción mixta, será estudiada en este trabajo en su aplicación en puentes y viaductos, pero también tiene una profunda aplicación en el ámbito de la edificación en base a sus peculiaridades, mínimos pesos a bajo coste, apropiada rigidez, monolitismo y arriostramiento sin fragilidad, grandes posibilidades de empleo de la prefabricación, rapidez de ejecución, mínimos cantos con bajo coste, etc. También se puede usar en una actividad creciente y cada vez de mayor importancia, como es el refuerzo de antiguas estructuras metálicas o de hormigón, al transformarlas en mixtas, aumentando así su capacidad portante. La construcción mixta ofrece las máximas posibilidades de empleo racional de los materiales básicos de la construcción moderna, a saber el hormigón y el acero, así como la creación de formas, procesos, etc., en un campo en el que a pesar de todos los logros alcanzados sigue en evolución y alcanza nuevos límites cada día.
Resumo:
El fútbol es un deporte en cuya práctica existe una alta incidencia de lesión. Además, en el ámbito profesional las lesiones suponen un duro proceso de recuperación para el futbolista, una reducción del rendimiento deportivo para éste y para el equipo, y unos grandes costes económicos para el club. Dentro de esta problemática, la bibliografía consultada concluye que en las pretemporadas se produce una mayor incidencia de lesión por sobrecarga, es decir, sin contacto; un tipo de lesiones que está a nuestro alcance poder prevenir. Por ello, consideramos importante el conocer y desarrollar métodos, herramientas y principios para obtener programas preventivos efectivos, que reduzcan las elevadas cifras de incidencia de lesión mostradas por la literatura. El presente estudio observa y registra las lesiones, a través del cuestionario F-MARC, de un equipo profesional de fútbol de la Liga Española durante las pretemporadas 2008 (n=24) y 2009 (n=24). Además, durante la pretemporada 2009 se aplicó la termografía infrarroja para adquirir información sobre la asimilación de la carga de entrenamiento por parte de los jugadores, y dicha información se utilizarón para mejorar las tomas de decisiones de protocolos post-ejercicio específicos en prevención de lesiones, los cuales fueron los mismos que se utilizaron previamente en la pretemporada 2008. El estudio tiene un diseño con características pre-post sin grupo de control. Es un estudio longitudinal donde, tras un registro inicial de lesiones en la pretemporada 2008, los sujetos fueron expuestos a la variable independiente, utilización de la termografía infrarroja, en el protocolo de prevención de lesiones durante la pretemporada 2009. Los resultados de este trabajo muestran una reducción significativa de hasta el 60% en la frecuencia de lesión durante la pretemporada 2009, y un descenso de la incidencia de lesión total que pasa de 8,3 lesiones por cada 1000 horas de exposición en 2008 a 3,4 en 2009. Con ello, la probabilidad de lesión se redujo considerablemente pasando de un 85% de los jugadores lesionados en 2008 a un 26% en 2009; además, las lesiones de carácter muscular descendieron en 2009 un 70% con respecto al 2008, y los días de baja que causaron todas las lesiones pasó a reducirse un 91,8% en la pretemporada 2009. Por otro lado, el perfil térmico de los jugadores en función de su lateralidad y dominancia, guarda una gran similitud en sus temperaturas, tanto medias como máximas, con temperaturas más elevadas en la zona corporal lumbar y poplítea, y con temperaturas más bajas en tobillos y rodillas. Todas las zonas corporales estudiadas, exceptuando el tobillo (p<0,05), no presentan diferencias significativas entre ambos hemicuerpos, estableciendo un promedio de diferencia entre ambos lados de 0,06±0,16 ºC. Teniendo en cuenta estos resultados, consideramos el límite superior de normalidad de asimetría térmica bilateral en 0,3ºC para todas las zonas corporales estudiadas del miembro inferior exceptuando los tobillos. El parámetro ambiental que más relación tiene con la temperatura registrada por la cámara termográfica es la temperatura de la sala con un coeficiente de correlación cercano a r=1,00, seguido de la presión atmosférica con un coeficiente de correlación cercano r=0,50, y, por último, la humedad que no guarda ningún tipo de relación con la temperatura registrada en cada zona corporal en el rango de valores considerados en el estudio. Por otro lado, los resultados del ANOVA de un factor nos indican que existen diferencias de medias entre los tres grupos formados de temperatura ambiente de sala (1º=18º-21ºC, 2º=22º-24ºC y 3º=25º-31ºC). Además, los resultados de la prueba HSD de Tukey nos indican que existen diferencias entre cada uno de los grupos en todas las zonas corporales estudiadas exceptuando los tobillos. Por último, se propone la ecuación; TC-estándar = TC-real – [0,184 * (TS – 21ºC)] para predecir la influencia de la temperatura ambiente sobre la temperatura registrada por la cámara termográfica. Para concluir, tras los resultados obtenidos, podemos afirmar que la aplicación de un protocolo post-ejercicio de prevención de lesiones basado en la información adquirida a través de valoraciones con termografía infrarroja reduce la incidencia de lesión en el grupo de futbolistas profesionales estudiado. Tenemos que ser conscientes que nos encontramos ante un estudio de campo, donde existen muchos factores que han podido influenciar en los resultados y que son difíciles de controlar. Por lo tanto, debemos ser cautos y concluir que la información adquirida de las evaluaciones termográficas ha sido uno de los aspectos que ayudó a la reducción significativa de la incidencia de lesión en la pretemporada 2009 en el equipo de fútbol profesional español de este estudio, pero que seguramente hayan podido existir otros factores que también hayan favorecido este hecho. ABSTRACT Soccer is a sport with a high incidence of injury. Moreover, in professional soccer injuries lead to a tough recovery process for the players, a reduction athletic performance for them and for their teams, and large economic costs for the club. In this issue, the literature concludes that in the preseason a greater incidence of overuse injury occurs (ie, without contact), and this is a type of injury that we can prevent. Therefore, we consider that it is important to know and develop methods, tools and principles to obtain effective preventive programs that reduce the high injury incidence figures shown in the literature. This study observed and recorded injuries, through the questionnaire F-MARC, from a professional soccer team in the Spanish league during the preseason 2008 (n = 24) and 2009 (n = 24). Moreover, during the 2009 preseason infrared thermography was applied to acquire information about the assimilation of the training load by the players, and this information was used to improve the decision making in the specific post-exercise injury prevention protocols, which were the same used in the previous season 2008. The study had a pre-post design without control group. Is a longitudinal study where, after an initial registration of injuries in the 2008 preseason, subjects were exposed to the independent variable, using infrared thermography, included in the protocol for injury prevention during the 2009 preseason. The results of this study show a significant reduction of up to 60% in the frequency of injury during the 2009 preseason, and a decrease in total injury incidence passing from 8.3 injuries per 1000 hours of exposure in 2008 to 3.4 in 2008. With this, the likelihood of injury decreased significantly from 85% of the players injuried in 2008 to 26% in 2009, also muscle injuries in 2009 fell 70% compared to 2008, and sick leave days that caused by all the injuries happened were reduced a 91.8% in the 2009 preseason. On the other hand, the thermal profile of the players according to their laterality and dominance, is quiet similar in their temperatures, both average and maximum values, with an estimated average of the highest temperatures in the lower back and popliteal areas in the back areas, and lower temperatures in the ankles and knees. All body areas studied, except for the ankle (p <0.05), had no significant differences between both sides of the body, establishing an average difference between both sides of 0.06 ± 0.16 °C. Given these results, we consider the upper limit of normal bilateral thermal asymmetry 0.3 °C for all body areas studied in the lower limb except for ankles. The environmental parameter higher related with temperature recorded by the camera is the temperature of the room with a correlation coefficient close to r = 1.00, followed by atmospheric pressure with a correlation coefficient near r = 0.50, and finally, the humidity that, in the range of values considered in the study, it is not related with temperature in each body area. On the other hand, the results of one-way ANOVA indicate that there are differences between the three temperature of the room groups (1 ° = 18-21 °C, 2 º = 22-24 ºC and 3 º = 25-31 ºC). Moreover, the results of the Tukey HSD test indicate that there are differences between each of the groups for all body areas studied except the ankles. Finally, we propose the equation TC-standard = TC-real – [0,184 * (TS – 21ºC)] to predict the influence of temperature on the temperature recorded by the thermographic camera. In conclusion, we can say from our results that the implementation of a post-exercise injury prevention protocol based on information from assessments with infrared thermography reduces the incidence of injury in professional soccer players. We must be aware that we are facing a field study, where there are many factors that could influence the results and they are difficult to control. Therefore, we must be cautious and conclude that the information acquired from the thermographic evaluation has been one of the aspects that helped to significantly reduce the incidence of injury in the preseason 2009 in the Spanish professional football team, but probably they could exist other factors with a positive effect on the reduction of the injury rates.
Resumo:
Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.
Resumo:
El presente estudio evalúa el efecto que 6 diferentes géneros hongos aislados a partir de semillas de 54 diferentes cultivares de cardo y sus extractos acuosos tienen sobre la germinación y nascencia de las semillas. Se han realizado pruebas de patogenicidad con dos aislados de cada uno de los seis géneros de mayor frecuencia del inventario (Aspergillus, Penicillium, Fusarium, Rhizopus, Cladosporium y Alternaria), así como de los extractos producidos tras 3, 7 y 11 días de incubación de los micetos. Los resultados de las inoculaciones con los micetos muestran efectos negativos sobre los porcentajes de germinación, con reducciones en la germinación que fueron máximas tras las inoculaciones con Rhizopus stolonifer (29% de disminución) y Fusarium verticillioides (23%). Los porcentajes de emergencia disminuyen tras duplicar la concentración del inóculo, aumentando además drásticamente el número de plántulas dañadas sobre el total de las emergidas. En el significativo caso de la inoculación con Cladosporium la duplicación del inóculo disminuyó la germinación hasta en un 31% respecto al testigo. Las plántulas emergidas tras las inoculaciones con los extractos obtenidos a partir de cultivos líquidos de los hongos ensayados presentaban los mismos síntomas de atrofias y daños sobre raíz y coleóptilo que los descritos para cada hongo. Los extractos acuosos de los géneros estudiados disminuyen también la germinación. Los resultados nos muestran la diferente capacidad parasitaria de cada una de las especies estudiadas apreciándose además diferencias según los diferentes periodos de agitación de los hongos y permiten asegurar que la producción de toxinas está regulada por el hongo, y que no aumenta linealmente con el crecimiento miceliar.
Resumo:
La estimación de caudales resulta fundamental en el diseño de infraestructuras, obras hidráulicas y en la planificación de usos de suelo. Con frecuencia no se encuentran disponibles estaciones de aforo en la zona de estudio, y los modelos hidrometeorológicos se convierten en una herramienta imprescindible para la estimación de caudales. Estos modelos requieren a su vez el dato de inten- sidad máxima anual para una duración y período de retorno o una ley IDF. Las curvas IDF actualmente utilizadas en España fueron propuestas en los años setenta por lo que parece adecuado plantear una actualización tanto de los registros y de las nuevas estaciones disponibles como de la metodología, incorporando nuevas técnicas al estudio de esta variable. En este trabajo se presentan los resultados de esta actualización, en el que se ha utilizado el méto- do de regionalización del tipo índice de avenida para el análisis de frecuencias de intensidades máximas. Este método proporciona estimas más robustas que los métodos tradicionales, siendo esta propiedad especialmente importante en el caso de valores extremos, en los que las series son cortas, y cuando se requieran estimaciones de bajas frecuencias (altos períodos de retorno).Para el ajuste se ha utilizado la función SQRT-ET máx frente a la función de distribución Gumbel actualmente utilizada – pues presentando esta última un coeficiente de asimetría fijo de 1,14, subestima los cuantiles de manera sistemática al menos en el área de influencia mediterránea. Los autores desarrollan una nueva metodología para extender los resultados obtenidos en el análisis regional al resto del territorio español, proponiendo dos funciones, una que relaciona la intensidad con el período de retorno y otra que relaciona esta variable con la duración, de manera que, finalmente, se puede obtener la intensidad máxima para una duración y período de retorno en cualquier punto de la España peninsular. Dado el carácter práctico de la investigación, los resultados se presentan en soporte informático, y se ha diseñado una aplicación gis, MAXIN, de libre difusión, que está disponible en: http://www.for estales.upm.es/hidraulica/paginas/programas/programas.htm
Resumo:
Desde hace mucho tiempo, el hombre se ha preocupado por los fenómenos que rigen el movimiento humano. Así Aristóteles (384-322 a. J.C.) poseía conocimientos notables sobre el centro de gravedad, las leyes del movimiento y de las palancas, siendo el primero en describir el complejo proceso de la marcha. A este sabio le siguieron muchos otros: Arquímedes (287-212 a. J.C.)- Ga leno (131-201 a.J.C.) Leonardo Da Vinci (1452-1519), que describió la mecánica del cuerpo en posición erecta, en la marcha y en el salto. Galileo Galilei (1564-1643) proporcionó empuje al estudio de los fenómenos mecánicos en términos matemáticos, creando las bases para la biomecánica. Alfonso Borelli (1608-1679), considerado por algunos autores como el padre de la moderna biomecánica. Aseguraba que los músculos funcionan de acuerdo con principios matemáticos. Nicolas Andry (1658-1742), creador de la ciencia ortopédica. Isaac Newton, que estableció las bases de la dinámica moderna con la enunciación de sus leyes mecánicas todavía hoy vigentes. E.J. Marey (1830-1904), afirmaba que el movimiento es la más importante de las funciones humanas, y describió métodos fotográficos para la investigación biológica. c.w. Braune (1831-1892), y Otto Fischer (1861-1917), describieron un método experimental para determinar el centro de gravedad. Harold Edgerton, inventor del estroboscopio electrónico de aplicación en el análisis fotográfico del movimiento. Gideon Ariel, una de las máximas autoridades en la biomecánica del deporte actual. ••••••• oooOooo ••••••• En lo que respecta al ámbito deportivo, en los últimos años estamos asistiendo a una gran mejora del rendimiento. Esto es debido en gran parte a un mayor apoyo científico en el proceso de entrenamiento, tanto en lo que se refiere a los métodos para desarrollar la condición física, como en lo concerniente a la perfección de la técnica deportiva, es decir, el aprovechamiento más eficaz de las leyes mecánicas que intervienen en el movimiento deportivo. Según P. Rasch y R. Burke, la biomecánica se ocupa de la investigación del movimiento humano por medio de los conceptos de la física clásica y las disciplinas afines en el arte práctico de la ingeniería. Junto con la anatomía, biofísica, bioquímica, fisiología, psicología y cibernética, y estrechamente relacionada con ellas, la biomecánica, conforma las bases de la metodología deportiva. (Hochmuth) Entre los objetivos específicos de la biomecánica está la investigación dirigida a encontrar una técnica deportiva más eficaz. Actualmente, el perfeccionamiento de la técnica se realiza cada vez más apoyándose en los trabajos de análisis biomecánico. Efectivamente, esto tiene su razón de ser, pues hay detalles en el curso del ~~ movimiento que escapan a la simple observación visual por parte del entrenador. Entre dos lanzamientos de distinta longitud, en muchas ocasiones no se pueden percibir ninguna o como mucho sólo pequeñas diferencias. De ahí la necesidad de las investigaciones basadas en el análisis biomecánico, de cuyos resultados obtendrá el entrenador la información que precisa para realizar las modificaciones oportunas en cuanto a la técnica deportiva empleada por su atleta se refiere. Para el análisis biomecánico se considera el cuerpo humano como un conjunto de segmentos que forman un sistema de eslabones sometido a las leyes físicas. Estos segmentos son: la cabeza, el tronco, los brazos, los antebrazos, las manos, los muslos, las piernas y los pies. A través de estos segmentos y articulaciones se transmiten las aceleraciones y desaceleraciones para alcanzar la velocidad deseada en las porciones terminales y en el sistema propioceptivo que tiene su centro en el cerebro. De todo esto podemos deducir la práctica imposibilidad de descubrir un error en el curso del movimiento por la sola observación visual del entrenador por experto que este sea (Zanon). El aspecto biológico de la biomecánica no se conoce tanto como el aspecto mecánico, ya que este campo es mucho más complejo y se necesitan aparatos de medición muy precisos. Entre los objetivos que me he planteado al efectuar este trabajo están los siguientes: - Análisis biomecánico de uno de los mejores lanzadores de martillo de España. - Qué problemas surgen en el análisis biomecánico tridimensional. Cómo llevar a cabo este tipo de investigación con un material elemental, ya que no disponemos de otro. Ofrecer al técnico deportivo los procedimientos matemáticos del cálculo necesarios. En definitiva ofrecer una pequeña ayuda al entrenador, en su búsqueda de soluciones para el perfeccionamiento de la técnica deportiva.
Resumo:
It is easy to get frustrated at spoken conversational agents (SCAs), perhaps because they seem to be callous. By and large, the quality of human-computer interaction is affected due to the inability of the SCAs to recognise and adapt to user emotional state. Now with the mass appeal of artificially-mediated communication, there has been an increasing need for SCAs to be socially and emotionally intelligent, that is, to infer and adapt to their human interlocutors’ emotions on the fly, in order to ascertain an affective, empathetic and naturalistic interaction. An enhanced quality of interaction would reduce users’ frustrations and consequently increase their satisfactions. These reasons have motivated the development of SCAs towards including socio-emotional elements, turning them into affective and socially-sensitive interfaces. One barrier to the creation of such interfaces has been the lack of methods for modelling emotions in a task-independent environment. Most emotion models for spoken dialog systems are task-dependent and thus cannot be used “as-is” in different applications. This Thesis focuses on improving this, in which it concerns computational modeling of emotion, personality and their interrelationship for task-independent autonomous SCAs. The generation of emotion is driven by needs, inspired by human’s motivational systems. The work in this Thesis is organised in three stages, each one with its own contribution. The first stage involved defining, integrating and quantifying the psychological-based motivational and emotional models sourced from. Later these were transformed into a computational model by implementing them into software entities. The computational model was then incorporated and put to test with an existing SCA host, a HiFi-control agent. The second stage concerned automatic prediction of affect, which has been the main challenge towards the greater aim of infusing social intelligence into the HiFi agent. In recent years, studies on affect detection from voice have moved on to using realistic, non-acted data, which is subtler. However, it is more challenging to perceive subtler emotions and this is demonstrated in tasks such as labelling and machine prediction. In this stage, we attempted to address part of this challenge by considering the roles of user satisfaction ratings and conversational/dialog features as the respective target and predictors in discriminating contentment and frustration, two types of emotions that are known to be prevalent within spoken human-computer interaction. The final stage concerned the evaluation of the emotional model through the HiFi agent. A series of user studies with 70 subjects were conducted in a real-time environment, each in a different phase and with its own conditions. All the studies involved the comparisons between the baseline non-modified and the modified agent. The findings have gone some way towards enhancing our understanding of the utility of emotion in spoken dialog systems in several ways; first, an SCA should not express its emotions blindly, albeit positive. Rather, it should adapt its emotions to user states. Second, low performance in an SCA may be compensated by the exploitation of emotion. Third, the expression of emotion through the exploitation of prosody could better improve users’ perceptions of an SCA compared to exploiting emotions through just lexical contents. Taken together, these findings not only support the success of the emotional model, but also provide substantial evidences with respect to the benefits of adding emotion in an SCA, especially in mitigating users’ frustrations and ultimately improving their satisfactions. Resumen Es relativamente fácil experimentar cierta frustración al interaccionar con agentes conversacionales (Spoken Conversational Agents, SCA), a menudo porque parecen ser un poco insensibles. En general, la calidad de la interacción persona-agente se ve en cierto modo afectada por la incapacidad de los SCAs para identificar y adaptarse al estado emocional de sus usuarios. Actualmente, y debido al creciente atractivo e interés de dichos agentes, surge la necesidad de hacer de los SCAs unos seres cada vez más sociales y emocionalmente inteligentes, es decir, con capacidad para inferir y adaptarse a las emociones de sus interlocutores humanos sobre la marcha, de modo que la interacción resulte más afectiva, empática y, en definitiva, natural. Una interacción mejorada en este sentido permitiría reducir la posible frustración de los usuarios y, en consecuencia, mejorar el nivel de satisfacción alcanzado por los mismos. Estos argumentos justifican y motivan el desarrollo de nuevos SCAs con capacidades socio-emocionales, dotados de interfaces afectivas y socialmente sensibles. Una de las barreras para la creación de tales interfaces ha sido la falta de métodos de modelado de emociones en entornos independientes de tarea. La mayoría de los modelos emocionales empleados por los sistemas de diálogo hablado actuales son dependientes de tarea y, por tanto, no pueden utilizarse "tal cual" en diferentes dominios o aplicaciones. Esta tesis se centra precisamente en la mejora de este aspecto, la definición de modelos computacionales de las emociones, la personalidad y su interrelación para SCAs autónomos e independientes de tarea. Inspirada en los sistemas motivacionales humanos en el ámbito de la psicología, la tesis propone un modelo de generación/producción de la emoción basado en necesidades. El trabajo realizado en la presente tesis está organizado en tres etapas diferenciadas, cada una con su propia contribución. La primera etapa incluyó la definición, integración y cuantificación de los modelos motivacionales de partida y de los modelos emocionales derivados a partir de éstos. Posteriormente, dichos modelos emocionales fueron plasmados en un modelo computacional mediante su implementación software. Este modelo computacional fue incorporado y probado en un SCA anfitrión ya existente, un agente con capacidad para controlar un equipo HiFi, de alta fidelidad. La segunda etapa se orientó hacia el reconocimiento automático de la emoción, aspecto que ha constituido el principal desafío en relación al objetivo mayor de infundir inteligencia social en el agente HiFi. En los últimos años, los estudios sobre reconocimiento de emociones a partir de la voz han pasado de emplear datos actuados a usar datos reales en los que la presencia u observación de emociones se produce de una manera mucho más sutil. El reconocimiento de emociones bajo estas condiciones resulta mucho más complicado y esta dificultad se pone de manifiesto en tareas tales como el etiquetado y el aprendizaje automático. En esta etapa, se abordó el problema del reconocimiento de las emociones del usuario a partir de características o métricas derivadas del propio diálogo usuario-agente. Gracias a dichas métricas, empleadas como predictores o indicadores del grado o nivel de satisfacción alcanzado por el usuario, fue posible discriminar entre satisfacción y frustración, las dos emociones prevalentes durante la interacción usuario-agente. La etapa final corresponde fundamentalmente a la evaluación del modelo emocional por medio del agente Hifi. Con ese propósito se llevó a cabo una serie de estudios con usuarios reales, 70 sujetos, interaccionando con diferentes versiones del agente Hifi en tiempo real, cada uno en una fase diferente y con sus propias características o capacidades emocionales. En particular, todos los estudios realizados han profundizado en la comparación entre una versión de referencia del agente no dotada de ningún comportamiento o característica emocional, y una versión del agente modificada convenientemente con el modelo emocional propuesto. Los resultados obtenidos nos han permitido comprender y valorar mejor la utilidad de las emociones en los sistemas de diálogo hablado. Dicha utilidad depende de varios aspectos. En primer lugar, un SCA no debe expresar sus emociones a ciegas o arbitrariamente, incluso aunque éstas sean positivas. Más bien, debe adaptar sus emociones a los diferentes estados de los usuarios. En segundo lugar, un funcionamiento relativamente pobre por parte de un SCA podría compensarse, en cierto modo, dotando al SCA de comportamiento y capacidades emocionales. En tercer lugar, aprovechar la prosodia como vehículo para expresar las emociones, de manera complementaria al empleo de mensajes con un contenido emocional específico tanto desde el punto de vista léxico como semántico, ayuda a mejorar la percepción por parte de los usuarios de un SCA. Tomados en conjunto, los resultados alcanzados no sólo confirman el éxito del modelo emocional, sino xv que constituyen además una evidencia decisiva con respecto a los beneficios de incorporar emociones en un SCA, especialmente en cuanto a reducir el nivel de frustración de los usuarios y, en última instancia, mejorar su satisfacción.
Resumo:
El análisis de la velocidad de carrera mediante sensores láser permite la obtención de datos en tiempo real siendo ventajosos frente a otros sistemas. El objetivo de este estudio fue valorar la validez y fiabilidad del sensor láser del sistema BioLaserSport® para el cálculo de velocidades medias y máximas mediante estadísticos relativos y absolutos. Los participantes fueron 17 varones (20.85 ± 1.54 años). Se utilizó un sensor láser tipo 1 (LDM301, Jenoptik, Germany) que registró posiciones de los deportistas a 2000 Hz. Los datos se trataron con la rutina DSL-30 creada con DasyLab v.10.0. Para la validación se utilizó un sistema de fotogrametría-2D con una cámara de alta velocidad (Exilim High Speed EX-F1, Casio) y SkillSpector v.1.3.2. (Video4coach, Grubbemollevej). Además, se utilizaron foto-células de doble haz (Polifemo Light, Microgate, Italy) y un cronómetro Racetime2 (Microgate, Italy). Se registraron, durante dos días, tres series de 30 m de carrera a máxima velocidad. El sensor láser proporcionó, con relación a la fotogrametría, diferencias en las velocidades medias y máximas de -0.11 m•s-1 y 0.14 m•s-1, respectivamente, con unos coeficientes de correlación superiores a 0.86, y mayores de 0.92 con las foto-células para las velocidades medias. Este mostró una excelente fiabilidad test-retest para las velocidades medias con un coeficiente de correlación intraclase (ICC) entre 0.7-0.9 y un error estándar de la media (SEM y SEM%), intrasesión e intersesión, menor de 0.05 m•s-1 y 0.12 m•s-1, respectivamente, y menores de 0.75% y de 2%, respectivamente. Para las velocidades máximas,los valores fueron menores de 0.10 m•s-1 y 0.17 m•s-1, respectivamente, y en ambos casos menores a 1.36% y 1,89%. El láser fue capaz de identificar mínimos cambios detectables (MDC y MDC%) intrasesión, para ambas variables, menores a 0.14 m•s-1 y 0.29 m•s-1, respectivamente (< 2.09% y < 3.76%) e intersesión, menores de 0.34 m•s-1 y 0.47 m•s-1 (< 5.56% y < 5.25%), respectivamente. En consecuencia, es un instrumento útil para el análisis de la evolución de la velocidad intrasujeto y entre sujetos en la carrera de velocidad entre 0-30 m, proporcionando resultados en tiempo real, pero se han de considerar los SEM, SEM%, MDC y MDC% para valorar la mejora del rendimiento.
Resumo:
El apartado <4.2 Altavoz> de la Norma Internacional UNE-EN ISO 140-5
Resumo:
El arquitecto Curro Inza (1929-1976) pertenece al grupo que se ha denominado como organicismo madrileño y Escuela de Madrid, cuyas máximas realizaciones se produjeron durante los años sesenta del pasado siglo. Hasta ahora su obra y persona han generado opiniones bien extremas, pero apenas han sido investigadas, cuando en realidad su arquitectura trata asuntos que hoy se muestran de actual interés. El estudio que aquí se presenta tiene un doble objetivo. El primero es agrupar la información arquitectónica del autor y catalogar las obras de su archivo personal (inédito hasta ahora). Se ordena, clasifica y cataloga toda la documentación arquitectónica del archivo Inza, dejándose depositada en la Biblioteca de la ETSAM, quedando disponible y facilitando posteriores investigaciones sobre este arquitecto. Se procede asimismo a la digitalizaran de los proyectos principales garantizando su optima conservación para el futuro Una vez logrado el primer objetivo, el segundo consiste en realizar un análisis proyectual y critico de su obra, un punto de vista hasta ahora apenas abordado. Me propongo profundizar en una obra definida como compleja pero poco explicada, realizando una revisión crítica de sus escritos y de sus proyectos, y relacionando esta con otras arquitecturas (nacionales e internacionales) que sitúen al autor dentro del discurso contemporáneo. Para desentrañar las claves de su arquitectura se aborda el trabajo de Inza desde cinco miradas distintas y simultaneas. Desde cada una de estas miradas o categorías) se hace una aproximación crítica recorriendo los proyectos. Unas categorías que, a la postre, conforman el índice de este trabajo. Aunque la compilación y revisión del archivo posee algo de búsqueda arqueológica, el estudio no pretende tener un interés únicamente o intrínsecamente histórico. El trabajo tiene en realidad como fin estudiar la forma de proyectar de un arquitecto hasta ahora poco referencial y que entiendo, puede hoy establecer puentes con el presente y el futuro a través de su arquitectura. Intentar entender los mecanismos que arman esta arquitectura, sus orígenes, su evolución y la construcción de su lenguaje. En resumen, explicar y analizar la obra desde un punto de vista proyectual haciendo una lectura critica que desentrañe estrategias de las que hoy pudiéramos aprender y nos resultasen operativas.ABSTRACT: The architect Curro Inza (1929-1976) belongs to the group known as Madrilian organicism and the School of Madrid, whose most important works were built during the 1960 and 1970 decades. Curro Inza's work has received up until now very different, even extreme opinions, but his work has not been studied in depth, which is surprising if we consider that his architecture treats issues which are of great interest today. The present study has aimed at two objectives. The first has been to gather the information concerned with the author and his work, and to catalog all of the works of this personal archive (unpublished up until now). The work we have done here has consisted in compiling, digitalizing, classifying and cataloguing all of the documentation found in Curro Inza's personal archive; this archive has been deposited in the Biblioteca de la Escuela Superior de Artquitectura de Madrid (ETSAM) . We have also digitalized the main projects in order to assure the best storage conditions for the future. The second objective has consisted in analyzing Curro Inza's work from a project and critical point of view, an approach which has not yet been explored. Within this second objective, I have studied Inza's work, which is well defined and personal as well as complex, but which has received little attention and has not been explained. I have done a critical revision of both his projects and his writings, and have related these with other, both national and international, architectures, in order to place Inza's work within the contemporary architectural discourse. In order to decipher the essence of Inza's architecture, I have approached his work from five, simultaneous perspectives. I have described the projects critically from each of the five perspectives or categories; these five categories give shape to the organization of the dissertation. Even if the compilation and revision of Inza's archive is somehow an archaeological search, this study aims at having a larger scope than its strict, exclusive historical interest. In this study I have studied Inza's projects from a critical point of view and in relation to contemporary architecture and architectural thought, attempting to draw connections between Inza's work and modern, present architecture. We have also attempted to understand and describe Inza's language and conception of architectural discourse, as well as his origins, evolution and expression of his thought. In summary, I have analyzed and explained Curro Inza's work from a projectual point of view, drawing a critical reading of the strategies used by the author, and from which we could learn and work today.