34 resultados para FUERZA DE BLANCO
Resumo:
Objetivos: Evaluar la eficacia que tiene un entrenamiento de fuerza “tradicional”(ET)y un entrenamiento de fuerza con ejercicios más globales (EG) en dos personas distintas con obesidad para observar cuál de ellos es más efectivo tanto para la pérdida de grasa corporal como para la mejora del estado de forma. Y comparar el gasto energético que tienen estos dos tipos de entrenamiento. Conclusiones: Los resultados de este trabajo muestran que tanto un ET como un EG podrían ser efectivos para lograr una pérdida de peso y grasa corporal sin necesidad de seguir una dieta estricta y sin realizar ejercicio aeróbico. ElEG tuvo generalmente un mayor gasto energético durante los entrenamientos realizados en comparación con ET.
Resumo:
En el ámbito de la actividad física, cada vez es más común el uso de gadgets para cuantificar el entrenamiento que realizamos. De esta manera, el usuario dispone de datos de distancia, velocidad, calorías quemadas… lo que le supone un mayor conocimiento sobre la calidad del entrenamiento que ha realizado. Pero si nos fijamos en el mercado de este tipo de gadgets solo miden entrenamiento cardiovascular sin haber aún ninguno que cuantifique un entrenamiento de fuerza, el cual sería de gran utilidad debido a la cantidad de beneficios y resultados distintos que se pueden obtener según se modifiquen de una manera u otra las cargas de entrenamiento. Para este trabajo hemos realizado un estudio sobre la eficacia que presentan los acelerómetros a la hora de cuantificar los movimientos que se realizan en entrenamientos de fuerza con pesos libres. Para ello comparamos los datos obtenidos por el acelerómetro y el sistema de VICON de captura de movimiento para comprobar el margen de erros existente y hasta qué punto podría ser factible diseñar un gadget que mida el entrenamiento de fuerza basado en el uso de acelerómetros.
Resumo:
Las prolaminas son las principales proteínas del endospermo de los trigos panaderos que están relacionadas con la calidad panadera. El objetivo de este trabajo es caracterizar gluteninas LMW según la nomenclatura de Liu et al y relacionarlas con la fuerza panadera
Resumo:
Introducción: El proyecto de investigación PREFIT (field – based FITness testing in PREschool children) ha diseñado una batería de tests de campo fiables y válidos para evaluar la condición física en niños preescolares (3 a 5 años), siendo la fuerza uno de los componentes más importantes de la condición física. La fuerza muscular se considera un importante marcador de salud cardiovascular y osteoarticular en niños, además de contribuir a su salud mental. Por tanto, la evaluación y mejora de esta cualidad desde etapas tempranas es crucial para el desarrollo saludable de los niños.
Resumo:
Contestación del Excmo. Sr. D. Luis Moya Blanco[al discurso leído por el Excmo. Sr. D. Luis Cervera Vera]
Resumo:
El presente trabajo tiene como objetivo el desarrollo de un patrón primario para la calibración de sensores de fuerza bajo excitaciones sinusoidales. Con consecuencia de dicho desarrollo se establecerá un método de calibración de sensores de fuerza en condiciones dinámicas que permitirá la caracterización de estos sensores en dichas condiciones y determinar la incertidumbre asociada. Este patrón se basa en la definición directa de fuerza como masa por aceleración. Para ello se carga el sensor con distintas cargas calibradas y se somete a distintas aceleraciones mediante un excitador de vibraciones. Dichas aceleraciones se generan para frecuencias desde 5 Hz a 2400 Hz. La aceleración se mide mediante un vibrómetro láser con trazabilidad a la unidad de longitud (longitud de onda del láser). Al ser una medición completamente dinámica se necesita un sistema de adquisición de datos multicanal para la toma de datos en tiempo real. Este sistema adquiere las señales eléctricas provenientes del vibrómetro láser, del sensor a caracterizar y del acelerómetro para mediciones auxiliares. Se ha dispuesto de cuatro sensores de fuerza para realizar ensayos, un sensor piezoeléctrico y tres sensores resistivos. En este trabajo se han estudiado los factores de influencia y se ha implementado un método de calibración para minimizar los mismos, así como también se han establecido las correcciones a realizar. Para la caracterización dinámica del sensor se ha partido de un modelo de oscilador armónico amortiguado forzado, se ha establecido la metodología para la determinación de sus parámetros de caracterización y se ha estudiado su validez. También se ha realizado una comparación entre los resultados obtenidos para condiciones estáticas y dinámicas. ABSTRACT The aim in the current work is the development of a primary standard for force sensors calibration under sinusoidal excitations. As consequence of this development a method for force sensors calibration under dynamic conditions will be established that will allow these sensors characterization for such conditions and the determination of their associated uncertainty. This standard is based on the direct definition of force as mass multiplied by acceleration. To do so, the sensor is loaded with different calibrated loads and is maintained under different accelerations by means of a vibration shaker. These accelerations are generated with frequencies from 5 Hz up to 2400 Hz. The acceleration is measured by means of a laser vibrometer with traceability to the unit of length (laser wavelength). As the measurement is totally dynamic a multiple channel data acquisition system is required for data acquisition in real time. This system acquires the electrical signals outputs coming from the laser vibrometer, the sensor to be characterised and two accelerometers for additional measurements. Four force sensors, one piezoelectric sensor and three resistive sensors, have been available to perform the tests. During this work the influence factors have been studied and a calibration method to minimise these factors have been implemented as well as the corrections to be performed have been established. As the starting point for the sensor dynamic characterization, a model for a forced damped harmonic oscillator has been used, a method for the characterizing parameters determination has been established and its validity has been studied. A comparison between results for static and dynamic conditions has been performed as well.
Resumo:
El presente Trabajo Fin de Máster, se encuadra dentro de la asignatura “Análisis de estructuras históricas”; se va a proceder a realizar un estudio estructural en detalle de dos construcciones religiosas, la Iglesia de Nuestra Señora de la Araucana y la Iglesia de San Agustín, ambas del Arquitecto español Luis Moya Blanco. Por suerte se dispone de casi toda la documentación del proyecto original de ambas iglesias, por lo que se procederá a realizar un estudio comprensivo del “como fue pensado y resuelto” en su día, para posteriormente realizar una visita a ambas construcciones, recopilar toda clase de patologías, fisuras y demás signos que puedan guiarnos en el “como está trabajando la estructura” y así poder realizar un estudio en detalle de cómo está funcionando y como sea ido comportando a lo largo de su vida, intentando explicar fisuras, grietas, desplazamientos y cualquier otra cosa que nos permita comprender por que sigue en pie y en que condiciones de seguridad. Ambas estructuras son de fábrica de ladrillo, material que estructuralmente no soporta tracciones, y que basa su estabilidad en la geometría, características que exigen un tratamiento distinto al resto de materiales normalmente usados, por lo que los análisis estructurales se basarán en la estática gráfica, herramienta que nos permitirá aplicar la teoría del análisis límite arrojando unos valores de condiciones de seguridad.
Resumo:
Discurso del Excmo. Sr. D. Luis Moya Blanco [Acto académico en memoria de Francisco Íñiguez Almech (1901-1982)]
Resumo:
Contestación del Excmo. Sr. D. Luis Moya Blanco al discurso leído por el Excmo. Sr. D. José A. Domínguez Salazar el día 19 de febrero de 1978, con motivo de su recepción
Resumo:
Contestación del académico Excmo. Sr. D. Luis Moya Blanco al discurso leído por el Excmo. Sr. D. Carlos Fernández Casado el día 21 de noviembre de 1976, con motivo de su recepción
Resumo:
En el mundo actual las aplicaciones basadas en sistemas biométricos, es decir, aquellas que miden las señales eléctricas de nuestro organismo, están creciendo a un gran ritmo. Todos estos sistemas incorporan sensores biomédicos, que ayudan a los usuarios a controlar mejor diferentes aspectos de la rutina diaria, como podría ser llevar un seguimiento detallado de una rutina deportiva, o de la calidad de los alimentos que ingerimos. Entre estos sistemas biométricos, los que se basan en la interpretación de las señales cerebrales, mediante ensayos de electroencefalografía o EEG están cogiendo cada vez más fuerza para el futuro, aunque están todavía en una situación bastante incipiente, debido a la elevada complejidad del cerebro humano, muy desconocido para los científicos hasta el siglo XXI. Por estas razones, los dispositivos que utilizan la interfaz cerebro-máquina, también conocida como BCI (Brain Computer Interface), están cogiendo cada vez más popularidad. El funcionamiento de un sistema BCI consiste en la captación de las ondas cerebrales de un sujeto para después procesarlas e intentar obtener una representación de una acción o de un pensamiento del individuo. Estos pensamientos, correctamente interpretados, son posteriormente usados para llevar a cabo una acción. Ejemplos de aplicación de sistemas BCI podrían ser mover el motor de una silla de ruedas eléctrica cuando el sujeto realice, por ejemplo, la acción de cerrar un puño, o abrir la cerradura de tu propia casa usando un patrón cerebral propio. Los sistemas de procesamiento de datos están evolucionando muy rápido con el paso del tiempo. Los principales motivos son la alta velocidad de procesamiento y el bajo consumo energético de las FPGAs (Field Programmable Gate Array). Además, las FPGAs cuentan con una arquitectura reconfigurable, lo que las hace más versátiles y potentes que otras unidades de procesamiento como las CPUs o las GPUs.En el CEI (Centro de Electrónica Industrial), donde se lleva a cabo este TFG, se dispone de experiencia en el diseño de sistemas reconfigurables en FPGAs. Este TFG es el segundo de una línea de proyectos en la cual se busca obtener un sistema capaz de procesar correctamente señales cerebrales, para llegar a un patrón común que nos permita actuar en consecuencia. Más concretamente, se busca detectar cuando una persona está quedándose dormida a través de la captación de unas ondas cerebrales, conocidas como ondas alfa, cuya frecuencia está acotada entre los 8 y los 13 Hz. Estas ondas, que aparecen cuando cerramos los ojos y dejamos la mente en blanco, representan un estado de relajación mental. Por tanto, este proyecto comienza como inicio de un sistema global de BCI, el cual servirá como primera toma de contacto con el procesamiento de las ondas cerebrales, para el posterior uso de hardware reconfigurable sobre el cual se implementarán los algoritmos evolutivos. Por ello se vuelve necesario desarrollar un sistema de procesamiento de datos en una FPGA. Estos datos se procesan siguiendo la metodología de procesamiento digital de señales, y en este caso se realiza un análisis de la frecuencia utilizando la transformada rápida de Fourier, o FFT. Una vez desarrollado el sistema de procesamiento de los datos, se integra con otro sistema que se encarga de captar los datos recogidos por un ADC (Analog to Digital Converter), conocido como ADS1299. Este ADC está especialmente diseñado para captar potenciales del cerebro humano. De esta forma, el sistema final capta los datos mediante el ADS1299, y los envía a la FPGA que se encarga de procesarlos. La interpretación es realizada por los usuarios que analizan posteriormente los datos procesados. Para el desarrollo del sistema de procesamiento de los datos, se dispone primariamente de dos plataformas de estudio, a partir de las cuales se captarán los datos para después realizar el procesamiento: 1. La primera consiste en una herramienta comercial desarrollada y distribuida por OpenBCI, proyecto que se dedica a la venta de hardware para la realización de EEG, así como otros ensayos. Esta herramienta está formada por un microprocesador, un módulo de memoria SD para el almacenamiento de datos, y un módulo de comunicación inalámbrica que transmite los datos por Bluetooth. Además cuenta con el mencionado ADC ADS1299. Esta plataforma ofrece una interfaz gráfica que sirve para realizar la investigación previa al diseño del sistema de procesamiento, al permitir tener una primera toma de contacto con el sistema. 2. La segunda plataforma consiste en un kit de evaluación para el ADS1299, desde la cual se pueden acceder a los diferentes puertos de control a través de los pines de comunicación del ADC. Esta plataforma se conectará con la FPGA en el sistema integrado. Para entender cómo funcionan las ondas más simples del cerebro, así como saber cuáles son los requisitos mínimos en el análisis de ondas EEG se realizaron diferentes consultas con el Dr Ceferino Maestu, neurofisiólogo del Centro de Tecnología Biomédica (CTB) de la UPM. Él se encargó de introducirnos en los distintos procedimientos en el análisis de ondas en electroencefalogramas, así como la forma en que se deben de colocar los electrodos en el cráneo. Para terminar con la investigación previa, se realiza en MATLAB un primer modelo de procesamiento de los datos. Una característica muy importante de las ondas cerebrales es la aleatoriedad de las mismas, de forma que el análisis en el dominio del tiempo se vuelve muy complejo. Por ello, el paso más importante en el procesamiento de los datos es el paso del dominio temporal al dominio de la frecuencia, mediante la aplicación de la transformada rápida de Fourier o FFT (Fast Fourier Transform), donde se pueden analizar con mayor precisión los datos recogidos. El modelo desarrollado en MATLAB se utiliza para obtener los primeros resultados del sistema de procesamiento, el cual sigue los siguientes pasos. 1. Se captan los datos desde los electrodos y se escriben en una tabla de datos. 2. Se leen los datos de la tabla. 3. Se elige el tamaño temporal de la muestra a procesar. 4. Se aplica una ventana para evitar las discontinuidades al principio y al final del bloque analizado. 5. Se completa la muestra a convertir con con zero-padding en el dominio del tiempo. 6. Se aplica la FFT al bloque analizado con ventana y zero-padding. 7. Los resultados se llevan a una gráfica para ser analizados. Llegados a este punto, se observa que la captación de ondas alfas resulta muy viable. Aunque es cierto que se presentan ciertos problemas a la hora de interpretar los datos debido a la baja resolución temporal de la plataforma de OpenBCI, este es un problema que se soluciona en el modelo desarrollado, al permitir el kit de evaluación (sistema de captación de datos) actuar sobre la velocidad de captación de los datos, es decir la frecuencia de muestreo, lo que afectará directamente a esta precisión. Una vez llevado a cabo el primer procesamiento y su posterior análisis de los resultados obtenidos, se procede a realizar un modelo en Hardware que siga los mismos pasos que el desarrollado en MATLAB, en la medida que esto sea útil y viable. Para ello se utiliza el programa XPS (Xilinx Platform Studio) contenido en la herramienta EDK (Embedded Development Kit), que nos permite diseñar un sistema embebido. Este sistema cuenta con: Un microprocesador de tipo soft-core llamado MicroBlaze, que se encarga de gestionar y controlar todo el sistema; Un bloque FFT que se encarga de realizar la transformada rápida Fourier; Cuatro bloques de memoria BRAM, donde se almacenan los datos de entrada y salida del bloque FFT y un multiplicador para aplicar la ventana a los datos de entrada al bloque FFT; Un bus PLB, que consiste en un bus de control que se encarga de comunicar el MicroBlaze con los diferentes elementos del sistema. Tras el diseño Hardware se procede al diseño Software utilizando la herramienta SDK(Software Development Kit).También en esta etapa se integra el sistema de captación de datos, el cual se controla mayoritariamente desde el MicroBlaze. Por tanto, desde este entorno se programa el MicroBlaze para gestionar el Hardware que se ha generado. A través del Software se gestiona la comunicación entre ambos sistemas, el de captación y el de procesamiento de los datos. También se realiza la carga de los datos de la ventana a aplicar en la memoria correspondiente. En las primeras etapas de desarrollo del sistema, se comienza con el testeo del bloque FFT, para poder comprobar el funcionamiento del mismo en Hardware. Para este primer ensayo, se carga en la BRAM los datos de entrada al bloque FFT y en otra BRAM los datos de la ventana aplicada. Los datos procesados saldrán a dos BRAM, una para almacenar los valores reales de la transformada y otra para los imaginarios. Tras comprobar el correcto funcionamiento del bloque FFT, se integra junto al sistema de adquisición de datos. Posteriormente se procede a realizar un ensayo de EEG real, para captar ondas alfa. Por otro lado, y para validar el uso de las FPGAs como unidades ideales de procesamiento, se realiza una medición del tiempo que tarda el bloque FFT en realizar la transformada. Este tiempo se compara con el tiempo que tarda MATLAB en realizar la misma transformada a los mismos datos. Esto significa que el sistema desarrollado en Hardware realiza la transformada rápida de Fourier 27 veces más rápido que lo que tarda MATLAB, por lo que se puede ver aquí la gran ventaja competitiva del Hardware en lo que a tiempos de ejecución se refiere. En lo que al aspecto didáctico se refiere, este TFG engloba diferentes campos. En el campo de la electrónica: Se han mejorado los conocimientos en MATLAB, así como diferentes herramientas que ofrece como FDATool (Filter Design Analysis Tool). Se han adquirido conocimientos de técnicas de procesado de señal, y en particular, de análisis espectral. Se han mejorado los conocimientos en VHDL, así como su uso en el entorno ISE de Xilinx. Se han reforzado los conocimientos en C mediante la programación del MicroBlaze para el control del sistema. Se ha aprendido a crear sistemas embebidos usando el entorno de desarrollo de Xilinx usando la herramienta EDK (Embedded Development Kit). En el campo de la neurología, se ha aprendido a realizar ensayos EEG, así como a analizar e interpretar los resultados mostrados en el mismo. En cuanto al impacto social, los sistemas BCI afectan a muchos sectores, donde destaca el volumen de personas con discapacidades físicas, para los cuales, este sistema implica una oportunidad de aumentar su autonomía en el día a día. También otro sector importante es el sector de la investigación médica, donde los sistemas BCIs son aplicables en muchas aplicaciones como, por ejemplo, la detección y estudio de enfermedades cognitivas.
Resumo:
Trabajo de investigación incluido en los objetivos del Proyecto I+D+i "Relación forma-construcción en la arquitectura religiosa de Luis Moya Blanco", subvencionado por el Ministerio de Ciencia e Innovación, referencia HAR2011-28916 (2012/2013)
Resumo:
Con el objetivo de valorar la potencia desarrollada por la musculatura del tren inferior, se realizó un estudio con los tres equipos juveniles de alto nivel de la cantera de un equipo de la primera división española para informar a los cuerpos técnicos y orientar en cuanto al entrenamiento de esta capacidad. Se realizaron los test: Squat Jump (SJ) y CounterMovement Jump (CMJ) así como saltos reactivos, con un total de 59 futbolistas. El material utilizado fueron dos plataformas de fuerzas piezoeléctricas con una frecuencia de muestreo de 400 Hz (BTS). Los resultados mostraron que son los porteros los que mayor fuerza, potencia e impulso desarrollaron, que los centrales fueron los que mayor altura del salto consiguieron, además de una diferencia significativa entre los niveles de fuerza por edades. Se compararon los resultados con otros estudios de equipos de todo el mundo y estos resultados fueron positivos en cuanto a la preparación física de estos atletas. Finalmente se detalló un informe individual y por equipos sobre cada futbolista y se planificó un trabajo de 6 semanas para aumentar la fuerza explosiva del miembro inferior.
Resumo:
En el trabajo se realiza un repaso de los diferentes tipos de planificación, programación y periodización en el entrenamiento de fuerza, así como las diferentes metodologías existentes para el desarrollo de la misma en sujetos con experiencia en el entrenamiento con cargas. También se analizan los diferentes tipos de medición de la fuerza máxima y la composición corporal del sujeto durante el programa de entrenamiento. El objetivo fue conseguir un incremento de los niveles de fuerza un sujeto mediante un programa de entrenamiento personal, incrementando masa muscular en un 2,5% y manteniendo los niveles de masa grasa.
Resumo:
Existen numerosos estudios que demuestran la importancia del entrenamiento de fuerza en la mejora del rendimiento en la natación. El objetivo del entrenamiento de fuerza en natación es por tanto buscar la transferencia en rendimiento de la natación de competición. Sin embargo, aunque los estudios hayan mostrado mejoras significativas con el entrenamiento de fuerza, no se ha demostrado que exista una transferencia específica. No obstante, su introducción en el programa de entrenamiento de un nadador se torna fundamental si se quiere llevar a cabo la máxima optimización posible del rendimiento. Por tanto, el objetivo de este trabajo será mostrar los fundamentos básicos del entrenamiento de fuerza, así como mostrar los métodos para su aplicación en el entrenamiento de la natación.