48 resultados para Años 60 y 70


Relevância:

80.00% 80.00%

Publicador:

Resumo:

El objetivo de esta tesis es el diseño de una metodología que permita una valoración objetiva del funcionamiento o de la posible puesta en servicio de una vía de alta ocupación en un corredor congestionado. Las vías de alta ocupación surgen en Estados Unidos en la década de los 60 y no ha sido hasta muy entrada la década de los 90, cuando se ha pensado que estas vías de alta ocupación podían ser una solución a los problemas de congestión en el entorno europeo. La experiencia que se hereda de los casos americanos es importante, pero está inmersa en un marco con características sensiblemente diferentes a las europeas. Es por ello, que la primera labor que se ha realizado en esta tesis es la elaboración del marco conceptual y teórico adecuado, necesario para el correcto planteamiento de una metodología de evaluación. La revisión y el análisis, tanto de los planes de evaluación existentes, como de las propuestas desarrolladas en la literatura, unido a la clarificación del marco conceptual inherente a las vías de alta ocupación, ponen de relieve la necesidad de completar la práctica existente con herramientas que permitan cuantificar y valorar de manera adecuada, el funcionamiento o la puesta en servicio de una vía de alta ocupación. Sabiendo que el objetivo fundamental de una vía de alta ocupación es la reducción del número de usuarios del vehículo privado con un solo ocupante a modos de alta ocupación, y que este objetivo tiene necesariamente que estar en consonancia con las directrices de la actual política europea de transportes, se propone una metodología de cuatro fases que complementa a la práctica habitual y que la adapta al contexto europeo (sin olvidar que ya existe una labor previa en este aspecto, debido a la puesta en servicio de la vía de alta ocupación de la carretera N-VI de Madrid). Los objetivos de la metodología propuesta se centran en el estudio de la redistribución modal que debe producir la vía de alta ocupación desde el vehículo privado con un solo ocupante hacia los modos de alta ocupación (modos compartidos y transporte público), haciendo especial hincapié en las características necesariamente diferentes de los modos compartidos. El método de evaluación propuesto se articula en cuatro fases y se centra en la obtención (por medio de las tres primeras fases) de tres parámetros que van a regir la valoración positiva de la vía: el cambio modal neto (CMN), la estabilidad temporal del cambio (ETC) y las condiciones de operación en las vías convencionales (COV). El CMN indica si la vía de alta ocupación ha contribuído a la formación de los modos compartidos, el ETC indica si esta formación es una relación causal y el COV indica si se ha producido una contribución positiva al logro de una movilidad sostenible. Las posibles combinaciones derivadas de los valores de estos parámetros proporcionan a la Administración responsable una valoración objetiva de la vía de alta ocupación. El método de evaluación propone también, en función de estas combinaciones, las medidas más adecuadas a adoptar, bien para el logro de una mejora en las condiciones existentes, bien para el mantenimiento de las mismas. La aplicación práctica de esta metodología al caso de la vía de alta ocupación de la carretera N-VI, demuestra la validez, tanto de la metodología propuesta como de los parámetros que la sustentan. No obstante, se identifican una serie de limitaciones y consideraciones a matizar y que dan a pie a futuras líneas de investigación.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La marcha humana es el mecanismo de locomoción por el cual el cuerpo humano se traslada en línea recta gracias a una serie de movimientos coordinados de la pelvis y de las articulaciones del miembro inferior. Frecuentemente se encuentra influenciada por factores biomecánicos, anatómicos o patologías del sistema neuromusculoesquelético que modifican la forma de caminar de cada individuo. La lesión de médula espinal es una de las patologías que afectan el desarrollo normal de los patrones de la marcha por alteración de la movilidad, de la sensibilidad o del sistema nervioso autónomo. Aunque la lesión medular afecta otras funciones, además de la pérdida de función motora y sensorial, la recuperación de la capacidad de caminar es la mayor prioridad identificada por los pacientes durante la rehabilitación. Por ello, el desarrollo de dispositivos que faciliten la rehabilitación o compensación de la marcha es uno de los principales objetivos de diferentes grupos de investigación y empresas. En el contexto del proyecto Hybrid Technological Platform for Rehabilitation, Functional Compensation and Training of Gait in Spinal Cord Injury Patients se ha desarrollado un dispositivo que combina una órtesis activa (exoesqueleto) y un andador motorizado. Este sistema, como otros dispositivos, tiene el movimiento humano como estándar de referencia, no obstante no se evalúa de manera habitual, cómo es el patrón de la marcha reproducido y su similitud o diferencias con la marcha humana, o las modificaciones o adaptaciones en la interacción con el cuerpo del paciente. El presente estudio trata de examinar las características de la marcha normal en diversos grupos de población, y las diferencias con el patrón de marcha lenta. Finalmente, se pretende evaluar qué modificaciones y adaptaciones sufre el patrón de marcha lenta teórico al ser reproducido por el exoesqueleto. La presente investigación consiste en un estudio cuantitativo transversal desarrollado en dos etapas: estudio 1 y estudio 2. En el estudio 1 se analizó el patrón de la marcha a velocidad libremente seleccionada (normal) y el patrón de la marcha a velocidad lenta (0.25m/s) en 62 sujetos distribuidos en grupos considerando el sexo y los percentiles 25, 50 y 75 de estatura de la población española. Durante el estudio 2 se analizó el patrón de la marcha lenta reproducido por el dispositivo Hybrid a diferentes porcentajes de peso corporal (30%, 50% y 70%) en diez sujetos seleccionados aleatoriamente de la muestra del estudio 1. En ambos estudios se obtuvieron variables espacio-temporales y cinemáticas mediante un sistema de captura de movimiento con 6 cámaras distribuidas a lo largo de un pasillo de marcha. Se calcularon las medias, las desviaciones estándar y el 95% de intervalo de confianza, y el nivel alfa de significación se estableció en α=0.05 para todas las pruebas estadísticas. Las principales diferencias en el patrón normal de la marcha se encontraron en los parámetros cinemáticos de hombres y mujeres, aunque también se presentaron diferencias entre los grupos en función de la estatura. Las mujeres mostraron mayor flexión de cadera y rodilla, y mayor extensión de tobillo que los hombres durante el ciclo normal, aunque la basculación lateral de la pelvis, mayor en las mujeres, y el desplazamiento lateral del centro de gravedad, mayor en los hombres, fueron los parámetros identificados como principales discriminantes entre sexos. La disminución de la velocidad de la marcha mostró similares adaptaciones y modificaciones en hombres y en mujeres, presentándose un aumento de la fase de apoyo y una disminución de la fase de oscilación, un retraso de los máximos y mínimos de flexoextensión de cadera, rodilla y tobillo, y una disminución del rango articular en las tres articulaciones. Asimismo, la basculación lateral de la pelvis y el movimiento vertical del centro de gravedad disminuyeron, mientras que el movimiento lateral del centro de gravedad y el ancho de paso aumentaron. Durante la evaluación del patrón de la marcha reproducido por el exoesqueleto se observó que las tres articulaciones del miembro inferior disminuían el rango de movimiento por la falta de fuerza de los motores para contrarrestar el peso corporal, incluso con un 70% de descarga de peso. Además, la transferencia de peso se encontró limitada por la falta de movimiento de la pelvis en el plano frontal y se sustituyó por un aumento de la inclinación del tronco y, por tanto, del movimiento lateral del centro de gravedad. Este hecho, junto al aumento del desplazamiento vertical del centro de gravedad, hizo del patrón de la marcha reproducido por el exoesqueleto un movimiento poco eficiente. En conclusión, se establecen patrones de marcha normal diferenciados por sexos, siendo la basculación lateral de la pelvis y el movimiento lateral del centro de gravedad los parámetros discriminantes más característicos entre sexos. Comparando la marcha a velocidad libremente seleccionada y la velocidad lenta, se concluye que ambos sexos utilizan estrategias similares para adaptar el patrón de la marcha a una velocidad lenta y se mantienen las características diferenciadoras entre hombres y mujeres. En relación a la evaluación del dispositivo Hybrid, se deduce que la falta de movimiento lateral de la pelvis condiciona la transferencia de peso y el aumento del rango de movimiento del centro de gravedad y, en consecuencia, tiene como resultado un patrón de la marcha poco eficiente. Este patrón no resultaría indicado para los procesos de rehabilitación o recuperación de la marcha, aunque podría considerarse adecuado para la compensación funcional de la bipedestación y la locomoción. ABSTRACT The human walking is a means of moving body forward using a repetitious and coordinated sequence of pelvis and lower limb motions. It is frequently influenced by biomechanical and anatomical factors or by musculoskeletal pathologies which modify the way of walking. The spinal injury is one of those pathologies which affect the normal pattern of walking, due to the alteration of the mobility, the sensory or the autonomic nervous system. Although the spinal injury affects many other body functions, apart from the motor and sensory ones, the main priority for patients is to recover the ability of walking. Consequently, the main objective of many research groups and private companies is the development of rehabilitation and compensation devices for walking. In this context, the Hybrid Technological Platform for Rehabilitation, Functional Compensation and Training of Gait in Spinal Cord Injury Patients project has developed a device which integrates an exoskeleton and a motorized smart walker. This system, as other similar devices, has the human movement as standard reference. Nevertheless, these devices are not usually evaluated on the way they reproduce the normal human pattern or on the modifications and in the interactions with the patient’s body. The aim of the present study is to examine the normal walking characteristics, to analyze the differences between self-selected and low speed walking patterns, and to evaluate the modifications and adaptations of walking pattern when it is reproduced by the exoskeleton. The present research is a quantitative cross-sectional study carried out in two phases: study 1 and study 2. During the study 1, the self-selected and the low speed (0.25m/s) walking patterns were analyzed in sixty-two people distributed in groups, according to sex and 25th, 50th and 75th percentiles of height for Spanish population. The study 2 analyzed the low speed walking pattern reproduced by the Hybrid system in three conditions: 30%, 50% and 70% of body weight support. To do this, ten subjects were randomly selected and analyzed from the people of study 1. An optoelectronic system with six cameras was used to obtain spatial, temporal and kinematic parameters in both studies. Means, standard deviations and 95% confidence intervals of the study were calculated. The alpha level of significance was set at α=0.05 for all statistical tests. The main differences in normal gait pattern were found in kinematic parameters between men and women. The hip and the knee were more flexed and the ankle plantar flexion was higher in women than in men during normal gait cycle. Although the greater pelvic obliquity of women and the higher lateral movement of center of gravity of men were the most relevant discriminators between male and female gait patterns. Comparing self-selected and low speed walking patterns, both sexes showed similar adaptations and modifications. At low speed walking, men and women increased the stance phase ratio and decreased the swing phase ratio. The maximum and minimum peak flexion of hip, knee and ankle appeared after and the range of motion of them decreased during low speed walking. Furthermore, the pelvic obliquity and the vertical movement of the center of gravity decreased, whereas the lateral movement of center of gravity and step width increased. Evaluating the gait pattern reproduced by the exoskeleton, a decrease of lower limb range of motion was observed. This was probably due to the lack of strength of the engines, which were not able to control the body weight, even with the 70% supported. Moreover, the weight transfer from one limb to the contralateral side was restricted due to the lack of pelvis obliquity. This movement deficiency was replaced by the lateral torso sway and, consequently, the increase of lateral movement of the center of gravity. This fact, as well as the increase of the vertical displacement of the center of gravity, made inefficient the gait pattern reproduced by the exoskeleton. In conclusion, different gait patterns of both sexes have been determined, being pelvis obliquity and lateral movement of center of gravity the most relevant discriminators between male and female gait patterns. Comparing self-selected and low speed walking patterns, it was concluded that both sexes use similar strategies for adapting the gait pattern to a low speed, and therefore, the differentiating characteristics of normal gait are maintained. Regarding the Hybrid system evaluation, it was determined that the gait pattern reproduced by the exoskeleton is inefficient. This was due to the lack of pelvis obliquity and the increase of the center of gravity displacement. Consequently, whereas the walking pattern reproduced by the exoskeleton would not be appropriated for the rehabilitation process, it could be considered suitable for functional compensation of walking and standing.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Arquitectos y no arquitectos como Rossi, Grassi, Jacobs, Sennett o Lefebvre, denunciaron críticamente durante los 50, 50 y 70 la ruptura entre la calle y el espacio doméstico y el consiguiente declive del dominio público urbano a escala de ciudad y a escala de barrio. La crítica a la "Ville Contemporaine" no solo se escribía, también se dibujaba y a veces, incluso, se construía. La primera generación post-CIAM trabajó intensamente en desmentir con palabras y obras al Oud que ya en los años 20 del pasado siglo, tomando la delantera a Le Corbusier y desde su mejor sentido práctico y estético afirmaba: "Las calles para el negocio, los patios interiores para la vida. Los dos estrictamente separados y con un carácter contradictorio".

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Fundamentos de la Tesis La presente Tesis investiga acerca de las primeras arquitecturas que surgieron a lo largo de La Costa del Sol con motivo de la apertura al exterior de la España turística de los años cincuenta, y cómo su implantación iba a suponer, a lo largo de la segunda mitad del siglo, la paulatina aparición de modos de vida y desarrollos urbanos que pueden ser considerados hoy día como contemporáneos. El Pacto Americano de 1953, pese a su origen militar, supuso en España el surgimiento a su vez de contraprestaciones económicas y de relación que permitirían salir al país de la autarquía y el inicio de un proceso de homologación con el entorno occidental de consecuencias imprevisibles. La Costa del Sol nace de esta manera como fenómeno de explotación turística de un territorio de paisaje amable y de buen clima. La investigación profundiza en el hecho turístico y en sus derivaciones antropológicas, sociales, económicas y culturales como resultado del intercambio de poblaciones autóctonas y lejanas en un lugar donde se relacionan diferentes modos de vida. En este sentido, la visita de Dalí a Torremolinos en 1930 permite introducir en la investigación conceptos relacionados con el azar como integrador de errores, deformaciones o transformaciones no previstas. Estas primeras arquitecturas de llamativo corte moderno aparecieron durante la década entre 1959 y 1969, en el entorno virgen preexistente, comprendido entre la playa y la montaña, proporcionando densidad y singularidad con sus diseños, y alentando un carácter de multiplicidad desde sus propios modelos, lo que favorecería un fenómeno interactivo entre las distintas soluciones. Visto desde la capital del Estado se reconocería un singular territorio supra-provincial entre el Cabo de Gata y la Punta de Tarifa. En dicho territorio, una serie de pequeñas poblaciones se enlazarían a través del cordón litoral gracias a la carretera nacional 340. Esta primera arquitectura comercial privada y de calidad surgió también gracias a la conexión del aeropuerto de Málaga con el turismo internacional. Gracias a esta conexión se exhibirán rasgos pertenecientes a la cultura arquitectónica de la época, a lo moderno, como reclamo, fundamentalmente edifi cios exóticos que mostrarán rasgos de progreso en una periferia empobrecida y rural. Metodología empleada • Búsqueda de fuentes primarias como documentación original de los diferentes proyectos y entrevistas con arquitectos protagonistas de esa época. • Búsqueda, catalogación y ordenación de los diferentes planes de ordenación de la Costa del Sol que se hicieron durante la década de estudio así como un análisis de sus propuestas y consecuencias. • Estudio de casos relativos a los dos modelos de actuaciones arquitectónicas predominantes en el periodo de estudio: los hoteles y los complejos de apartamentos. • Establecimiento de un planteamiento gradual por escalas, trabajando como “múltiplos” y permitiendo generar lazos de autosimilitud. • Análisis de la relación de estos proyectos con el paisaje circundante, con lo urbano, existiese o no, y con el interior de las células de apartamentos. Aportaciones de la Tesis El fenómeno estudiado ha permitido atisbar otra escala más, que atiende a la aparición de un nuevo ente urbano. Para ello las teorías sobre la ciudad vertidas durante los años 30 por F. Ll. Wright, junto con la visión reveladora de Reyner Banham sobre Los Ángeles a principios de los 70 o de Rem Koolhaas sobre la ciudad genérica como apoteosis del concepto de elección múltiple, permiten establecer parámetros que enmarcan el estudio del nuevo ente urbano de difícil legibilidad que se funda en la Costa del Sol durante la década de los 60. La investigación concluye acerca del papel de estas primeras arquitecturas del turismo dentro del proceso dinámico, imparable y crecedero que se inició durante la época de estudio. Un fenómeno que ha dado lugar a un desarrollo suburbial y a-jerárquico, sin centro concreto, donde se dan lugar multitud de relaciones en continua adaptación que permiten defi nirlo como una nueva ciudad. En este proceso estas primeras arquitecturas surgieron como objetos exóticos por su modernidad desafi ante. Esta cualidad convirtió a estos edifi cios en verdaderos atractores de actividad, embajadores de nuevos modos de vida contemporáneos. Por lo que en sus entornos próximos a lo largo de este territorio se provocó la cristalización paulatina de un hecho urbano. Su evolución posterior ha derivado en un progresivo relleno de huecos y vacíos. De manera no planifi cada, azarosa e incluso inesperada, las primeras arquitecturas, que servían a la vida a medias que supone el hecho turístico, han derivado en una paulatina ciudad completa, exenta de jerarquías. Conclusión final La arquitectura se hace más real que nunca como algo tangible en el fl uir de la ciudad. El proceso imparable que se inició en la Costa del Sol sólo puede comprenderse desde sus arquitecturas, que acogen momentos y lugares. En ellas se entremezclan signos, cultura, modos de vida, estilo, construcción, economía y vida contemporánea que han ido colonizando poco a poco este territorio en un proceso irreversible como en tantos otros lugares del planeta. Este proceso de desvelamiento ha constituido el motivo principal de esta Tesis

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Las diferencias individuales ante cualquier estímulo son parte de la condición humana, y reflejan nuestra diversidad genética, así como la influencia del entorno. Conocer el papel que juegan las variaciones genéticas o polimorfismos, es vital para entender de forma integral la respuesta del organismo al ejercicio. Por tanto, el presente trabajo tiene como objetivo fundamental definir el posible rol de tres variantes genéticas en el metabolismo energético durante la realización de ejercicio físico. Más concretamente, los objetivos principales son, por un lado, observar si existen diferencias en la respuesta láctica en sangre capilar y venosa en función del polimorfismo A1470T del gen del Transportador de Monocarboxilatos 1 (MCT1) (rs1049434). Por otro lado, el segundo objetivo es estudiar si presencia del polimorfismo del gen MCT1 determina parcialmente la máxima concentración de lactato en sangre venosa alcanzada durante diferentes protocolos de circuitos de fuerza. Por último, los objetivos tercero y cuarto se centran en analizar si existen diferencias en las ratios de acilcarnitinas en sangre, que reflejan la actividad de la Carnitina Palmitoiltransferasa II (CPTII), en función de los polimorfismo Val368Ile (rs1799821) y Met647Val (rs1799822) del gen de la CPTII (CPT2) durante la realización de una sesión de Circuito Mixto de musculación-aeróbico. Para la consecución de estos objetivos se realizaron dos estudios (Piloto y General). En el primero de ellos (Estudio Piloto) 10 hombres estudiantes de la Licenciatura en Ciencias de la Actividad Física y del Deporte (CCAFD) realizaron 6 sesiones de fuerza en circuito. En días no continuados y a una intensidad diferente (30%, 40%, 50%, 60%, 70% u 80% de la 15 repetición máxima, 15RM), los sujetos ejecutaron tres vueltas a un mismo circuito de 8 ejercicios. A lo largo de la sesión se tomaron muestras de sangre capilar para el análisis de la concentración de lactato. En el Estudio General, 15 hombres y 14 mujeres estudiantes de la Licenciatura en CCAFD realizaron 3 protocolos de fuerza en circuito, al 70% de la 15 RM y al 70% de la reserva de la frecuencia cardiaca. Cada día ejecutaron un protocolo diferente: Circuito de Máquinas, Circuito de Peso Libre o Circuito Mixto de musculación- aeróbico, completando en cada uno tres vueltas. Durante cada una de las sesiones se extrajeron muestras de sangre venosa para el análisis de la concentración de lactato y del perfil de acilcarnitinas. Los resultados del presente trabajo evidencian que los sujetos portadores del polimorfismo A1470T del MCT1 (genotipos AT y TT) tienen un comportamiento de lactato diferente que los sujetos no portadores (genotipo AA) cuando se someten a diferentes circuitos de fuerza. En el Estudio Piloto los portadores tuvieron mayor pendiente de acumulación de lactato capilar a la intensidad del 80% de la 15RM, mientras que en el Estudio General los sujetos homocigotos para la variante genética (TT) registraron menores concentraciones de lactato venoso que los homocigotos normales (AA) durante el Circuito de Máquinas. No podemos concluir si esta diferencia de resultados se deriva del tipo de sangre analizada (capilar VS. venosa), de la existencia de un efecto umbral para el transportador o de una bidireccionalidad del MCT1, aunque la hipótesis de bidireccionalidad parece la más integradora. En el grupo de mujeres, no se observó un patrón claro de diferencias entre grupos genéticos por lo que no podemos concluir si el polimorfismo tiene efecto o no en este sexo. En el estudio 2 del Estudio General, la inclusión la variante del MCT1 como variable predictora cuando las variables dependientes fueron la máxima concentración de lactato venosa en los tres protocolos en conjunto, o la máxima concentración venosa durante el Circuito de Máquinas, confirma su influencia en los entrenamientos con elevada producción de lactato. No obstante, en los entrenamientos con concentraciones de lactato más bajas, parece que existen factores más determinantes para la máxima concentración que el polimorfismo del MCT1. Por último, los resultados del tercer estudio del Estudio General, aunque preliminares, sugieren que la presencia de las variantes polimórficas del CPT2 podría influir sobre el transporte de los ácidos grasos durante la realización de actividad física, particularmente en hombres. Aún así, son necesarios más estudios para confirmar, especialmente en mujeres, la influencia de ambos polimorfismos en la actividad de la CPTII.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El yacimiento Monte Rojo ha sido estudiado en diferentes etapas, sin embargo, las informaciones que se conservan son escasas y marcadamente generalistas. Los resultados que se presentan en este nuevo trabajo describen no sólo el aspecto petrológico de las rocas encajantes y las características intrínsecas de las menas, sino también los aspectos genéticos del yacimiento que, a juicio de los autores, podría ajustarse adecuadamente al modelo de génesis de los depósitos sulfurosos masivos tipo "Chipre". El estudio mineragráfico, realizado sobre los testigos de los sondeos PC-1126, MR-1-98, MR-2-98 y MR-99-10, estableció la presencia de menas masivas de pirita y calcopirita, con cantidades apreciables de marcasita y esfalerita. Los análisis químicos detectaron contenidos de hasta 8,43% de Cu en promedio, y Zn entre 0,1% y 0,75%, en profundidades comprendidas entre 31,50 y 60,70 metros. Las investigaciones petrológicas demostraron que las rocas encajantes se encuentran fuertemente alteradas, con predominio de silicificación, cloritización y epidotización, con mineralización sulfurosa diseminada y venífera en stock-works. El cálculo de los recursos, realizado por Costafreda, J.L. y Földessy, J. en 1988, fijó la cifra de 1.365.000 Tn de menas cupríferas y 42.164 Tn de metal de Cu, con un peso volumétrico igual 2,6 t/m3.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Si existe un denominador común en la contemporaneidad este tiene que ver con el cambio y la transitoriedad. Surfeamos en las olas de una sociedad siempre cambiante incierta y cada vez más imprevisible. La postmodernidad ha devenido en un tiempo sin certezas, el habitante de la sociedad de la transitoriedad desconoce la previsión de futuro. Ante la ausencia de certidumbres, los individuos están obligados a concatenar proyectos episódicos a corto plazo. Este modo de vida fragmentada requiere una gran capacidad de adaptación y flexibilidad para poder sobrevivir en condiciones de incertidumbre endémicas. Por esa razón, la construcción de cualquier situación en términos intelectuales y metodológicos a cualquier escala, requiere una nueva visión, no sólo en términos de espacio, sino fundamentalmente, de tiempo. La presente tesis no pretende plantear el problema desde el punto de vista filosófico, aunque inevitablemente tendrá que referirse a pensadores y científicos utilizados desde la arquitectura. En esta línea, se hace necesario preguntarse como el arquitecto puede operar con esta incertidumbre, en otras palabras: ¿Existe un potencial para el arquitecto en la inestabilidad y el cambio constante del contexto urbano, social y económico? ¿Y si es así, cómo se opera con esta incertidumbre? La inestabilidad de todo el contexto social, político, cultural y económico en el que la arquitectura tiene lugar hoy, hace imprescindible analizar las herramientas y protocolos de proyecto. La tesis tratará, como su título indica, sobre algunas de las estrategias que frente a los postulados del Movimiento Moderno, aparecen entre 1961 y 1978, y reformuladas bajo el prisma de la contemporaneidad, pueden constituir herramientas que hoy resulta pertinente analizar, desde un punto de vista crítico pero también pragmático, en el marco de inestabilidad en el que se desarrolla la disciplina arquitectónica, a estas metodologías las denominaremos Estrategias de Incertidumbre. Por definición, la arquitectura ha operado históricamente, entre el presente conocido y el futuro incierto. Y aunque en la segunda mitad del siglo XX, se produce un cambio significativo en la manera de aproximarse a los cambios futuros de programa o de uso, en la vida útil de los edificios, operando con el cambio y la indeterminación como herramientas de proyecto, lo que es probablemente nuevo hoy, es la inestabilidad de todo el contexto social, político, cultural y económico en el que se genera la arquitectura. La presente tesis analiza una serie de estrategias que han incorporado la incertidumbre como ingrediente activo en la elaboración del proyecto arquitectónico, hasta el punto de redefinir completamente la disciplina. La primera hipótesis plantea el diseño de la anticipación como respuesta a la incertidumbre, a través de la introducción de la flexibilidad programática en el proyecto, para generar estructuras capaces de asimilar los futuros cambios. En ese sentido se buscará la indeterminación del proyecto para dejar abierto su uso. A la vez, la introducción activa del factor tiempo transforma el rol del arquitecto, que pasa a ser un gestor interdisciplinar en la generación del proyecto abierto. La segunda hipótesis plantea el papel productivo de la incertidumbre dentro del proceso creativo, buscando deliberadamente la generación de oportunidades dentro del proceso de proyecto, fomentando la observación y descubrimiento frente al diseño y la definición, manejando tiempo, crecimiento y azar como variables proyectuales, entendiendo la obra como proceso de tal manera que lo inesperado pueda aparecer. Para acometer la investigación, en relación al modelo canónico del Movimiento Moderno, se analizan nuevos modelos surgidos en los 60 en distintos contextos, alineados entre otros, con los protocolos de John Cage y sus secuencias randomizadas o la cibernética, fundamentalmente a partir de 1961, año en el que se publican dos textos, Theory and Design in the First Machine Age de Reyner Banham y An approach to Cybernetics de Gordon Pask. El pensamiento sistémico de Gordon Pask – colaborador de Price en el Fun Palace - tendrá gran influencia en la formulación del concepto de Incertidumbre Calculada, enunciado y planteado como estrategia por Cedric Price, que incorpora, a partir de ese momento, protocolos de diseño propios de la cibernética, en proyectos como el Fun Palace y Potteries Thinkbelt a principios de los años 60. En ellos, el arquitecto, desde la toma de conciencia de la caducidad de los paradigmas clásicos heredados de los principales teóricos de la modernidad, entiende que el proyecto de arquitectura debe incorporar cierto grado de indeterminación para dar cabida a las incertidumbres del programa, introducir la obsolescencia programada o verificar el potencial de la incertidumbre en la sociedad postindustrial. Estos planteamientos tienen continuidad en la figura de un joven profesor llegado en 1970 a la Architectural Association de Londres, el arquitecto suizo Bernard Tschumi. Los programas académicos desarrollados por Tschumi en Londres de 1970 a 1975 - en los que combina el activismo político, las acciones urbanas inspiradas en Lefebvre y Debord y las técnicas del performance juegan un rol crucial en la formalización del discurso y la práctica arquitectónica a partir de los años 70 y suponen el paso de un modelo directo, transitivo, a un modelo operativo, donde la conducta y los objetivos no se establecen a priori, sino que se instalan en el interior de los procesos, ampliando un campo disciplinar, que a partir de ese momento se centrará en lo performativo. Tras estos proyectos, analizaremos su llegada a Nueva York en 1978, año en que presenta los Manhattan Transcripts y se publica Delirious New York, obras que sustituirán la cultura del espacio y la forma, por la capacidad de acción del programa a partir de su modificación dimensional y relacional. Este capítulo tendrá su epílogo en el Concurso Internacional de La Villette en 1982, en las propuetas de Tschumi, Koolhaas y Price, donde la indeterminación estará presente mediante la generación de paisajes perceptivos y programáticos cambiantes. Tras los dos capítulos centrales, el capítulo final Estrategias de Incertidumbre, que da título a la Tesis, recapitulará las estrategias analizadas a través de tres proyectos contemporáneos, proyectando otras tantas ventanas para futuras investigaciones.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A finales de Julio de mil novecientos sesenta y nueve, las televisiones de todo el mundo repetían una vez y otra las imágenes de Armstrong paseando por la superficie de la Luna. En los diálogos que se oían por los pasillos y las aulas de las universidades americanas se juzgaba que aquello no era sino una forma de distraer la atención de la gente para ocultar el problema que de verdad importaba: las noticias sobre la guerra del Vietnam. En octubre, más de quince millones de personas se manifestaban en Washington pidiendo el fin de la misma. Algunos estudiantes españoles recién llegados miraban a su alrededor tratando de adaptarse al nuevo medio en el que se encontraban. Parecía que en todas partes estaba empezando algo diferente. Les decían que la sociedad tenía que cambiar y que los nuevos tiempos verían nuevas formas de vida. De donde venían también recordaban que habían oído decir cosas similares aunque el sentido fuera otro.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dentro del objetivo común que persigue alcanzar una estabilidad social y una economía de éxito sostenible en el actual e incierto contexto mundial, el pronóstico es que la demanda de energía siga aumentando y que la generación mundial de electricidad se duplique entre los años 2005 y 2030. En este escenario, los combustibles fósiles podrían mantener una contribución muy significativa al mix energético posiblemente hasta el año 2050, participando del mercado de generación de energía eléctrica mundial en aproximadamente un 70% y siendo base de la generación de energía eléctrica europea en un 60%. El carbón sin duda seguirá teniendo una contribución clave. Este incremento en la demanda energética y energía eléctrica, en el consumo de carbón y de combustibles fósiles en general, sin duda tendrá impacto sobre los niveles de concentración de CO2 a nivel global en los diferentes escenarios evaluados, con un fatal pronóstico de triplicar, si no se contiene de alguna manera su emisión, los niveles actuales de concentración de CO2 hasta valores próximos a 1.200 ppm para finales de este siglo XXI. El Protocolo de Kyoto, adoptado en 1997, fue el primer tratado de responsabilidad a nivel mundial para el monitoreo y limitación de las emisiones de CO2, realizando una primera aproximación hasta el año 2012 y tomando como valores de referencia los referidos a los niveles de concentración de gases de efecto invernadero registrados en 1990. Algunos de los principales países emisores de CO2 como USA y China no ratificaron los objetivos de límite de emisión y niveles de reducción de CO2, y sin embargo están tomando sus propias acciones y medidas en paralelo para reducir sus emisiones. Los procesos de combustión más eficientes y con menor consumo de combustible, proporcionan una significativa contribución del sector de generación eléctrica a la reducción de los niveles de concentración de CO2, pero podría no ser suficiente. Tecnologías de captura y almacenamiento de carbono (CCS, del inglés Carbon Capture and Storage) han comenzado a ganar más importancia desde principios de esta década, se ha intensificado la investigación y proliferado la creación de fondos que impulsen su desarrollo y estimulen su despliegue. Tras los primeros proyectos de investigación básica y ensayos a pequeña escala, casi embrionaria, tres procesos de captura se posicionan como los más viables actualmente, con potencial para alcanzar niveles de reducción de CO2 del 90%, mediante su aplicación en centrales de carbón para generación eléctrica. En referencia al último paso del esquema CCS en el proceso de reducción de las ingentes cantidades de CO2 que habría que eliminar de la atmósfera, dos opciones deberían ser consideradas: la reutilización (EOR y EGR) y el almacenamiento. El presente artículo evalúa el estado de las diferentes tecnologías de captura de CO2, su disponibilidad, su desarrollo y su coste de instalación estimado. Se incorpora un pequeño análisis de los costes de operación y varias extrapolaciones, dado que solo están disponibles algunos de estos datos hasta la fecha. Además este artículo muestra los principales hallazgos y los potenciales de reducción de emisiones de CO2 en la utilización del carbón para generar electricidad y proporciona una visión del desarrollo y despliegue actual de la tecnología. Se realiza una revisión de las iniciativas existentes a nivel mundial mediante proyectos de demostración orientados a la viabilidad comercial del esquema CCS para el período 2020 ? 2030. Se evalúan los diferentes programas en curso y sus avances, como el programa de UK, el EEPR (European Energy Program for Recovery), etc. Las principales fuentes empleadas en la elaboración de este artículo son el DOE, NETL, MIT, EPRI, Centros e Institutos de Investigación, Universidades Europeas, Administraciones Públicas y Agencias Internacionales, suministradores de tecnología crítica, compañías eléctricas (utilities) y empresas tecnológicas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Las incubadoras de huevos requieren un buen control de la temperatura (37.5-37.8 ºC) y de la humedad relativa (45-60%) durante todo el proceso de incubación. Aunque la concentración de dióxido de carbono es determinante para establecer una buena tasa de ventilación, así como para determinar el estado de proceso de desarrollo de los embriones (De Smit et al., 2006; Han et al., 2011), las incubadoras industriales normalmente no incorporan sensor de CO2. En trabajos previos de los autores se realizó la modelización del gradiente de temperatura y humedad relativa en el interior de una incubadora semi-industrial usando una red tridimensional de sensores, observándose que las variaciones espaciales eran despreciables; haciendo posible usar un único sensor en un punto de control. En dichos ensayos previos se emplearon módulos comerciales de adquisición de datos y de control, cuyo principal inconveniente es el coste considerando el perfil del usuario final: empresario cinegético a tiempo parcial en esta actividad. En la actualidad existen diversas plataformas de hardware y software libre con un bajo coste que se pueden emplear para controlar y monitorizar procesos a través de sus entradas y salidas digitales y analógicas. Una de estas plataformas es Arduino, creada en 2005 como una herramienta para estudiantes. En este trabajo se presenta el diseño y validación de un sistema de control de una incubadora industrial de perdices, empleando un sensor de temperatura y humedad relativa y un sensor de CO2 basado en la tecnología de infrarrojo no dispersivo (NDIR),conectados a una placa ArduinoTM MEGA. La producción de CO2 se ha empleado para modelizar el desarrollo embrionario de los huevos, y estimar el punto final de la incubación. Se dispone de datos relativos a la tasa de nacimientos, en todos los casos cercana al 70%; muy elevado considerando que se desconoce la tasa inicial de huevos fecundados.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El principal objetivo del presente trabajo de investigación fue determinar las diferencias en distintas variables relacionadas con el rendimiento físico entre atletas de distinto nivel durante la prueba de los 60 metros vallas. Un total de 59 vallistas masculinos (los 31 participantes en el Campeonato del Mundo Absoluto de Pista Cubierta y los 28 participantes en el Campeonato de España Absoluto de Pista Cubierta, ambos celebrados en Valencia en el año 2008) formaron la muestra del estudio. El análisis biomecánico se realizó mediante un sistema fotogramétrico en dos dimensiones que permitió calcular, aplicando algoritmos basados en el procedimiento de la DLT (Abdel-Aziz y Karara, 1971), las coordenadas (x, y) de los sucesivos apoyos de los pies de los atletas sobre toda la superficie de competición. La filmación de las pruebas se llevó a cabo con seis cámaras de vídeo, ubicadas sobre la gradas, con una frecuencia de muestreo para el tratamiento de los datos de 50 Hz. En la fase de salida, los atletas de nivel superior mostraron una menor longitud (p<0,05) y tiempo de zancada (p<0,001), debido a un menor tiempo de vuelo (p<0,05). En la fase de vallas, los atletas de nivel más elevado presentaron mayores distancia de ataque a la valla (p<0,001), así como menores distancias de caída de la valla (p<0,001), tiempos de zancada (p<0,01-0,001) y de apoyo (p<0,01-0,001 ) en los cuatro pasos que conforman cada ciclo de vallas, así como un menor tiempo de vuelo en el paso de valla (p<0,001) y en el paso de transición (p<0,001). De manera adicional, se encontraron importantes diferencias en el reparto de los pasos entre vallas entre la primera y tercera valla y el resto de obstáculos. En la fase final, se observó una mayor longitud de zancada en los atletas de nivel superior (p<0,001), así como un menor tiempo de zancada (p<0,01) y de apoyo (p<0,01). Los resultados obtenidos en el presente estudio de investigación avalan la utilización de la fotogrametría en dos dimensiones para el análisis biomecánico de la prueba de 60 metros vallas en competición. Su aplicación en competiciones del máximo nivel internacional ha posibilitado conocer las características de los vallistas a lo largo de toda la prueba y determinar posibles implicaciones de cara al proceso de entrenamiento. ABSTRACT The aim of this research was to determine the differences in different variables related to physical performance among athletes of different levels during the race of 60 meter hurdles. A total of 59 male hurdlers (the 31 participants in the World Indoor Championship and the 28 participants in the Spanish Indoor Championship, both held in Valencia in 2008) formed the sample of the study. The biomechanical analysis of athletes was performed using a two-dimensional photogrammetric system which enabled calculation, applying algorithms based on the DLT method (Abdel -Aziz y Karara , 1971), the coordinates (x , y) of the successive supports of the feet on the entire competition surface. Filming test was conducted with six video cameras, located on the bleachers, with a sampling frequency for data processing of 50 Hz. In the approach run phase, the top-level athletes showed a smaller length step (p<0.05), and shorter step time (p<0.001), due to a shorter step flight time (p<0.05). In the hurdle unit phase, the higher level athletes had greater take-off distances (p<0.001), shorter landing distances (p<0.001), smaller step times (p<0.01-0.001), and support times (p<0.01- 0.001) in the four steps that comprised each hurdle unit, and smaller flight times in the hurdle step (p < 0.001), and the recovery step (p<0.001). Additionally, differences in the distribution of hurdle unit steps between the first and third hurdle, and other hurdles were found. In the run-in phase, a greater step length in top-level athletes (p<0.001), and a shorter step time (p<0.01) and contact time (p<0.01) was observed. The results obtained in this study support the use of photogrammetry in two dimensions for biomechanical analysis in 60 meter hurdles competition events. Its application at the highest international level competitions has allowed to know the characteristics of the hurdlers over the entire race and identify possible implications for the training process.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

El objetivo de este PFG es aplicar las herramientas de planificación a un proyecto existente y hacer un estudio del análisis de riesgos. El PFC al que se va a aplicar la gestión de riesgos es: “ Remodelación del vial existente que une el municipio de Cañaveruelas (Cuenca) con el embalse de Buendía, mediante una vía de doble sentido tipo C-60 que incluye un carril bici y otro peatonal. Ordenación territorial en las proximidades al embalse”. Fue realizado por Laura Gallego Salagre y por mí, para la defensa del PFC de Ingeniero Técnico en Topografía en junio de 2013. - Descripción breve del proyecto al que se va a aplicar la herramienta de gestión. - Estudio de los métodos y de las herramientas de gestión de análisis de los riesgos - Diseño de una planificación adecuada y eficiente. - Identificación de los riesgos que puedan afectar al proyecto - Realizar un análisis cualitativo y cuantitativo de Riesgos - Planificar las respuestas a los Riesgos - Analizar las diferentes respuestas - Comparar la planificación determinista con la realizada tras el análisis de riesgos. Para hacer un estudio del análisis de riesgos, hay que empezar por una planificación detallada del proyecto e identificar los posibles riesgos que puedan aparecer. Después haremos una estimación de los recursos y los asignaremos a las diferentes actividades. Posteriormente se realizará una red de procedencias, se calculará el camino crítico y se establecerá un plan de hitos para realizar un análisis de riesgos mediante el método Monte Carlo, que nos indicará la incertidumbre de las actividades. Posteriormente identificaremos los posibles riesgos que puedan afectar a nuestra planificación, los analizaremos cualitativa y cuantitativamente y se evaluarán las acciones de mitigación de los riesgos. Por último, se creará el impacto de estos en las actividades y a partir de ellos, se harán los calendarios pre y post mitigados para su posterior análisis.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Realizado gracias a las becas de la UPM para proyectos en cooperación. Identificado en San José de Cusmapa, Madriz, Nicaragua, en colaboración con organismos locales (Fabretto e INSFOP). Centro de acopio para una cooperativa con gran potencial, con el objetivo de aumentar el margen obtenido por los campesinos con sus cosechas. Depósito de agua para mantener el huerto escolar durante todo el año en una comunidad con escasa disponibilidad de agua.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En este trabajo se ha realizado un análisis de la estructura del juego y de los parámetros morfológicos y fisiológicos en jugadores de bádminton. Para ello se han realizado 4 estudios aplicados. Objetivo: Los objetivos del trabajo han sido: (1) comprobar si existen diferencias entre el lado dominante y no dominante de las medidas antropométricas en jugadores de bádminton de máximo nivel nacional, así como verificar si el lado del cuerpo donde se realiza la medición puede influir en el cálculo de la composición corporal y del somatotipo. (2) Comparar la estuctura temporal y notacional en partidos de individual masculino entre los Juegos Olímpicos de Pekín y de Londres para observar como ha evolucionado el bádminton de 2008 a 2012. (3) Medir la ocurrencia de daño muscular después de un partido simulado de bádminton y su influencia en parámetros físicos y hematológicos. (4) Investigar la efectividad de una bebida energética que contiene cafeína para mejorar el rendimiento físico y el rendimiento en un partido en jugadores de élite de bádminton. Metodología: Para caracterizar el bádminton participaron en esta tesis un total de 78 jugadores de bádminton de élite (63 hombres y 15 mujeres), distribuidos en tres estudios y se analizaron 40 sets de bádminton de individual masculino usando los videos oficiales de los Juegos Olímpicos de Pekín 2008 y Londres 2012. En el primer estudio se tomaron medidas de pliegues cutáneos, diámetros, longitudes y perímetros del lado dominante y no dominante de los jugadores. Se calculó la composición corporal y el somatotipo. En el segundo estudio se analizaron los factores temporales y los factores notacionales de los partidos. En el tercer estudio se midieron la fuerza máxima isométrica, la velocidad en test específicos de bádminton y se tomaron muestras de sangre antes y después de jugar un partido de bádminton de 45 minutos. En el cuarto estudio se realizó un experimento a doble ciego, aleatorizado y controlado con placebo, los jugadores ingirieron 3 mg de cafeína por kilógramo de masa corporal en forma de bebida energética, o la misma bebida sin cafeína (placebo). En este estudio se registraron diferente tests específicos de bádminton (tests de salto, fuerza máxima y test de agilidad) y se jugó un partido simulado de 45 minutos. Resultados y discusión: (1) El porcentaje óseo fue mayor calculado a partir de las mediciones del lado dominante (dominante = 16.37 ± 1.14 %, no dominante = 15.66 ± 1.12 %; P < 0.001), mientras que el porcentaje muscular fue mayor calculado a partir de las mediciones del lado no dominante (dominante = 49.39 ± 2.60 %, no dominante = 50.18 ± 2.69%; P < 0.001). (2) La duración del set (Pekín: 1124.6 ± 229.9 s vs Londres: 1260.3 ± 267.1 s.; P < 0.05), el tiempo real de juego (Pekín: 306.9 ± 45.7 s vs Londres: 354.7 ± 86.5 s; P < 0.05), tiempo de rally, golpeos por rally, tiempo de descanso en el punto 11, tiempo de descanso entre sets y golpeos por rally fueron significativamente mayores en Londres que en Pekín. (3) El partido simulado de bádminton no afectó a la fuerza isométrica máxima (Pre: 1263.6 ± 245.5, Post: 1290.8 ± 240.4 N) o a la velocidad específica de bádminton (Pre: 21.0 ± 1.7, Post: 20.9 ± 1.8 s), sin embargo las concentraciones de mioglobina y de creatina quinasa en sangre aumentaron de 26.5 ± 11.6 a 197.3 ± 70.2 μg • L-1 y de 258.6 ± 192.2 a 466.0 ± 296.5 U • L-1, respectivamente después del partido de bádminton. (4) En comparación con la bebida placebo, la ingesta de la bebida energética con cafeína incrementó la altura del SJ (34.5±4.7 vs. 36.4±4.3 cm; P < 0.05) y del CMJ (37.7 ± 4.5 vs. 39.5 ± 5.1 cm; P < 0.05) y aumentó el número de aceleraciones totales durante el partido (7395 ± 1594 vs. 7707 ± 2033 aceleraciones; P < 0.05). Conclusiones: (1) Existen asimetrías corporales en los jugadores de bádminton de alto nivel, al encontrarse diferencias en los diámetros óseos y en los perímetros entre el lado dominante y no dominante. Al calcular la composición corporal con el lado dominante de los jugadores de bádminton se está sobreestimando el porcentaje óseo e infraestimando el porcentaje muscular. (2) El bádminton está evolucionando hacía rallies más largos con intervalos de descanso mayores, lo que resulta en partidos más largos. (3) El partido de bádminton generó daño muscular, sin embargo, el nivel de daño muscular alcanzado después de un partido de bádminton no produjo una disminución del rendimiento muscular. (4) El uso de una bebida energética con cafeína puede ser una ayuda nutricional eficaz para aumentar el rendimiento en el salto y patrones de actividad durante el juego en jugadores de élite de bádminton. ABSTRACT: This study analyzes the structure of the game and the morphological and physiological parameters in badminton players, investigated in four applied studies. Purpose: The purposes of the study were: (1) To check if there are differences between the dominant and non-dominant side in the anthropometric measures of badminton players at the highest national level and verify if the side of the body where the measurements are performed can influence the calculation of the body composition and the somatotype. (2) To compare the temporal and notational structure in men’s singles matches between the Olympic Games in Beijing and London to observe the evolution of badminton between 2008 and 2012. (3) To asses the occurrence of muscle damage after a simulated badminton match and its influence on physical and haematological parameters. (4) To determine the effectiveness of a commercially available energy drink that contains caffeine to improve match performance in elite badminton players. Methods: A total of 78 elite badminton players (63 men and 15 women) participated in this thesis to characterize the sport of badminton distributed in three studies and 40 sets of men’s singles badminton analyzed using the official videos of the Olympic Games of Beijing 2008 and London 2012. In the first study skinfolds, diameters, lengths and perimeters of the dominant and non-dominant side of the players were measured and body composition and somatotype were calculated. In the second study the temporal and notational factors were analyzed. In the third study maximal isometric force and speed in badminton specific tests were measured and blood samples were taken before and after a badminton match of 45 minutes. In the fourth study, a double-blind, randomized placebo-controlled experiment, players ingested 3 mg of caffeine per kilogram of body mass in the form of an energy drink or an identical drink with no caffeine content (placebo). In this study different badminton specific tests (jump tests, handgrip force test and an agility test) were recorded and a simulated badminton match of 45 minutes was played. Results and discussion: (1) The percentage of bone was higher when calculated from measurements of the dominant body side (dominant = 16.37 ± 1.14 %, nondominant = 15.66 ± 1.12 %; P < 0.001), while the muscle percentage was higher when calculated from measurements of the non-dominant side (dominant = 49.39 ± 2.60 %, non-dominant = 50.18 ± 2.69%; P < 0.001). (2) Set duration (Beijing: 1124.6 ± 229.9 s vs. London: 1260.3 ± 267.1 s.; P < 0.05), real time played (Beijing: 306.9 ± 45.7 s vs. London: 354.7 ± 86.5 s; P < 0.05), rally time, shots per rally, rest time at point 11, rest time between sets and shots per rally were significantly higher in London than in Beijing. (3) A simulated badminton match did not affect maximal isometric force (Pre: 1263.6 ± 245.5, Post: 1290.8 ± 240.4 N) or specific badminton speed (Pre: 21.0 ± 1.7, Post: 20.9 ± 1.8 s), however, concentrations of myoglobin and creatine kinase in blood increased from 26.5 ± 11.6 to 197.3 ± 70.2 μg • L-1 and from 258.6 ± 192.2 to 466.0 ± 296.5 U • L-1, respectively after the badminton match. (4) In comparison to the placebo drink, the caffeinated beverage increased height in the SJ (34.5±4.7 vs. 36.4±4.3 cm; P < 0.05) and in the CMJ (37.7 ± 4.5 vs. 39.5 ± 5.1 cm; P < 0.05) and increased the number of total accelerations during the match (7395 ± 1594 vs. 7707 ± 2033 accelerations; P < 0.05). Conclusions: (1) Body asymmetries were found in high level badminton players, due to the differences found in bone diameters and perimeters between the dominant and non-dominant body side. When calculating body composition with the dominant side of the badminton players we are overestimating bone percentage and underestimating muscle percentage. (2) Badminton is evolving towards longer rallies with greater rest intervals, resulting in longer matches. (3) The badminton match generated muscle damage, however, the level of muscle damage reached after a badminton match did not produce a decrease in muscle performance. (4) The ingestion of an energy drink containing caffeine might be an effective ergogenic nutritional supplement to increase jump performance and activity patterns during the game in elite badminton players.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En España existen del orden de 1,300 grandes presas, de las cuales un 20% fueron construidas antes de los años 60. El hecho de que existan actualmente una gran cantidad de presas antiguas aún en operación, ha producido un creciente interés en reevaluar su seguridad empleando herramientas nuevas o modificadas que incorporan modelos de fallo teóricos más completos, conceptos geotécnicos más complejos y nuevas técnicas de evaluación de la seguridad. Una manera muy común de abordar el análisis de estabilidad de presas de gravedad es, por ejemplo, considerar el deslizamiento a través de la interfase presa-cimiento empleando el criterio de rotura lineal de Mohr-Coulomb, en donde la cohesión y el ángulo de rozamiento son los parámetros que definen la resistencia al corte de la superficie de contacto. Sin embargo la influencia de aspectos como la presencia de planos de debilidad en el macizo rocoso de cimentación; la influencia de otros criterios de rotura para la junta y para el macizo rocoso (ej. el criterio de rotura de Hoek-Brown); las deformaciones volumétricas que ocurren durante la deformación plástica en el fallo del macizo rocoso (i.e., influencia de la dilatancia) no son usualmente consideradas durante el diseño original de la presa. En este contexto, en la presente tesis doctoral se propone una metodología analítica para el análisis de la estabilidad al deslizamiento de presas de hormigón, considerando un mecanismo de fallo en la cimentación caracterizado por la presencia de una familia de discontinuidades. En particular, se considera la posibilidad de que exista una junta sub-horizontal, preexistente y persistente en el macizo rocoso de la cimentación, con una superficie potencial de fallo que se extiende a través del macizo rocoso. El coeficiente de seguridad es entonces estimado usando una combinación de las resistencias a lo largo de los planos de rotura, cuyas resistencias son evaluadas empleando los criterios de rotura no lineales de Barton y Choubey (1977) y Barton y Bandis (1990), a lo largo del plano de deslizamiento de la junta; y el criterio de rotura de Hoek y Brown (1980) en su versión generalizada (Hoek et al. 2002), a lo largo del macizo rocoso. La metodología propuesta también considera la influencia del comportamiento del macizo rocoso cuando este sigue una ley de flujo no asociada con ángulo de dilatancia constante (Hoek y Brown 1997). La nueva metodología analítica propuesta es usada para evaluar las condiciones de estabilidad empleando dos modelos: un modelo determinista y un modelo probabilista, cuyos resultados son el valor del coeficiente de seguridad y la probabilidad de fallo al deslizamiento, respectivamente. El modelo determinista, implementado en MATLAB, es validado usando soluciones numéricas calculadas mediante el método de las diferencias finitas, empleando el código FLAC 6.0. El modelo propuesto proporciona resultados que son bastante similares a aquellos calculados con FLAC; sin embargo, los costos computacionales de la formulación propuesta son significativamente menores, facilitando el análisis de sensibilidad de la influencia de los diferentes parámetros de entrada sobre la seguridad de la presa, de cuyos resultados se obtienen los parámetros que más peso tienen en la estabilidad al deslizamiento de la estructura, manifestándose además la influencia de la ley de flujo en la rotura del macizo rocoso. La probabilidad de fallo es obtenida empleando el método de fiabilidad de primer orden (First Order Reliability Method; FORM), y los resultados de FORM son posteriormente validados mediante simulaciones de Monte Carlo. Los resultados obtenidos mediante ambas metodologías demuestran que, para el caso no asociado, los valores de probabilidad de fallo se ajustan de manera satisfactoria a los obtenidos mediante las simulaciones de Monte Carlo. Los resultados del caso asociado no son tan buenos, ya que producen resultados con errores del 0.7% al 66%, en los que no obstante se obtiene una buena concordancia cuando los casos se encuentran en, o cerca de, la situación de equilibrio límite. La eficiencia computacional es la principal ventaja que ofrece el método FORM para el análisis de la estabilidad de presas de hormigón, a diferencia de las simulaciones de Monte Carlo (que requiere de al menos 4 horas por cada ejecución) FORM requiere tan solo de 1 a 3 minutos en cada ejecución. There are 1,300 large dams in Spain, 20% of which were built before 1960. The fact that there are still many old dams in operation has produced an interest of reevaluate their safety using new or updated tools that incorporate state-of-the-art failure modes, geotechnical concepts and new safety assessment techniques. For instance, for gravity dams one common design approach considers the sliding through the dam-foundation interface, using a simple linear Mohr-Coulomb failure criterion with constant friction angle and cohesion parameters. But the influence of aspects such as the persistence of joint sets in the rock mass below the dam foundation; of the influence of others failure criteria proposed for rock joint and rock masses (e.g. the Hoek-Brown criterion); or the volumetric strains that occur during plastic failure of rock masses (i.e., the influence of dilatancy) are often no considered during the original dam design. In this context, an analytical methodology is proposed herein to assess the sliding stability of concrete dams, considering an extended failure mechanism in its rock foundation, which is characterized by the presence of an inclined, and impersistent joint set. In particular, the possibility of a preexisting sub-horizontal and impersistent joint set is considered, with a potential failure surface that could extend through the rock mass; the safety factor is therefore computed using a combination of strength along the rock joint (using the nonlinear Barton and Choubey (1977) and Barton and Bandis (1990) failure criteria) and along the rock mass (using the nonlinear failure criterion of Hoek and Brown (1980) in its generalized expression from Hoek et al. (2002)). The proposed methodology also considers the influence of a non-associative flow rule that has been incorporated using a (constant) dilation angle (Hoek and Brown 1997). The newly proposed analytical methodology is used to assess the dam stability conditions, employing for this purpose the deterministic and probabilistic models, resulting in the sliding safety factor and the probability of failure respectively. The deterministic model, implemented in MATLAB, is validated using numerical solution computed with the finite difference code FLAC 6.0. The proposed deterministic model provides results that are very similar to those computed with FLAC; however, since the new formulation can be implemented in a spreadsheet, the computational cost of the proposed model is significantly smaller, hence allowing to more easily conduct parametric analyses of the influence of the different input parameters on the dam’s safety. Once the model is validated, parametric analyses are conducting using the main parameters that describe the dam’s foundation. From this study, the impact of the more influential parameters on the sliding stability analysis is obtained and the error of considering the flow rule is assessed. The probability of failure is obtained employing the First Order Reliability Method (FORM). The probabilistic model is then validated using the Monte Carlo simulation method. Results obtained using both methodologies show good agreement for cases in which the rock mass has a nonassociate flow rule. For cases with an associated flow rule errors between 0.70% and 66% are obtained, so that the better adjustments are obtained for cases with, or close to, limit equilibrium conditions. The main advantage of FORM on sliding stability analyses of gravity dams is its computational efficiency, so that Monte Carlo simulations require at least 4 hours on each execution, whereas FORM requires only 1 to 3 minutes on each execution.