1000 resultados para sentencias interlocutorias con fuerza de definitivas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las lesiones agudas de rodillas son muy conocidas en el entorno del deporte: roturas de meniscos, de ligamentos cruzados, esguinces, pero lo más común es que aparezcan patologías por sobrecarga que comienzan con un dolor de baja intensidad que con el tiempo pueden llegar a provocar importantes problemas. La rodilla es la mayor articulación del cuerpo, está rodeada por grandes músculos que aunque proporcionan movilidad y fuerza, provocan estrés que se agudiza cuando hay desequilibrios de fuerza o flexibilidad; sin contar posibles alteraciones anatómicas. Aunque cada una de las patologías participa de varios mecanismos patogénicos, para plantear protocolos basados en la biomecánica correcta, podemos clasificar las patologías según su mecanismo etiopatogénico y patomecánico y, diseñar ejercicios de Pilates buscando el mejor resultado. Así, los 3 grupos de entidades que comprenden el 95de la patología médica de rodilla son: Síndromes de estrés articular, Síndromes comprensivos, Síndromes de tensión intersercional. Mediante el método Pilates, la abordaremos buscando la disminución de la inflamación y el dolor; movilización pasiva y activa para impedir rigideces y lograr mayor amplitud de movimiento; propiocepción; reentrenamiento de fuerza muscular y alineamiento; rehabilitación de gestos funcionales y coordinados, etc, contribuyendo a la recuperación y prevención de lesiones

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo del presente estudio es determinar si existe variación en la frecuencia de pasos en corredores, mediante la implementación de un programa de entrenamiento de fuerza específica y trabajos de técnica de carrera, realizado durante un período específico [6-semanas de duración] en un macrociclo de 14 semanas, con corredores recreativos de resistencia. Para el desarrollo del mismo se midió la capacidad de mantener la frecuencia de pasos durante la carrera a velocidades competitivas para 10.000 metros, en 7 corredores regulares no altamente capacitados, con un promedio de marcas personales para 10.000 metros de 00:43:59. Ellos fueron asignados en 2 grupos: un grupo experimental formado por 3 sujetos con programa de fuerza específica y trabajo de técnica de carrera durante 6-semanas específicas [intervención]; y un grupo control formado por 4 sujetos con programa de fuerza no específica y sin trabajos de técnica de carrera durante el período de intervención. La medición para determinar la frecuencia de pasos fue realizada al principio y al final del macrociclo mediante la filmación del último cuarto de cada pasada de 400 metros, de un trabajo de 10 pasadas a una velocidad de carrera con un periodo de pausa entre ellas. Para este estudio se analizaron los desvíos estándar de ambos grupos, haciendo un test a una cola, con un alfa = 0,05. Se encontraron diferencias significativas en la frecuencia de pasos entre ambos grupos. Observando en el grupo experimental una varianza de 0,06 y un desvío estándar de 0,25. Este grupo muestra una constante en el número de pasos en la evaluación de la semana 14. El grupo control obtuvo una varianza de 1,62 y un desvío estándar de 1,27. Recordemos que este grupo realizo un programa de fuerza no especifica, sin trabajos de técnica de carrera, se puede inducir que esto último tiene relación con el aumento substancial en la frecuencia de pasos durante las últimas pasadas en la evaluación de la semana 14. En Conclusión: el entrenamiento de fuerza especifica con técnica de carrera, permite mantener la frecuencia de pasos a ritmos de competencia en corredores recreativos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente trabajo es un macro ciclo de cinco meses que se realizó en la ACADEMIA DE FUTBOL ARNOLDO IGUARAN con niños en edades de los 6 a los 8 años pertenecientes al Municipio de La Villa de San Diego de Ubaté, Colombia; el objetivo principal fue determinar Incidencia de la aplicación de un programa de futbol, en actividades que se basan en el incremento de las unidades motoras activas, utilizando como herramienta un adecuado entrenamiento de la fuerza de tipo neuromuscular, haciendo énfasis en las acciones intermitentes y fundamental mente donde el niño este obligado a desarrollar fuerza y a entrenar con sobre cargas significativas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo nos proponemos indagar los contenidos relacionados a la psicoterapia de la Tercera Fuerza, mediante el análisis de programas de asignaturas vinculadas a la práctica clínica y psicoterapéutica. A los fines de nuestra investigación, nos hemos centrado en la formación universitaria en carreras de psicología, en el particular analizaremos la carrera de psicologíaen la Universidad Nacional de La Plata (UNLP). Hemos considerado elcaso de la Universidad Nacional de La Plata, por la antigua tradición fenomenológica-existencial que existiera en los años iniciales de aquella carrera y por la influencia de personalidades relevantes para la universidad, vinculadas a la psicología existencial, tal es el caso de Luis María Ravagnan. En este estudio hemos realizado un recorte del material analizado, seleccionando los programas de aquellas materias que tenían vinculación directa con la psicoterapia o la clínica en diversos años, y se procedió al análisis de los contenidos, bibliografía, objetivos y fundamentos de cada uno de los programas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los aspectos fisiológicos del fútbol el análisis de las intensidades y de los factores que afectan las tasas de esfuerzo, brinda una base para describir las intensidades de ejercicio durante los partidos. Las actividades relacionadas con el juego imponen un estrés fisiológico particular sobre los jugadores. Las demandas del partido tienen implicancias en la formulación de los sistemas de entrenamiento y en la atención a la especificidad de las habilidades en el fútbol. (Reilly T, 2007). Por lo anteriormente mencionado, dicha revisión estudiará todos los factores fisiológicos de la resistencia y la fuerza del futbolista, para conocerlos en profundidad y así optimizar los conocimientos del preparador físico en su abordaje

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se analizó el impacto de un programa de entrenamiento de flexibilidad sobre el desarrollo de la fuerza muscular en 16 jugadores de futbol con edad de 19.032.7 años. Se entrenó durante 30 días y 5 veces por semanas, donde el grupo "A" realizó entrenamiento de flexibilidad, mientras que "B" el entrenamiento regular. Se midió la flexibilidad, 1RM, salto vertical, peso, talla, circunferencia de pantorrilla y muslo. Los resultados muestran valores para A y B respectivamente, donde el IGF fue de 91.01 18.3 y 111.93 23.5; 78.22 29, y 79.03 29.1. La circunferencia femoral, 48.04 3.6 cms y 49.54 3.4 cms.; 47.56 4.9 y 47.89 5.2. Circunferencia de pantorrilla, 33.83 2.7 cm y 35.21 2.4 cm; 33.83 2 y 33.73 2.8. Fuerza 48.13 7.8 Kg. y 53.38 8.2 Kg.; 52.63 8.6 Kg. y 53.39 9.1 Kg. Potencia anaeróbica, 34.13 2.9 cm. y 36.63 1.7 cm; 38.25 4.7 y 37.06 3.4. Como conclusión se tiene que el uso la flexibilidad impacta de forma positiva en el IGF y por tanto en el desarrollo favorable muscular de jugadoras de fútbol.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este trabajo se discute en torno al comportamiento que ha presentado la estructura social del trabajo entre 1998 y 2006, buscando contribuir al debate sobre el cambio del régimen de empleo operado en la etapa posdevaluación. Con este objetivo, el documento examina la desigual performance que registraron los diferentes segmentos del mercado laboral, así como la invariabilidad que mostró tener la composición sectorial de la fuerza de trabajo. En este marco, se realiza una evaluación comparativa del impacto generado sobre las brechas de ingresos laborales por la heterogeneidad estructural en el mercado de trabajo. Para tal efecto, se ajustan diferentes modelos teóricos de regresión sobre el logaritmo de las remuneraciones horarias de cada año. El estudio analiza cuatro momentos clave del proceso económico argentino: 1998, 2001, 2003 y 2006

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El presente artículo se propone como objetivo analizar el derrotero seguido por FORJA desde su formación en 1935 hasta su autodisolución, decidida diez años más tarde. El trabajo presenta, en primer lugar, una breve reconstrucción de los orígenes de la agrupación. Avanza, en segundo término, en un análisis de las reformulaciones que FORJA introdujo en la identidad radical, prestando particular atención al modo en que los forjistas reinterpretaron el legado yrigoyenista. Expone luego los elementos centrales del programa forjista, examinando tanto las ideas esbozadas en dicho programa como las prácticas de difusión y propaganda de las que la agrupación se valió para divulgar su prédica; analiza, asimismo, el modo en que FORJA arraigó en distintos puntos del territorio nacional. Finalmente, el trabajo hace referencia a la compleja relación que la agrupación mantuvo con el peronismo en la coyuntura crítica en que éste hizo su aparición en el escenario político argentino

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Muchos deportistas aficionados en occidente, están emprendiendo hoy en día, largas e intensas ordalías donde la capacidad personal de resistir al sufrimiento en aumento constituye el objetivo principal. La carrera, el footing, el triatlón, el trekking, etc., son tipos de ordalías en las que la gente, sin apoyarse en una habilidad específica, no compite contra otros, sino que somete a prueba su propia capacidad para soportar el dolor creciente. El individuo se evalúa constantemente a sí mismo en una sociedad donde los puntos de referencia son incontables y contradictorios, donde los valores están en crisis, y busca entonces una relación cercana con significados profundos, probando su fuerza de carácter, su coraje y sus recursos personales. Seguir adelante hasta final de las ordalías autoimpuestas da una legitimidad a la vida y provee un umbral simbólico en el cual apoyarse. El funcionamiento en sí mismo tiene una importancia secundaria; sólo cuenta para el individuo. No se trata de luchar contra un tercero, es sólo un método para reforzar la voluntad personal y vencer el sufrimiento, justo al límite de una demanda personalmente impuesta. El límite físico ha venido a sustituir el límite moral que la sociedad actual no logra proporcionar. Sobreponiéndose al sufrimiento se templa el carácter del individuo, proporcionando así una importancia renovada y valiosa a su vida

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las transformaciones socio-económicas, políticas y gremiales acaecidas a fines de los '70 inauguraron un período desfavorable para las condiciones de trabajo de los obreros agrícolas. Se desarrolló una tendencia hacia la disminución de los tiempos requeridos por cada tarea, la discontinuación del proceso productivo, la estacionalización de la demanda de empleo y una mayor especialización de la fuerza de trabajo. La fragmentación extrema del proceso productivo derivó así en el astillamiento del ciclo laboral de los trabajadores en términos de ingresos y de empleadores. En este contexto, fueron logrando imponerse y naturalizarse distintas formas y niveles de remuneración para cada una de las tareas agrícolas, aun en los casos en que un trabajador las realizara todas para un mismo patrón como peón permanente, y singularmente en los casos de los obreros temporarios que se enfrentan a distintos empleadores para desarrollar cada una de las labores con las que construyen su ciclo laboral. Nos proponemos analizar el rol que la combinación de estas formas y niveles salariales ha venido cumpliendo para el abaratamiento de la fuerza de trabajo agrícola en su conjunto, así como en su estímulo a una mayor productividad y en la frustración de conflictos abiertos o a gran escala entre esta fracción de la clase obrera rural y sus patrones, a pesar de las condiciones de trabajo desfavorables que verificamos en este estudio

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos como las enzimas que cortan el ADN o la reacción en cadena de la polimerasa (PCR), contribuyendo más que signi�cativamente a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. En 1994, Leonard Adleman logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton Dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos similares al defuerza bruta� utilizado por Adleman se logró resolver otros problemas NP-completos (por ejemplo, el de Satisfacibilidad de Fórmulas Lógicas / SAT). Pronto se comprendió que la computación con biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas biológicos con aplicación biomédica, dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la Polimerasa, autómatas que funcionan con enzimas de restricción o con deoxiribozimas, circuitos de hibridación competitiva. Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos escalables, sensibles al tiempo y energéticamente e�cientes, capaces de implementar diversas operaciones de computación lógica aprovechando el fenómeno de la hibridación competitiva del ADN. La capacidad implícita de estos dispositivos para aplicar reglas de inferencia como modus ponens, modus tollens, resolución o el silogismo hipotético tiene un gran potencial. Entre otras funciones, permiten representar implicaciones lógicas (o reglas del tipo SI/ENTONCES), como por ejemplo, �si se da el síntoma 1 y el síntoma 2, entonces estamos ante la enfermedad A�, o �si estamos ante la enfermedad B, entonces deben manifestarse los síntomas 2 y 3�. Utilizando estos módulos lógicos como bloques básicos de construcción, se pretende desarrollar sistemas in vitro basados en sensores de ADN, capaces de trabajar de manera conjunta para detectar un conjunto de síntomas de entrada y producir un diagnóstico de salida. La reciente publicación en la revista Science de un autómata biomolecular de diagnóstico, capaz de tratar las células cancerígenas sin afectar a las células sanas, es un buen ejemplo de la relevancia cientí�ca que este tipo de autómatas tienen en la actualidad. Además de las recién mencionadas aplicaciones en el diagnóstico in vitro, los modelos presentados también tienen utilidad en el diseño de biosensores inteligentes y la construcción de bases de datos con registros en formato biomolecular que faciliten el análisis genómico. El estudio sobre el estado de la cuestión en computación biomolecular que se presenta en esta tesis está basado en un artículo recientemente publicado en la revista Current Bioinformatics. Los nuevos dispositivos presentados en la tesis forman parte de una solicitud de patente de la que la UPM es titular, y han sido presentados en congresos internacionales como Unconventional Computation 2010 en Tokio o Synthetic Biology 2010 en París.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los requisitos cada vez más exigentes en cuanto a misiones, limitaciones operacionales y ambientales así como nuevas tecnologías, imponen permanentemente retos a los arquitectos navales para generar alternativas de buques y valorar su bondad en las primeras etapas del proyecto. Este es el caso de los Buques Patrulleros de Apoyo Fluvial Pesados PAF-P, que por requerimiento de la Armada Nacional de Colombia ha diseñado y construido COTECMAR. Los PAF-P, son buques fluviales cuya relación Manga-Calado excede la mayoría de los buques existentes (B/T=9,5), debido principalmente a las restricciones en el calado a consecuencia de la escasa profundidad de los ríos. Estos buques están equipados con sistemas de propulsión acimutales tipo “Pum-Jet”. Las particularidades del buque y del ambiente operacional, caracterizado por ríos tropicales con una variabilidad de profundidad dependiente del régimen de lluvias y sequía, así como la falta de canalización y la corriente, hacen que la maniobrabilidad y controlabilidad sean fundamentales para el cumplimiento de su misión; adicionalmente, no existen modelos matemáticos validados que permitan predecir en las primeras etapas del diseño la maniobrabilidad de este tipo de buques con los efectos asociados por profundidad. La presente tesis doctoral aborda el desarrollo de un modelo matemático para simulación de maniobrabilidad en aguas poco profundas de buques con relación manga-calado alta y con propulsores acimutales tipo “Pump-Jet”, cuyo chorro además de entregar el empuje necesario para el avance del buque, genera la fuerza de gobierno en función del ángulo de orientación del mismo, eliminando la necesidad de timones. El modelo matemático ha sido validado mediante los resultados obtenidos en las pruebas de maniobrabilidad a escala real del PAF-P, a través de la comparación de trayectorias, series temporales de las variables de estado más significativas y parámetros del círculo evolutivo como son diámetro de giro, diámetro táctico, avance y transferencia. El plan de pruebas se basó en técnicas de Diseño de Experimentos “DOE” para racionalizar el número de corridas en diferentes condiciones de profundidad, velocidad y orientación del chorro (ángulo de timón). En el marco de la presente investigación y para minimizar los errores por efectos ambientales y por inexactitud en los instrumentos de medición, se desarrolló un sistema de adquisición y procesamiento de datos de acuerdo con los lineamientos de ITTC. La literatura existente describe los efectos negativos de la profundidad en los parámetros de maniobrabilidad de buques convencionales (Efecto tipo S), principalmente las trayectorias descritas en los círculos evolutivos aumentan en la medida que disminuye la profundidad; no obstante, en buques de alta relación manga-calado, B/T=7,51 (Yoshimura, y otros, 1.988) y B/T=6,38 (Yasukawa, y otros, 1.995) ha sido reportado el efecto contrario (Efecto tipo NS Non Standart). Este último efecto sin embargo, ha sido observado mediante experimentación con modelos a escala pero no ha sido validado en pruebas de buques a escala real. El efecto tipo NS en buques dotados con hélice y timones, se atribuye al mayor incremento de la fuerza del timón comparativamente con las fuerzas del casco en la medida que disminuye la profundidad; en el caso de estudio, el fenómeno está asociado a la mejor eficiencia de la bomba de agua “Pump-Jet”, debido a la resistencia añadida en el casco por efecto de la disminución de la profundidad. Los resultados de las pruebas con buque a escala real validan el excelente desempeño de esta clase de buques, cumpliendo en exceso los criterios de maniobrabilidad existentes y muestran que el diámetro de giro y otras características de maniobrabilidad mejoran con la disminución de la profundidad en buques con alta relación manga-calado. ABSTRACT The increasingly demanding requirements in terms of missions, operational and environmental constraints as well as new technologies, constantly impose challenges to naval architects to generate alternatives and asses their performance in the early stages of design. That is the case of Riverine Support Patrol Vessel (RSPV), designed and built by COTECMAR for the Colombian Navy. RSPV are riverine ships with a Beam-Draft ratio exceeding most of existing ships (B/T=9,5), mainly due to the restrictions in draft as a result of shallow water environment. The ships are equipped with azimuthal propulsion system of the “Pump-Jet” type. The peculiarities of the ship and the operational environment, characterized by tropical rivers of variable depth depending on the rain and dry seasons, as well as the lack channels and the effect of water current, make manoeuvrability and controllability fundamental to fulfill its mission; on the other hand, there are not validated mathematical models available to predict the manoeuvrability of such ships with the associated water depth effects in the early stages of design. This dissertation addresses the development of a mathematical model for shallow waters’ manoeuvrability simulation of ships with high Beam-Draft ratio and azimuthal propulsion systems type “Pump-Jet”, whose stream generates the thrust required by the ship to advance and also the steering force depending on the orientation angle, eliminating the need of rudders. The mathematical model has been validated with the results of RSPV’s full scale manoeuvring tests, through a comparison of paths, time series of state variables and other parameters taken from turning tests, such as turning diameter, tactical diameter, advance and transfer. The test plan was developed applying techniques of Design of Experiments “DOE”, in order to rationalize the number of runs in different conditions of water depth, ship speed and jet stream orientation (rudder angle). A data acquisition and processing system was developed, following the guidelines of ITTC, as part of this research effort, in order to minimize errors by environmental effects and inaccuracy in measurement instruments, The negative effects of depth on manoeuvrability parameters for conventional ships (Effect Type S: the path described by the ship during turning test increase with decrease of water depth), has been documented in the open literature; however for wide-beam ships, B/T=7,51 (Yoshimura, y otros, 1.988) and B/T=6,38 (Yasukawa, y otros, 1.995) has been reported the opposite effect (Type NS). The latter effect has been observed thru model testing but until now had not been validated with full-scale results. In ships with propellers and rudders, type NS effect is due to the fact that increment of rudder force becomes larger than hull force with decrease of water depth; in the study case, the phenomenon is associated with better efficiency of the Pump-Jet once the vessel speed becomes lower, due to hull added resistance by the effect of the decrease of water depth. The results of full scale tests validates the excellent performance of this class of ships, fulfilling the manoeuvrability criteria in excess and showing that turning diameter and other parameters in high beam-draft ratio vessels do improve with the decrease of depth.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesis propone una metodología para medir variables de impacto socio económico en la ciudad Puerto de Valparaíso, como una alternativa que permite evaluar la asignación del uso y explotación del borde costero. La ciudad de Valparaíso se formó al alero de la actividad marítima portuaria, en sus comienzos esta actividad fue el motor de desarrollo económico de la ciudad, sus habitantes mantenían una alta dependencia de ésta actividad, formando una identidad y cultura portuaria. Con la decadencia de la actividad portuaria, producto principalmente a la construcción del canal de Panamá y a la modernización de los buques de transporte aumentando su distancia franqueable1, la ciudad fue dejando su dependencia de esta actividad. Hoy en día casi la totalidad del borde costero de la ciudad está asignado a las actividades portuarias con escasa participación laboral de los habitantes de la ciudad y una alta demanda urbana por el uso del borde costero. Por otra parte, la ciudad ha presentado en la última década altos niveles de cesantía, cuestionándose la verdadera utilidad de mantener un puerto en la ciudad. La investigación de la tesis permitió dimensionar la cantidad de firmas y actividades económicas que se desarrollaban en torno a la actividad marítima portuaria en la ciudad, cuantificando los empleos que éstas otorgaban a la ciudad, los niveles de remuneraciones, los tributos a la municipalidad de la ciudad, el aporte al comercio local, entre otros. Descubriéndose hallazgos que permiten reflexionar sobre la importancia del la actividad en el desarrollo económico actual y futuro de la ciudad. También los antecedentes obtenidos permiten contribuir a la evaluación de proyectos alternativos para el uso y explotación del borde costero. La metodología utilizada también puede ser adaptada para medir los beneficios de otras ciudades puertos en el mundo. Los resultados obtenidos fueron expuestos a las autoridades gubernamentales locales, presentados en seminarios y congresos nacionales e internacionales, como en la prensa local; los más destacados son: la actividad otorga 12.727 empleos directos e indirectos que corresponden al 12% de la fuerza laboral ocupada; la actividad representa el 19% del Producto Interno Bruto de la ciudad; la actividad aporta un 21% al presupuesto municipal por concepto de recaudación de tributos y representan un 11% del presupuesto total asignado al municipio por el Estado de Chile. El sector industrial marítimo-portuario de la ciudad sigue siendo la actividad industrial más relevante en la ciudad y demanda el desarrollo de una planificación estratégica que permita vincular la actividad turística de la ciudad vecina de Viña del Mar con la actividad portuaria de Valparaíso. Para lograr tal objetivo es necesario realizar cambios en los atributos de las operaciones portuarias que permitan ofrecer productos asociados al turismo. This thesis proposes a methodology to measure the socio economic variables in the port city of Valparaiso, as an alternative to evaluate the allocation of the usage and exploitation of the coastline. The city of Valparaiso was formed to advance the port maritime activity and in the beginning this activity was the engine of economic development of the city. Its inhabitants remained highly dependent on it and formed a port identity and culture. With the decline of port activity, mainly due to the construction of the Panama Canal and the modernization of the transport vessels increasing distances, the city lost its dependence on this activity. Today almost all of the coastline of the city is assigned to port activities with very little labor participation of the inhabitants of the city and a high demand for the use of urban waterfront. Moreover, the city has shown high levels of unemployment in the past decade, questioning the true value of maintaining a port in the city. The research of this thesis provides insights into the number of firms and economic activities that were developed around the port maritime activity in the city, quantifying the jobs they gave to the city, the levels of pay, taxes to the municipality of city and the contribution to local commerce, among others. The findings discovered allow reflexions on the importance of the activity in the current and future economic development of the city. The data obtained also allows a contribution of the evaluation of alternative projects for the use and exploitation of the coastline. The methodology can also be adapted to measure the benefits of other port cities in the world. The results were presented to local government authorities, at seminars and national and international conferences, and in the local press. The most important finding are: the activity maritime port activity provides 12,727 direct and indirect jobs that are 12% of the employed labor force; activity represents which is 19% of the GDP of the city, the activity contributes 21% to the municipal budget by way of the collection of taxes and represents 11% of the total budget allocated to the municipality by the Republic of Chile. The industrial maritime port sector of the city remains the most important industrial activity in the city and demands the development of strategic planning to link the tourism in the neighboring city of Viña del Mar and to the Valparaiso port activity. To achieve this goal it is necessary to make changes to the attributes of port operations that allow the offering of products associated with tourism.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La termografía infrarroja (TI) es una técnica no invasiva y de bajo coste que permite, con el simple acto de tomar una fotografía, el registro sin contacto de la energía que irradia el cuerpo humano (Akimov & Son’kin, 2011, Merla et al., 2005, Ng et al., 2009, Costello et al., 2012, Hildebrandt et al., 2010). Esta técnica comenzó a utilizarse en el ámbito médico en los años 60, pero debido a los malos resultados como herramienta diagnóstica y la falta de protocolos estandarizados (Head & Elliot, 2002), ésta se dede utilizar en detrimento de otras técnicas más precisas a nivel diagnóstico. No obstante, las mejoras tecnológicas de la TI en los últimos años han hecho posible un resurgimiento de la misma (Jiang et al., 2005, Vainer et al., 2005, Cheng et al., 2009, Spalding et al., 2011, Skala et al., 2012), abriendo el camino a nuevas aplicaciones no sólo centradas en el uso diagnóstico. Entre las nuevas aplicaciones, destacamos las que se desarrollan en el ámbito de la actividad física y el deporte, donde recientemente se ha demostrado que los nuevos avances con imágenes de alta resolución pueden proporcionar información muy interesante sobre el complejo sistema de termorregulación humana (Hildebrandt et al., 2010). Entre las nuevas aplicaciones destacan: la cuantificación de la asimilación de la carga de trabajo físico (Čoh & Širok, 2007), la valoración de la condición física (Chudecka et al., 2010, 2012, Akimov et al., 2009, 2011, Merla et al., 2010), la prevención y seguimiento de lesiones (Hildebrandt et al., 2010, 2012, Badža et al., 2012, Gómez Carmona, 2012) e incluso la detección de agujetas (Al-Nakhli et al., 2012). Bajo estas circunstancias, se acusa cada vez más la necesidad de ampliar el conocimiento sobre los factores que influyen en la aplicación de la TI en los seres humanos, así como la descripción de la respuesta de la temperatura de la piel (TP) en condiciones normales, y bajo la influencia de los diferentes tipos de ejercicio. Por consiguiente, este estudio presenta en una primera parte una revisión bibliográfica sobre los factores que afectan al uso de la TI en los seres humanos y una propuesta de clasificación de los mismos. Hemos analizado la fiabilidad del software Termotracker, así como su reproducibilidad de la temperatura de la piel en sujetos jóvenes, sanos y con normopeso. Finalmente, se analizó la respuesta térmica de la piel antes de un entrenamiento de resistencia, velocidad y fuerza, inmediatamente después y durante un período de recuperación de 8 horas. En cuanto a la revisión bibliográfica, hemos propuesto una clasificación para organizar los factores en tres grupos principales: los factores ambientales, individuales y técnicos. El análisis y descripción de estas influencias deben representar la base de nuevas investigaciones con el fin de utilizar la TI en las mejores condiciones. En cuanto a la reproducibilidad, los resultados mostraron valores excelentes para imágenes consecutivas, aunque la reproducibilidad de la TP disminuyó ligeramente con imágenes separadas por 24 horas, sobre todo en las zonas con valores más fríos (es decir, zonas distales y articulaciones). Las asimetrías térmicas (que normalmente se utilizan para seguir la evolución de zonas sobrecargadas o lesionadas) también mostraron excelentes resultados pero, en este caso, con mejores valores para las articulaciones y el zonas centrales (es decir, rodillas, tobillos, dorsales y pectorales) que las Zonas de Interés (ZDI) con valores medios más calientes (como los muslos e isquiotibiales). Los resultados de fiabilidad del software Termotracker fueron excelentes en todas las condiciones y parámetros. En el caso del estudio sobre los efectos de los entrenamientos de la velocidad resistencia y fuerza en la TP, los resultados muestran respuestas específicas según el tipo de entrenamiento, zona de interés, el momento de la evaluación y la función de las zonas analizadas. Los resultados mostraron que la mayoría de las ZDI musculares se mantuvieron significativamente más calientes 8 horas después del entrenamiento, lo que indica que el efecto del ejercicio sobre la TP perdura por lo menos 8 horas en la mayoría de zonas analizadas. La TI podría ser útil para cuantificar la asimilación y recuperación física después de una carga física de trabajo. Estos resultados podrían ser muy útiles para entender mejor el complejo sistema de termorregulación humano, y por lo tanto, para utilizar la TI de una manera más objetiva, precisa y profesional con visos a mejorar las nuevas aplicaciones termográficas en el sector de la actividad física y el deporte Infrared Thermography (IRT) is a safe, non-invasive and low-cost technique that allows the rapid and non-contact recording of the irradiated energy released from the body (Akimov & Son’kin, 2011; Merla et al., 2005; Ng et al., 2009; Costello et al., 2012; Hildebrandt et al., 2010). It has been used since the early 1960’s, but due to poor results as diagnostic tool and a lack of methodological standards and quality assurance (Head et al., 2002), it was rejected from the medical field. Nevertheless, the technological improvements of IRT in the last years have made possible a resurgence of this technique (Jiang et al., 2005; Vainer et al., 2005; Cheng et al., 2009; Spalding et al., 2011; Skala et al., 2012), paving the way to new applications not only focused on the diagnose usages. Among the new applications, we highlighted those in physical activity and sport fields, where it has been recently proven that a high resolution thermal images can provide us with interesting information about the complex thermoregulation system of the body (Hildebrandt et al., 2010), information than can be used as: training workload quantification (Čoh & Širok, 2007), fitness and performance conditions (Chudecka et al., 2010, 2012; Akimov et al., 2009, 2011; Merla et al., 2010; Arfaoui et al., 2012), prevention and monitoring of injuries (Hildebrandt et al., 2010, 2012; Badža et al., 2012, Gómez Carmona, 2012) and even detection of Delayed Onset Muscle Soreness – DOMS- (Al-Nakhli et al., 2012). Under this context, there is a relevant necessity to broaden the knowledge about factors influencing the application of IRT on humans, and to better explore and describe the thermal response of Skin Temperature (Tsk) in normal conditions, and under the influence of different types of exercise. Consequently, this study presents a literature review about factors affecting the application of IRT on human beings and a classification proposal about them. We analysed the reliability of the software Termotracker®, and also its reproducibility of Tsk on young, healthy and normal weight subjects. Finally, we examined the Tsk thermal response before an endurance, speed and strength training, immediately after and during an 8-hour recovery period. Concerning the literature review, we proposed a classification to organise the factors into three main groups: environmental, individual and technical factors. Thus, better exploring and describing these influence factors should represent the basis of further investigations in order to use IRT in the best and optimal conditions to improve its accuracy and results. Regarding the reproducibility results, the outcomes showed excellent values for consecutive images, but the reproducibility of Tsk slightly decreased with time, above all in the colder Regions of Interest (ROI) (i.e. distal and joint areas). The side-to-side differences (ΔT) (normally used to follow the evolution of some injured or overloaded ROI) also showed highly accurate results, but in this case with better values for joints and central ROI (i.e. Knee, Ankles, Dorsal and Pectoral) than the hottest muscle ROI (as Thigh or Hamstrings). The reliability results of the IRT software Termotracker® were excellent in all conditions and parameters. In the part of the study about the effects on Tsk of aerobic, speed and strength training, the results of Tsk demonstrated specific responses depending on the type of training, ROI, moment of the assessment and the function of the considered ROI. The results showed that most of muscular ROI maintained warmer significant Tsk 8 hours after the training, indicating that the effect of exercise on Tsk last at least 8 hours in most of ROI, as well as IRT could help to quantify the recovery status of the athlete as workload assimilation indicator. Those results could be very useful to better understand the complex skin thermoregulation behaviour, and therefore, to use IRT in a more objective, accurate and professional way to improve the new IRT applications for the physical activity and sport sector.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Es importante disponer de una herramienta con la cual diseñar dispositivos de uso industrial y comercial que trabajen con metales líquidos (fuentes de neutrones de alta intensidad, núcleos de sistemas de transmutación nuclear, reactores de fisión de nueva generación, instalaciones de irradiación de materiales o reactores de fusión nuclear). Los códigos CFD (Computational Fluid Dynamics) son una de esas herramientas, y la manera de llevar a cabo su validación es la simulación de experimentos existentes. La turbulencia y la presencia de dos o más fases, son los dos principales problemas a los que tiene que hacer frente un código CFD. La mayoría de los modelos de turbulencia presentes en los códigos CFD se basan en considerar la proporcionalidad directa entre el transporte de cantidad de movimiento turbulento y el transporte turbulento de calor. Precisamente, el coeficiente de difusión del calor turbulento, se asume que sea proporcional a la viscosidad turbulenta a través de una constante empírica, llamada número de Prandtl turbulento. El valor de este número, en los códigos comerciales está entre 0,9 y 0,85 dependiendo del modelo de turbulencia, lo cual significa que en los códigos se asume que el transporte turbulento tanto de cantidad de movimiento como de calor, son prácticamente equivalentes. Esta asunción no es cierta en los flujos de metales líquidos, donde se demuestra que la transmisión de calor por turbulencia es pequeña frente a la transmisión de calor molecular. La solución pasa por aumentar el número de Prandtl turbulento, o abandonar la analogía de Reynolds, en el tratamiento de la turbulencia. Por otro lado, en los metales líquidos la capa límite térmica es más ancha que la de velocidad, y las funciones de pared incluidas en los códigos no satisfacen adecuadamente los flujos turbulentos de los fluidos con bajo número de Prantdl (los metales líquidos). Sí serían adecuados, si el mallado es tal, que la celda más cercana a la pared, está dentro de la subcapa laminar, en la cual la propiedad dominante es la conductividad molecular. En la simulación de flujo multifase los códigos se encuentran con una serie de dificultades, que en el caso de que las densidades de los fluidos que intervienen sean muy diferentes entre sí (como ocurre con los metales líquidos y los gases), serán aún mayores. La modelización de la interfase gas metal líquido, así como el encontrar una correlación válida para los coeficientes de resistencia y sustentación para el movimiento de las burbujas en el seno del metal líquido, son dos de los principales retos en la simulación de este tipo de flujos. Las dificultades no se limitan sólo a la simulación mediante CFD, las medidas experimentales de velocidad de las burbujas y del metal líquido también son complicadas. Hay parámetros que no se pueden definir bien: la trayectoria y la forma de las burbujas entre ellos. En el campo de aplicación industrial de los metales líquidos, los altos valores de los coeficientes de expansión volumétrica y de conductividad térmica hacen que estos fluidos sean muy atractivos en la refrigeración por convección libre en dispositivos de alta densidad de potencia. Tomando como base uno de los diseños de ADS (Accelerator Driven System), y teniendo en cuenta la dificultad que conlleva el uso de múltiples modelos físicos, los cálculos realizados muestran cómo, en caso de fallo eléctrico, la operación de la instalación puede continuar de forma segura. Para la validación de los códigos CFD en su uso como herramienta de diseño, uno de los fenómenos donde cuantitativamente más dificultades encuentran los códigos es en los que aparecen en la modelización de las superficies libres. Un buen ajuste de los modelos multifase y de turbulencia es imprescindible en este tipo de simulaciones. Efectivamente, en la instalación de irradiación de materiales IFMIF, la formación de ondas en la superficie libre del flujo de Litio, es un fenómeno que hay que tratar de evitar, y además se requiere predecir las temperaturas, para ver si hay peligro de ebullición del metal líquido. La simulación llevada a cabo se enfoca al análisis termohidráulico. Variando la velocidad de inyección de Litio desde 10 hasta 20 m/s, se comprueba que las temperaturas máximas quedan alejadas del punto de ebullición del Litio, debido al aumento de presión producido por la fuerza centrífuga. Una de las cuestiones más críticas que se presentan en las fuentes de neutrones sería la refrigeración de la ventana metálica sobre la que incide el haz de protones. La simulación de experimentos como MEGAPIE y TS-1, permite la “visualización” de recirculación en el flujo, de los puntos de estancamiento, de los puntos calientes, etc, y da una fotografía de las zonas críticas del diseño.