990 resultados para niveles de AF
Resumo:
Objetivo: Analizar la relación entre el nivel de actividad física registrada y el percibido en población con discapacidad física mediante acelerometría y cuestionario, así como estudiar las diferencias evaluadas con ambos instrumentos según nivel de actividad física personal y otras variables como el género o uso de la silla de ruedas. Metodología: La muestra la componen 37 sujetos con discapacidad física (28 hombres y 9 mujeres), con una edad media de 38 ±10,9 años. Se dividió a la muestra en tres grupos en función del número de horas de actividad física semanal: sedentarios (S, n = 8), practicantes habituales (PH, n = 13) y practicantes de alto rendimiento (AR, n = 16). Los sujetos llevaron un monitor metabólico de actividad física SenseWear Pro Armband (SWA) durante siete días, las 24 horas. Una vez retirado, se administró el cuestionario Physical Activity Scale for Individuals with Physical Disabilities (Escala de Actividad Física para Personas con Discapacidades Físicas) para medir la actividad física percibida, recogiéndose también datos antropo-métricos y personales. Resultados: La correlación de Pearson (n = 37) mostró relación entre el PASIPD y las variables METS promedio (r=0,52; p<0,01), gasto energético en activo (r=0,35; p<0,05) y duración de la actividad física (r=0,53; p<0,01). El PASIPD (en MET hr/día) arrojó los siguientes valores según grupo: S 8,55 ±4,35; PH 12,99 ±5,88; AR 27,41 ±19,66. Según grupos, el SWA registró, entre otras variables, los METs promedio (S 1,35 ±0,26; PH 1,46 ±0,19; AR 1,70 ±0,18) y la duración de la actividad física (S 10:33:07 ±07:47:42; PH 12:59:32 ±07:21:38; AR 22:22:26 ±07:58:58). El ANOVA mostró diferencias (p<0,05) entre grupos para el PASIPD y las citadas variables del SWA. Conclusiones: Este estudio confirma la idoneidad de utilizar de forma combinada un cuestionario y un monitor metabólico de actividad física en población con discapacidad física para la evaluación del nivel de actividad física en esta población
Resumo:
El ejercicio físico regular disminuye los niveles de depresión durante el embarazo. Ensayo clínico aleatorizado
Resumo:
La perforación de túneles constituye una tarea clave en la mejora de las comunicaciones y en el desarrollo de la industria minera. Debido a su complejidad y al alto número de factores que influyen en su desdarrollo, este tipo de proyectos han sido considerados tradicionalmente obras de alto e indefinido riesgo. La difusión del llamado Nuevo Método Austriaco, ha supuesto un gran impulso en la tecnificación de este tipo de proyectos. Paradójicamente, aún en la actualidad, el problema de los márgenes de seguridad en el cálculo se suele reducir en la práctica a la evaluación de un único coeficiente cuya definición no satisface los criterios actualmente aceptados en este campo. En este trabajo se ha pretendido, de acuerdo a las tendencias actuales, introducir las técnicas de Fiabilidad Estructural en el modelo de cálculo del sostenimiento propuesto por el NATM. En el desarrollo se ha tomado como punto de partida el método de cálculo de las Curvas Características, para lo cual se han formulado las correspondientes leyes de comportamiento del terreno y del sostenimiento. Se han establecido 3 Estados Límite de referencia y se ha seleccionado un conjunto de variables básicas representativas del problema estudiado. Finalmente la aplicación de los conceptos de Fiabilidad Estructural en Nivel II junto con el algoritmo de estimación puntual de E. Rosenblueth, han permitido el desarrollo de modelos de cálculo que permiten la determinación de los Indices de Fiabilidad Estructural respecto a los 3 Estados Límite considerados. El esquema descrito ha sido implementado en programas de cálculo. Estos programas de cálculo han sido utilizados en el estudio de diversos ejemplos correspondientes a situaciones reales de proyecto y se han desarrollado diversos estudios paramétricos. Todo ello ha permitido comprobar la validez del procedimiento desarrollado y llegar al establecimiento de un propuesta de calibración de factores parciales de ponderación que podrían ser incorporados en recomendaciones prácticas de cálculo.
Resumo:
En general la inclusión de fibra en piensos de lechones se asocia con una reducción del consumo y de los rendimientos productivos (Wellock et al., 2008; Montagne et al., 2012). Sin embargo, diversos autores indican que la inclusión de cantidades moderadas de ciertas fuentes de fibra en el pienso podría mejorar los rendimientos productivos en lechones recién destetados (Mateos et al., 2006; Hermes et al., 2009). De hecho, Bach Knudsen et al. (2008) y Wellock et al. (2008) observaron que la inclusión de fibra en el pienso disminuyó la incidencia de diarreas (ID). Pluske et al. (1998) encontraron una relación positiva entre la ID y la inclusión de fibra soluble en el pienso. Sin embargo es frecuente incluir niveles de hasta el 4-5% de pulpa de remolacha en piensos comerciales para reducir el ID. La fibra soluble de la dieta podría actuar como un substrato fermentativo reduciendo el pH y alterando el perfil microbiano. Por otro lado, la fibra insoluble podría estimular el funcionamiento del tracto gastrointestinal y mejorar la sanidad de los lechones, reduciendo la actividad de bacterias perjudiciales. La respuesta a la inclusión de fibra en piensos para lechones puede estar condicionada por factores tales como el tipo y el nivel de fibra así como las condiciones higio-sanitarias de los lechones. En particular, la limpieza y desinfección de la nave son consideradas factores claves para limitar la incidencia de diarreas post-destete (Madec et al., 1998). El objetivo del presente trabajo fue evaluar el crecimiento y la incidencia de diarreas en lechones criados bajo condiciones higio-sanitarias adecuadas (naves limpias y desinfectadas) o inadecuadas (naves sucias) alimentados con dietas que diferían en el tipo y nivel de fibra utilizado.
Resumo:
El programa "ANISET" (Análisis de Niveles de Seguridad en Túneles) desarrollado por SINEX, S.A. constituye una herramienta de cálculo orientada a la realización de estudios de Fiabilidad de las estructuras de sostenimiento de túneles y galerías subterráneas. El desarrollo del Nuevo Método Austriaco de construcción de túneles (NATM) ha supuesto un gran avance de tecnificación en un tipo de obras tradicionalmente poco exigentes en lo que al cálculo de refiere. La aplicación de esta nueva metodología ha propiciado un gran desarrollo en la aplicación de métodos numéricos y de nuevos modelos de comportamiento para el estudio del problema de interacción terreno-sostenimiento. Sin embargo, la investigación en torno a procedimientos adecuados para la introducción de la seguridad en los cálculos no ha sido tan intensa, lo que ha creado un estado de cierta confusión entorno a este tema. Con este trabajo, se ha pretendido impulsar un avance en este terreno. Para ello se ha considerado que el mejor método era la aplicación de las técnicas de Fiabilidad Estructural en Nivel U, como de hecho se está realizando en muchos otros terrenos en el ámbito del cálculo estructural. Para realizar el programa, se ha tomado como base el modelo mecánico bidimensional desarrollado por P. Fritz (1984) que básicamente coincide con el aplicado en el programa SOSTENIM. En este modelo el terreno se considera un medio de comportamiento elastoplástico, de acuerdo al criterio de Mohr-Coulomb, sobre el que se realiza una excavación de sección circular. El sostenimiento se ha modelado teniendo en cuenta las aportaciones del hormigón proyectado, del acero de las armaduras y de las cerchas metálicas habitualmente utilizadas. Los Estados Límite considerados en el programa, para los cuales se han desarrollado las correspondientes funciones de fallo, son los siguientes: - Agotamiento de la capacidad resistente del terreno. Caracterizado por un radio de plastificación excesivo del terreno. - Agotamiento de la estructura, producido por la aparición de deformaciones superiores al máximo admisible por los materiales del sostenimiento. - Convergencia excesiva: el desplazamiento radial en el sostenimiento supera un máximo fijado por el proyectista en base a criterios prácticos de utilización, etc. El tratamiento de las incertidumbres para la estimación de los correspondientes índices de fiabilidad y probabilidades de fallo respecto a los 3 estados límite mencionados, responde básicamente al esquema propuesto por E. Rosenblueth (1981). Se espera que el enfoque eminentemente práctico dado al trabajo, y la sencillez de manejo del programa, permitan una fácil y útil aplicación del mismo.
Resumo:
Este informe pretende, en primer lugar, caracterizar el comportamiento de las variables básicas del problema que controlan la respuesta del sistema; dicho de otro modo, se busca identificar qué variables se comportan como carga y cuales como resistencia en los distintos estados límites. En segundo lugar el informe pretende realizar un análisis comparativo de los niveles de seguridad obtenidos por métodos deterministas y probabilistas. En cuarto lugar, estudiar el grado de influencia de la incertidumbre de las vaiables en los niveles de seguridad. Y, por último, analizar que Estados Límites son mas desfavorables. Para ello, con ayuda del programa "ANISET", se han analizado 21 casos que corresponden al estudio de la variación de la respuesta del sistema al modificar los valores medios y coeficientes de variación de las siete variables siguientes: módulo de elasticidad, peso específico, cohesión, ángulo de rozamiento, convergencia inicial, resistencia del hormigón y espesor. Los valores máximos se han mantenido constantes para todos los casos estudiados.
Resumo:
La presencia de niveles de caolín rellenando las diaclasas y en zonas alteradas de la parte superior de macizos constituidos por terrenos metamórficos y graníticos en Galicia, tiene una considerable importancia en la práctica ingenieril para afrontar los proyectos de estabilidad, drenaje y diseño en los taludes de las autovías y carreteras. A partir de las observaciones de campo y reconocimientos geológicos efectuados durante la excavación de varios desmontes de la autovía A-52, de Ourense a Pontevedra, se han podido clasificar las diferentes formas en las que se distribuye este tipo de arcilla y definir en qué manera condiciona el drenaje y la estabilidad de los taludes.
Resumo:
En este trabajo se desarrolla un modelo teórico que trata de formalizar el efecto de la existencia de determinados costes de transacción sobre el diseño de un contrato óptimo entre una Administración Pública (el principal en el contrato) y un agente para la prestación de un determinado servicio público. El modelo que se plantea es aplicable a cualquier tipo de contrato para la gestión de un servicio público, siempre que utilice un mecanismo de remuneración al contratista basado en el nivel de calidad obtenido. Con estas premisas, el problema que se estudia es el de alcanzar niveles óptimos en la calidad del servicio y en los costes de transacción, en el marco de un contrato incompleto, y tomando como objetivo la maximización de una función de bienestar social. Los resultados alcanzados en el modelo muestran que el nivel óptimo de los costes de transacción ex ante (es decir, previos a la firma del contrato) viene determinado por el parámetro que representa la actitud ante el riesgo del contratista: a mayor aversión al riesgo de éste, mayores serán los costes de transacción y menor la varianza de los costes de producción del servicio, en la situación óptima. Por otra parte, los niveles de calidad óptimos y el peso de la remuneración al contratista basada en los niveles de calidad, serán mayores cuanto más elevados sean los beneficios sociales marginales de cada una de las dimensiones de la calidad del servicio, y disminuirán al aumentar el coste marginal de los recursos públicos. Los costes de transacción ex post , derivados de la necesidad de medir y controlar los niveles de calidad alcanzados por el contratista, determinan en el modelo las dimensiones de la calidad en que debe centrarse el sistema de remuneración del contratista, eliminando aquellas en que no está justificado establecer un sistema de medición y control, lo que reduce el nivel total de calidad alcanzado respecto al que resultaría en condiciones de costes de transacción nulos
Resumo:
De entre los diversos grupos de contaminantes que pueden ser dañinos para ecosistemas acuáticos, sobresalen en los últimos años los biocidas utilizados como principio activo en recubrimientos antifouling ó pinturas anti-incrustantes para cascos de barcos y todo tipo de equipamiento sumergido ó en contacto con agua. Estos recubrimientos se aplican como sistema de protección para combatir la formación y asentamiento de comunidades bioincrustantes (fouling) frente a superficies expuestas al agua, también tienen como finalidad proteger frente a la corrosión de tipo químico y biológico. Normalmente estas pinturas anti-incrustantes son aplicadas en embarcaciones comerciales y de recreo, plataformas petrolíferas, tuberías submarinas, compuertas de presas, instalaciones destinadas a acuicultura, entre otro equipamiento. La utilización de biocidas en la formulación de pinturas anti-incrustantes para barcos ha sido propuesta por muchos investigadores como la aplicación de más impacto para los ecosistemas marinos, debido al intenso tráfico marítimo mundial que provoca la difusión de biocidas contaminantes en los mares, sobre todo en zonas costeras, bahías y puertos que es donde se magnifica el problema. Los llamados recubrimientos antifouling de segunda generación fueron los primeros que emplearon el tributilestaño (TBT) como principio activo en su formulación, a pesar de su gran eficacia y amplia utilización, al cabo del tiempo se ha demostrado su alta toxicidad y persistencia; por lo que existe una gran actividad investigadora en la búsqueda de alternativas asimismo eficientes pero más respetuosas con el medio marino. En este trabajo se pretende comparar los efectos para ecosistemas marinos del TBT y cinco biocidas como son dibutilestaño dicloruro, diuron (diclorofenil dimetil urea), piritionato de Zn ó Zn omadine, óxido de cobre (I) y DCOIT (Dicloro-2-n-octil-4-isotiazol-3-ona). Estos biocidas se han seleccionado en función de su naturaleza química diferenciada, distintas solubilidades en agua, eficacia, ecotoxicidad, persistencia y bioacumulación fundamentalmente. Para proceder a la clasificación del riesgo para ecosistema marino de los biocidas mencionados, nos valdremos de dos metodologías, una será la evaluación de unos índices de riesgo de biocidas para ecosistemas acuáticos con el fin de realizar una clasificación prospectiva de los mismos, basada en criterios PBT (Persistencia, Bioacumulación y Toxicidad para organismos acuáticos) y otra será una evaluación de la razón de la EXPOSICIÓN, valorada como PEC (Predictive Environmental Concentration) con relación a los EFECTOS originados, valorados como PNEC (Predicted No-Effect Concentration). Para cuantificar PEC nos valdremos de modelizaciones para ecosistemas marinos como MAMPEC (Marine Antifoulant Model to Predict Environmental Concentrations). Para cuantificar PNEC se hace uso de bioensayos a corto o largo plazo en organismos acuáticos. De esta manera podremos agrupar los biocidas en diversas categorías de riesgo y así poder decidir cuando su impacto medioambiental es asumible ó no asumible, alternativas posibles y en todo caso que decisiones se deben tomar al respecto.
Resumo:
En esta comunicación se muestran los resultados experimentales del índice de reducción acústica, R, de las ventanas con y sin sistemas de ventilación natural permanente en función de la frecuencia y se calculan los niveles de inmisión acústica en recintos habitables con diferentes composiciones de fachadas y distintos niveles de ruido exterior.
Resumo:
poscosecha de precisión: niveles de información
Resumo:
La pérdida de bosques en la Tierra, principalmente en ecosistemas amazónicos, es un factor clave en el proceso del cambio climático. Para revertir esta situación, los mecanismos REDD (Reducing Emission from Deforestation and forest Degradation) están permitiendo la implementación de actividades de protección del clima a través de la reducción de emisiones por deforestación evitada, según los esquemas previstos en el Protocolo de Kioto. El factor técnico más crítico en un proyecto REDD es la determinación de la línea de referencia de emisiones, que define la expectativa futura sobre las emisiones de CO2 de origen forestal en ausencia de esfuerzos adicionales obtenidos como consecuencia de la implementación del programa REDD para frenar este tipo de emisiones. La zona del estudio se ubica en la región de San Martín (Perú), provincia cubierta fundamentalmente por bosques tropicales cuyas tasas de deforestación son de las más altas de la cuenca amazónica. En las últimas décadas del siglo XX, la región empezó un acelerado proceso de deforestación consecuencia de la integración vial con el resto del país y la rápida inmigración desde zonas rurales en busca de nuevas tierras agrícolas. Desde el punto de vista de la investigación llevada a cabo en la tesis doctoral, se pueden destacar dos líneas: 1. El estudio multitemporal mediante imágenes de satélite Landsat 5/TM con el propósito de calcular las pérdidas de bosque entre períodos. El estudio multitemporal se llevó a cabo en el período 1998-2011 utilizando imágenes Landsat 5/TM, aplicando la metodología de Análisis de Mezclas Espectrales (Spectral Mixtures Analysis), que permite descomponer la reflectancia de cada píxel de la imagen en diferentes fracciones de mezcla espectral. En este proceso, las etapas más críticas son el establecimiento de los espectros puros o endemembers y la recopilación de librerías espectrales adecuadas, en este caso de bosques tropicales, que permitan reducir la incertidumbre de los procesos. Como resultado de la investigación se ha conseguido elaborar la línea de referencia de emisiones histórica, para el período de estudio, teniendo en cuenta tanto los procesos de deforestación como de degradación forestal. 2. Relacionar los resultados de pérdida de bosque con factores de causalidad directos e indirectos. La determinación de los procesos de cambio de cobertura forestal utilizando técnicas geoespaciales permite relacionar, de manera significativa, información de los indicadores causales de dichos procesos. De igual manera, se pueden estimar escenarios futuros de deforestación y degradación de acuerdo al análisis de la evolución de dichos vectores, teniendo en cuenta otros factores indirectos o subyacentes, como pueden ser los económicos, sociales, demográficos y medioambientales. La identificación de los agentes subyacentes o indirectos es una tarea más compleja que la de los factores endógenos o directos. Por un lado, las relaciones causa – efecto son mucho más difusas; y, por otro, los efectos pueden estar determinados por fenómenos más amplios, consecuencia de superposición o acumulación de diferentes causas. A partir de los resultados de pérdida de bosque obtenidos mediante la utilización de imágenes Landsat 5/TM, se investigaron los criterios de condicionamiento directos e indirectos que podrían haber influido en la deforestación y degradación forestal en ese período. Para ello, se estudiaron las series temporales, para las mismas fechas, de 9 factores directos (infraestructuras, hidrografía, temperatura, etc.) y 196 factores indirectos (económicos, sociales, demográficos y ambientales, etc.) con, en principio, un alto potencial de causalidad. Finalmente se ha analizado la predisposición de cada factor con la ocurrencia de deforestación y degradación forestal por correlación estadística de las series temporales obtenidas. ABSTRACT Forests loss on Earth, mainly in Amazonian ecosystems, is a key factor in the process of climate change. To reverse this situation, the REDD (Reducing Emission from Deforestation and forest Degradation) are allowing the implementation of climate protection activities through reducing emissions from avoided deforestation, according to the schemes under the Kyoto Protocol. Also, the baseline emissions in a REDD project defines a future expectation on CO2 emissions from deforestation and forest degradation in the absence of additional efforts as a result of REDD in order to stop these emissions. The study area is located in the region of San Martín (Peru), province mainly covered by tropical forests whose deforestation rates are the highest in the Amazon basin. In the last decades of the twentieth century, the region began an accelerated process of deforestation due to road integration with the rest of the country and the rapid migration from rural areas for searching of new farmland. From the point of view of research in the thesis, we can highlight two lines: 1. The multitemporal study using Landsat 5/TM satellite images in order to calculate the forest loss between periods. The multitemporal study was developed in the period 1998-2011 using Landsat 5/TM, applying the methodology of Spectral Mixture Analysis, which allows decomposing the reflectance of each pixel of the image in different fractions of mixture spectral. In this process, the most critical step is the establishment of pure spectra or endemembers spectra, and the collecting of appropriate spectral libraries, in this case of tropical forests, to reduce the uncertainty of the process. As a result of research has succeeded in developing the baseline emissions for the period of study, taking into account both deforestation and forest degradation. 2. Relate the results of forest loss with direct and indirect causation factors. Determining the processes of change in forest cover using geospatial technologies allows relating, significantly, information of the causal indicators in these processes. Similarly, future deforestation and forest degradation scenarios can be estimated according to the analysis of the evolution of these drivers, taking into account other indirect or underlying factors, such as economic, social, demographic and environmental. Identifying the underlying or indirect agents is more complex than endogenous or direct factors. On the one hand, cause - effect relationships are much more diffuse; and, second, the effects may be determined by broader phenomena, due to superposition or accumulation of different causes. From the results of forest loss obtained using Landsat 5/TM, the criteria of direct and indirect conditioning that might have contributed to deforestation and forest degradation in that period were investigated. For this purpose, temporal series, for the same dates, 9 direct factors (infrastructure, hydrography, temperature, etc.) and 196 underlying factors (economic, social, demographic and environmental) with, in principle, a high potential of causality. Finally it was analyzed the predisposition of each factor to the occurrence of deforestation and forest degradation by statistical correlation of the obtained temporal series.
Resumo:
En el trabajo se realiza un repaso de los diferentes tipos de planificación, programación y periodización en el entrenamiento de fuerza, así como las diferentes metodologías existentes para el desarrollo de la misma en sujetos con experiencia en el entrenamiento con cargas. También se analizan los diferentes tipos de medición de la fuerza máxima y la composición corporal del sujeto durante el programa de entrenamiento. El objetivo fue conseguir un incremento de los niveles de fuerza un sujeto mediante un programa de entrenamiento personal, incrementando masa muscular en un 2,5% y manteniendo los niveles de masa grasa.
Resumo:
Haft. 2 (1878)
Resumo:
Haft. 21 (1894-1895)