746 resultados para Cuantificación de la carga


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las Enfermedades CardioVasculares son la principal causa de muerte en el mundo. Los Factores de Riesgo, ayudan a incrementar la enfermedad, como por ejemplo: Diabetes, HTA, dislipemia, Tabaquismo y el Sedentarismo. Como Profesores en Educación Física, es en la temática que más debemos participar activamente, modificando y creando en el paciente de RHCV, conciencia de Prevención e introducción de hábitos saludables, y la regularidad de la Actividad Física a la vida cotidiana, pudiendo descender significativamente los riesgos y eventos de la ECV. De acuerdo a los informes de la OMS, expresan que uno de los flagelos queprovocan una situación crítica en la vida de los habitantes del mundo, es el SEDENTARISMO. Al cual, lo podemos definir de manera muy sencilla como "una forma de vida con poco movimiento". En nuestro espacio institucional, privado como público, de acuerdo a nuestra formación y decisión profesional, tenemos como objetivo general, mejorar la Calidad de Vida, delineando metódicamente, las acciones necesarias para que se incorporen, junto con la actividad física, hábitos higiénicos y alimenticios, siendo herramientas claves para combatir la vida sedentaria. El movimiento, ayuda a incrementar y mantener la Capacidad Funcional. Utilizamos metodología propia de nuestra formación, más conocimientosnuevos que diversifican y amplían la misma, construyendo parte del campo, hasta ahora poco conocido y reconocido de la Educación Física. La ausencia de actividad es un factor importante que contribuye a alimentar el campo de las enfermedades

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta exposición pretende ser una introducción al estudio de un amplio, complejo y dinámico conjunto de nociones, técnicas y prácticas sociales, que gira en torno a la blogosfera, “un vigoroso subespacio de comunicación en Internet”, tal como lo denomina Sáez Vacas en esta misma revista. El objetivo no es tanto ser exhaustivo en el tratamiento, como dar a conocer al lector los distintos conceptos y fenómenos involucrados en la génesis de este peculiar universo, cuyo origen podemos situar en un metafórico Blog Bang. Hablaremos de los blogs (weblogs o bitácoras), su origen, caracterización, clasificación y cuantificación, de la tecnología que los rodea y de conceptos relacionados, tales como los wikis, el socialware, la blogocultura y la web semántica. This essay is designed as an introduction to the study of a broad, complex and dynamic set of notions, techniques and social practices revolving around the blogosphere –“an intense communication subspace on the Internet”, as defined by Saéz Vacas in this magazine. The aim of this article is not to exhaustively cover the topic, but rather, to introduce the reader to the different concepts and phenomena involved in the genesis of this peculiar universe, whose origin lies in the metaphoric Blog Bang. We will touch on blogs (weblogs and bitcores), their origin, nature, classification and quantification, the technology that surrounds them, and other related concepts like wikis, socialware, blogculture and web semantics.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se plantea la posible demanda en un futuro del transporte de grandes plataformas petrolíferas semisumergibles de más de 70.000 t de peso, para perforaciones a más de 10.000 pies de profundidad. Estudia la estabilidad de buques Heavy Lift Carrier con mangas atípicas, capaces de transportar estas cargas, y en algunos casos sobresaliendo por sus amuras. Para esto se: 1. Estudia y genera posibles carenas, su compartimentación y lastre para la inmersión o emersión de la cubierta de intemperie, a más de 10 m de profundidad para tomar o dejar la carga, optimizando el proceso. 2. Analiza la estabilidad del buque tanto en inmersión/emersión y navegación, con máximas cargas y con altos centros de gravedad, y establece ábacos de estabilidad límite en función de los parámetros del buque. 3. Plantea la corrección de estabilidad excesiva del buque en condiciones de navegación para evitar las excesivas aceleraciones. Los resultados obtenidos aportan ábacos que permiten, en función de los parámetros carga a transportar (Zg max) - Peso Carga), elegir el buque más adecuado, capaz de efectuar la inmersión, emersión, y navegación, y plantea acciones futuras de investigación. ABSTRACT This work raises the potential demand in the future, to transport large semisubmersible oil rigs over 70,000 tonnes of weight for drilling to 10,000 feet deep. Study vessel stability Heavy Lift Carrier with atypical breadths capable of carrying these burdens, and in some cases standing out for their bows. 1. Examines possible hulls, their partitioning and ballast for immersion or emersion of the weather deck, more than 10 m deep to take –loading (lifting) - or leave (off- loading). 2. Analyzes the stability of the vessel both immersion / emersion and navigation, with maximum loads with high centers of gravity and stability limit states abacus according to the parameters of the ship. 3. Correction raises the stability of the ship over navigation to prevent excessive accelerations. The results allow, in terms of cargo transport parameters (Zg max) - Weight Load), choosing the most suitable vessel capable of carrying out the immersion, emersion, and navigation, and suggests future research activities.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El tema sobre el que trata este proyecto es un estudio para la instalación de un suelo radiante y unas placas solares para producir A.C.S. en una vivienda unifamiliar situada en Ciudad Rodrigo, en la provincia de Salamanca. Debido a la nueva normativa del CTE, se debe instalar una forma de energía alternativa en las edificaciones de construcción reciente, eligiendo para este caso específico los paneles solares térmicos. Se va a desarrollar el estudio de las instalaciones del suelo radiante y de los paneles solares., calculando la carga térmica necesaria de la vivienda, la demanda de A.C.S. y la energía necesaria para obtenerla. Además se calculala energía obtenida por las placas y el ahorro aportado por estas. Se valorarán, los diferentes costes de ambas instalaciones para elaborar un presupuesto aproximado, teniendo en cuenta el coste de los materiales empleados. También, se obtendrá el ahorro obtenido con los paneles solares y el tiempo necesario para amortizar la inversión.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Directiva 2003/10/CE del Parlamento Europeo y del Consejo, del 6 de febrero de 2003, específica con arreglo al apartado 1 del artículo 16 de la Directiva 89/391/CEE las disposiciones mínimas de seguridad y de salud relativas a la exposición de los trabajadores a los riesgos derivados de los agentes físicos (ruido). En la industria musical, y en concreto en los músicos de orquesta, una exposición de más de ocho horas al día a un nivel de presión sonora de 80dB(A) o más es algo muy común. Esta situación puede causar a los trabajadores daños auditivos como la hiperacusia, hipoacusia, tinitus o ruptura de la membrana basilar entre otros. Esto significa que deben tomarse medidas para implementar las regulaciones de la forma más razonable posible para que la interpretación del músico, la dinámica y el concepto musical que se quiere transmitir al público se vea lo menos afectada posible. Para reducir la carga auditiva de los músicos de orquesta frente a fuertes impactos sonoros provenientes de los instrumentos vecinos, se está investigando sobre el uso de unos paneles acústicos que colocados en puntos estratégicos de la orquesta pueden llegar a reducir el impacto sonoro sobre el oído hasta 20dB. Los instrumentos de viento metal y de percusión son los responsables de la mayor emisión de presión sonora. Para proteger el oído de los músicos frente a estos impactos, se colocan los paneles en forma de barrera entre dichos instrumentos y los músicos colocados frente a ellos. De esta forma se protege el oído de los músicos más afectados. Para ver el efecto práctico que producen estos paneles en un conjunto orquestal, se realizan varias grabaciones en los ensayos y conciertos de varias orquestas. Los micrófonos se sitúan a la altura del oído y a una distancia de no más de 10cm de la oreja de varios de los músicos más afectados y de los músicos responsables de la fuerte emisión sonora. De este modo se puede hacer una comparación de los niveles de presión sonora que percibe cada músico y evaluar las diferencias de nivel existentes entre ambos. Así mismo se utilizan configuraciones variables de los paneles para comparar las diferencias de presión sonora que existen entre las distintas posibilidades de colocarlos y decidir así sobre la mejor ubicación y configuración de los mismos. A continuación, una vez obtenidos las muestras de audio y los diferentes archivos de datos medidos con un analizador de audio en distintas posiciones de la orquesta, todo ello se calibra y analiza utilizando un programa desarrollado en Matlab, para evaluar el efecto de los paneles sobre la percepción auditiva de los músicos, haciendo especial hincapié en el análisis de las diferencias de nivel de presión sonora (SPL). Mediante el cálculo de la envolvente de las diferencias de nivel, se evalúa de un modo estadístico el efecto de atenuación de los paneles acústicos en los músicos de orquesta. El método está basado en la probabilidad estadística de varias muestras musicales ya que al tratarse de música tocada en directo, la dinámica y la sincronización entre los músicos varía según el momento en que se toque. Estos factores junto con el hecho de que la partitura de cada músico es diferente dificulta la comparación entre dos señales grabadas en diferentes puntos de la orquesta. Se necesita por lo tanto de varias muestras musicales para evaluar el efecto de atenuación de los paneles en las distintas configuraciones mencionadas anteriormente. El estudio completo del efecto de los paneles como entorno que influye en los músicos de orquesta cuando están sobre el escenario, tiene como objetivo la mejora de sus condiciones de trabajo. Abstract For several years, the European Union has been adopting many laws and regulations to protect and give more security to people who are exposed to some risk in their job. Being exposed to a loud sound pressure level during many hours in the job runs the risk of hearing damage. Particularly in the field of music, the ear is the most important working tool. Not taking care of the ear can cause some damage such as hearing loss, tinnitus, hyperacusis, diplacusis, etc. This could have an impact on the efficiency and satisfaction of the musicians when they are playing, which could also cause stress problems. Orchestra musicians, as many other workers in this sector, are usually exposed to a sound level of 80dB(A) or more during more than eight hours per day. It means that they must satisfy the law and their legal obligations to avoid health problems proceeding from their job. Putting into practice the new regulations is a challenge for orchestras. They must make sure that the repertoire, with its dynamic, balance and feeling, is not affected by the reduction of sound levels imposed by the law. This study tries to investigate the benefits and disadvantages of using shields as a hearing protector during rehearsals and orchestral concerts.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In recent years, applications in domains such as telecommunications, network security or large scale sensor networks showed the limits of the traditional store-then-process paradigm. In this context, Stream Processing Engines emerged as a candidate solution for all these applications demanding for high processing capacity with low processing latency guarantees. With Stream Processing Engines, data streams are not persisted but rather processed on the fly, producing results continuously. Current Stream Processing Engines, either centralized or distributed, do not scale with the input load due to single-node bottlenecks. Moreover, they are based on static configurations that lead to either under or over-provisioning. This Ph.D. thesis discusses StreamCloud, an elastic paralleldistributed stream processing engine that enables for processing of large data stream volumes. Stream- Cloud minimizes the distribution and parallelization overhead introducing novel techniques that split queries into parallel subqueries and allocate them to independent sets of nodes. Moreover, Stream- Cloud elastic and dynamic load balancing protocols enable for effective adjustment of resources depending on the incoming load. Together with the parallelization and elasticity techniques, Stream- Cloud defines a novel fault tolerance protocol that introduces minimal overhead while providing fast recovery. StreamCloud has been fully implemented and evaluated using several real word applications such as fraud detection applications or network analysis applications. The evaluation, conducted using a cluster with more than 300 cores, demonstrates the large scalability, the elasticity and fault tolerance effectiveness of StreamCloud. Resumen En los útimos años, aplicaciones en dominios tales como telecomunicaciones, seguridad de redes y redes de sensores de gran escala se han encontrado con múltiples limitaciones en el paradigma tradicional de bases de datos. En este contexto, los sistemas de procesamiento de flujos de datos han emergido como solución a estas aplicaciones que demandan una alta capacidad de procesamiento con una baja latencia. En los sistemas de procesamiento de flujos de datos, los datos no se persisten y luego se procesan, en su lugar los datos son procesados al vuelo en memoria produciendo resultados de forma continua. Los actuales sistemas de procesamiento de flujos de datos, tanto los centralizados, como los distribuidos, no escalan respecto a la carga de entrada del sistema debido a un cuello de botella producido por la concentración de flujos de datos completos en nodos individuales. Por otra parte, éstos están basados en configuraciones estáticas lo que conducen a un sobre o bajo aprovisionamiento. Esta tesis doctoral presenta StreamCloud, un sistema elástico paralelo-distribuido para el procesamiento de flujos de datos que es capaz de procesar grandes volúmenes de datos. StreamCloud minimiza el coste de distribución y paralelización por medio de una técnica novedosa la cual particiona las queries en subqueries paralelas repartiéndolas en subconjuntos de nodos independientes. Ademas, Stream- Cloud posee protocolos de elasticidad y equilibrado de carga que permiten una optimización de los recursos dependiendo de la carga del sistema. Unidos a los protocolos de paralelización y elasticidad, StreamCloud define un protocolo de tolerancia a fallos que introduce un coste mínimo mientras que proporciona una rápida recuperación. StreamCloud ha sido implementado y evaluado mediante varias aplicaciones del mundo real tales como aplicaciones de detección de fraude o aplicaciones de análisis del tráfico de red. La evaluación ha sido realizada en un cluster con más de 300 núcleos, demostrando la alta escalabilidad y la efectividad tanto de la elasticidad, como de la tolerancia a fallos de StreamCloud.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los sensores inerciales (acelerómetros y giróscopos) se han ido introduciendo poco a poco en dispositivos que usamos en nuestra vida diaria gracias a su minituarización. Hoy en día todos los smartphones contienen como mínimo un acelerómetro y un magnetómetro, siendo complementados en losmás modernos por giróscopos y barómetros. Esto, unido a la proliferación de los smartphones ha hecho viable el diseño de sistemas basados en las medidas de sensores que el usuario lleva colocados en alguna parte del cuerpo (que en un futuro estarán contenidos en tejidos inteligentes) o los integrados en su móvil. El papel de estos sensores se ha convertido en fundamental para el desarrollo de aplicaciones contextuales y de inteligencia ambiental. Algunos ejemplos son el control de los ejercicios de rehabilitación o la oferta de información referente al sitio turístico que se está visitando. El trabajo de esta tesis contribuye a explorar las posibilidades que ofrecen los sensores inerciales para el apoyo a la detección de actividad y la mejora de la precisión de servicios de localización para peatones. En lo referente al reconocimiento de la actividad que desarrolla un usuario, se ha explorado el uso de los sensores integrados en los dispositivos móviles de última generación (luz y proximidad, acelerómetro, giróscopo y magnetómetro). Las actividades objetivo son conocidas como ‘atómicas’ (andar a distintas velocidades, estar de pie, correr, estar sentado), esto es, actividades que constituyen unidades de actividades más complejas como pueden ser lavar los platos o ir al trabajo. De este modo, se usan algoritmos de clasificación sencillos que puedan ser integrados en un móvil como el Naïve Bayes, Tablas y Árboles de Decisión. Además, se pretende igualmente detectar la posición en la que el usuario lleva el móvil, no sólo con el objetivo de utilizar esa información para elegir un clasificador entrenado sólo con datos recogidos en la posición correspondiente (estrategia que mejora los resultados de estimación de la actividad), sino también para la generación de un evento que puede producir la ejecución de una acción. Finalmente, el trabajo incluye un análisis de las prestaciones de la clasificación variando el tipo de parámetros y el número de sensores usados y teniendo en cuenta no sólo la precisión de la clasificación sino también la carga computacional. Por otra parte, se ha propuesto un algoritmo basado en la cuenta de pasos utilizando informaiii ción proveniente de un acelerómetro colocado en el pie del usuario. El objetivo final es detectar la actividad que el usuario está haciendo junto con la estimación aproximada de la distancia recorrida. El algoritmo de cuenta pasos se basa en la detección de máximos y mínimos usando ventanas temporales y umbrales sin requerir información específica del usuario. El ámbito de seguimiento de peatones en interiores es interesante por la falta de un estándar de localización en este tipo de entornos. Se ha diseñado un filtro extendido de Kalman centralizado y ligeramente acoplado para fusionar la información medida por un acelerómetro colocado en el pie del usuario con medidas de posición. Se han aplicado también diferentes técnicas de corrección de errores como las de velocidad cero que se basan en la detección de los instantes en los que el pie está apoyado en el suelo. Los resultados han sido obtenidos en entornos interiores usando las posiciones estimadas por un sistema de triangulación basado en la medida de la potencia recibida (RSS) y GPS en exteriores. Finalmente, se han implementado algunas aplicaciones que prueban la utilidad del trabajo desarrollado. En primer lugar se ha considerado una aplicación de monitorización de actividad que proporciona al usuario información sobre el nivel de actividad que realiza durante un período de tiempo. El objetivo final es favorecer el cambio de comportamientos sedentarios, consiguiendo hábitos saludables. Se han desarrollado dos versiones de esta aplicación. En el primer caso se ha integrado el algoritmo de cuenta pasos en una plataforma OSGi móvil adquiriendo los datos de un acelerómetro Bluetooth colocado en el pie. En el segundo caso se ha creado la misma aplicación utilizando las implementaciones de los clasificadores en un dispositivo Android. Por otro lado, se ha planteado el diseño de una aplicación para la creación automática de un diario de viaje a partir de la detección de eventos importantes. Esta aplicación toma como entrada la información procedente de la estimación de actividad y de localización además de información almacenada en bases de datos abiertas (fotos, información sobre sitios) e información sobre sensores reales y virtuales (agenda, cámara, etc.) del móvil. Abstract Inertial sensors (accelerometers and gyroscopes) have been gradually embedded in the devices that people use in their daily lives thanks to their miniaturization. Nowadays all smartphones have at least one embedded magnetometer and accelerometer, containing the most upto- date ones gyroscopes and barometers. This issue, together with the fact that the penetration of smartphones is growing steadily, has made possible the design of systems that rely on the information gathered by wearable sensors (in the future contained in smart textiles) or inertial sensors embedded in a smartphone. The role of these sensors has become key to the development of context-aware and ambient intelligent applications. Some examples are the performance of rehabilitation exercises, the provision of information related to the place that the user is visiting or the interaction with objects by gesture recognition. The work of this thesis contributes to explore to which extent this kind of sensors can be useful to support activity recognition and pedestrian tracking, which have been proven to be essential for these applications. Regarding the recognition of the activity that a user performs, the use of sensors embedded in a smartphone (proximity and light sensors, gyroscopes, magnetometers and accelerometers) has been explored. The activities that are detected belong to the group of the ones known as ‘atomic’ activities (e.g. walking at different paces, running, standing), that is, activities or movements that are part of more complex activities such as doing the dishes or commuting. Simple, wellknown classifiers that can run embedded in a smartphone have been tested, such as Naïve Bayes, Decision Tables and Trees. In addition to this, another aim is to estimate the on-body position in which the user is carrying the mobile phone. The objective is not only to choose a classifier that has been trained with the corresponding data in order to enhance the classification but also to start actions. Finally, the performance of the different classifiers is analysed, taking into consideration different features and number of sensors. The computational and memory load of the classifiers is also measured. On the other hand, an algorithm based on step counting has been proposed. The acceleration information is provided by an accelerometer placed on the foot. The aim is to detect the activity that the user is performing together with the estimation of the distance covered. The step counting strategy is based on detecting minima and its corresponding maxima. Although the counting strategy is not innovative (it includes time windows and amplitude thresholds to prevent under or overestimation) no user-specific information is required. The field of pedestrian tracking is crucial due to the lack of a localization standard for this kind of environments. A loosely-coupled centralized Extended Kalman Filter has been proposed to perform the fusion of inertial and position measurements. Zero velocity updates have been applied whenever the foot is detected to be placed on the ground. The results have been obtained in indoor environments using a triangulation algorithm based on RSS measurements and GPS outdoors. Finally, some applications have been designed to test the usefulness of the work. The first one is called the ‘Activity Monitor’ whose aim is to prevent sedentary behaviours and to modify habits to achieve desired objectives of activity level. Two different versions of the application have been implemented. The first one uses the activity estimation based on the step counting algorithm, which has been integrated in an OSGi mobile framework acquiring the data from a Bluetooth accelerometer placed on the foot of the individual. The second one uses activity classifiers embedded in an Android smartphone. On the other hand, the design of a ‘Travel Logbook’ has been planned. The input of this application is the information provided by the activity and localization modules, external databases (e.g. pictures, points of interest, weather) and mobile embedded and virtual sensors (agenda, camera, etc.). The aim is to detect important events in the journey and gather the information necessary to store it as a journal page.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El manejo pre-sacrificio es de vital importancia en acuicultura, ya que afecta tanto a las reacciones fisiológicas como a los procesos bioquímicos post mortem, y por tanto al bienestar y a la calidad del producto. El ayuno pre-sacrificio se lleva a cabo de forma habitual en acuicultura, ya que permite el vaciado del aparato digestivo de restos de alimento y heces, reduciendo de esta manera la carga bacteriana en el intestino y la dispersión de enzimas digestivos y potenciales patógenos a la carne. Sin embargo, la duración óptima de este ayuno sin que el pez sufra un estrés innecesario no está clara. Además, se sabe muy poco sobre la mejor hora del día para realizar el sacrificio, lo que a su vez está regido por los ritmos diarios de los parámetros fisiológicos de estrés. Finalmente, se sabe que la temperatura del agua juega un papel muy importante en la fisiología del estrés pero no se ha determinado su efecto en combinación con el ayuno. Además, las actuales recomendaciones en relación a la duración óptima del ayuno previo al sacrificio en peces no suelen considerar la temperatura del agua y se basan únicamente en días y no en grados día (ºC d). Se determinó el efecto del ayuno previo al sacrificio (1, 2 y 3 días, equivalente a 11,1-68,0 grados día) y la hora de sacrificio (08h00, 14h00 y 20h00) en trucha arco iris (Oncorhynchus mykiss) de tamaño comercial en cuatro pruebas usando diferentes temperaturas de agua (Prueba 1: 11,8 ºC; Prueba 2: 19,2 ºC; Prueba 3: 11,1 ºC; y Prueba 4: 22,7 ºC). Se midieron indicadores biométricos, hematológicos, metabólicos y de calidad de la carne. En cada prueba, los valores de los animales ayunados (n=90) se compararon con 90 animales control mantenidos bajo condiciones similares pero nos ayunados. Los resultados sugieren que el ayuno tuvo un efecto significativo sobre los indicadores biométricos. El coeficiente de condición en los animales ayunados fue menor que en los controles después de 2 días de ayuno. El vaciado del aparato digestivo se produjo durante las primeras 24 h de ayuno, encontrándose pequeñas cantidades de alimento después de 48 h. Por otra parte, este vaciado fue más rápido cuando las temperaturas fueron más altas. El peso del hígado de los animales ayunados fue menor y las diferencias entre truchas ayunadas y controles fueron más evidentes a medida que el vaciado del aparato digestivo fue más rápido. El efecto del ayuno hasta 3 días en los indicadores hematológicos no fue significativo. Los niveles de cortisol en plasma resultaron ser altos tanto en truchas ayunadas como en las alimentadas en todas las pruebas realizadas. La concentración media de glucosa varió entre pruebas pero mostró una tendencia a disminuir en animales ayunados a medida que el ayuno progresaba. En cualquier caso, parece que la temperatura del agua jugó un papel muy importante, ya que se encontraron concentraciones más altas durante los días 2 y 3 de ayuno en animales mantenidos a temperaturas más bajas previamente al sacrificio. Los altos niveles de lactato obtenidos en sangre parecen sugerir episodios de intensa actividad muscular pero no se pudo encontrar relación con el ayuno. De la misma manera, el nivel de hematocrito no mostró efecto alguno del ayuno y los leucocitos tendieron a ser más altos cuando los animales estaban menos estresados y cuando su condición corporal fue mayor. Finalmente, la disminución del peso del hígado (índice hepatosomático) en la Prueba 3 no se vio acompañada de una reducción del glucógeno hepático, lo que sugiere que las truchas emplearon una estrategia diferente para mantener constantes los niveles de glucosa durante el periodo de ayuno en esa prueba. En relación a la hora de sacrificio, se obtuvieron niveles más bajos de cortisol a las 20h00, lo que indica que las truchas estaban menos estresadas y que el manejo pre-sacrificio podría resultar menos estresante por la noche. Los niveles de hematocrito fueron también más bajos a las 20h00 pero solo con temperaturas más bajas, sugiriendo que las altas temperaturas incrementan el metabolismo. Ni el ayuno ni la hora de sacrificio tuvieron un efecto significativo sobre la evolución de la calidad de la carne durante los 3 días de almacenamiento. Por el contrario, el tiempo de almacenamiento sí que parece tener un efecto claro sobre los parámetros de calidad del producto final. Los niveles más bajos de pH se alcanzaron a las 24-48 h post mortem, con una lata variabilidad entre duraciones del ayuno (1, 2 y 3 días) en animales sacrificados a las 20h00, aunque no se pudo distinguir ningún patrón común. Por otra parte, la mayor rigidez asociada al rigor mortis se produjo a las 24 h del sacrificio. La capacidad de retención de agua se mostró muy estable durante el período de almacenamiento y parece ser independiente de los cambios en el pH. El parámetro L* de color se incrementó a medida que avanzaba el período de almacenamiento de la carne, mientras que los valores a* y b* no variaron en gran medida. En conclusión, basándose en los resultados hematológicos, el sacrificio a última hora del día parece tener un efecto menos negativo en el bienestar. De manera general, nuestros resultados sugieren que la trucha arco iris puede soportar un período de ayuno previo al sacrificio de hasta 3 días o 68 ºC d sin que su bienestar se vea seriamente comprometido. Es probable que con temperaturas más bajas las truchas pudieran ser ayunadas durante más tiempo sin ningún efecto negativo sobre su bienestar. En cualquier caso, se necesitan más estudios para determinar la relación entre la temperatura del agua y la duración óptima del ayuno en términos de pérdida de peso vivo y la disminución de los niveles de glucosa en sangre y otros indicadores metabólicos. SUMMARY Pre-slaughter handling in fish is important because it affects both physiological reactions and post mortem biochemical processes, and thus welfare and product quality. Pre-slaughter fasting is regularly carried out in aquaculture, as it empties the viscera of food and faeces, thus reducing the intestinal bacteria load and the spread of gut enzymes and potential pathogens to the flesh. However, it is unclear how long rainbow trout can be fasted before suffering unnecessary stress. In addition, very little is known about the best time of the day to slaughter fish, which may in turn be dictated by diurnal rhythms in physiological stress parameters. Water temperature is also known to play a very important role in stress physiology in fish but the combined effect with fasting is unclear. Current recommendations regarding the optimal duration of pre-slaughter fasting do not normally consider water temperature and are only based on days, not degree days (ºC d). The effects of short-term fasting prior to slaughter (1, 2 and 3 days, between 11.1 and 68.0 ºC days) and hour of slaughter (08h00, 14h00 and 20h00) were determined in commercial-sized rainbow trout (Oncorhynchus mykiss) over four trials at different water temperatures (TRIAL 1, 11.8 ºC; TRIAL 2, 19.2 ºC; TRIAL 3, 11.1 ºC; and TRIAL 4, 22.7 ºC). We measured biometric, haematological, metabolic and product quality indicators. In each trial, the values of fasted fish (n=90) were compared with 90 control fish kept under similar conditions but not fasted. Results show that fasting affected biometric indicators. The coefficient of condition in fasted trout was lower than controls 2 days after food deprivation. Gut emptying occurred within the first 24 h after the cessation of feeding, with small traces of digesta after 48 h. Gut emptying was faster at higher water temperatures. Liver weight decreased in food deprived fish and differences between fasted and fed trout were more evident when gut clearance was faster. The overall effect of fasting for up to three days on haematological indicators was small. Plasma cortisol levels were high in both fasted and fed fish in all trials. Plasma glucose response to fasting varied among trials, but it tended to be lower in fasted fish as the days of fasting increased. In any case, it seems that water temperature played a more important role, with higher concentrations at lower temperatures on days 2 and 3 after the cessation of feeding. Plasma lactate levels indicate moments of high muscular activity and were also high, but no variation related to fasting could be found. Haematocrit did not show any significant effect of fasting, but leucocytes tended to be higher when trout were less stressed and when their body condition was higher. Finally, the loss of liver weight was not accompanied by a decrease in liver glycogen (only measured in TRIAL 3), suggesting that a different strategy to maintain plasma glucose levels was used. Regarding the hour of slaughter, lower cortisol levels were found at 20h00, suggesting that trout were less stressed later in the day and that pre-slaughter handling may be less stressful at night. Haematocrit levels were also lower at 20h00 but only at lower temperatures, indicating that higher temperatures increase metabolism. Neither fasting nor the hour of slaughter had a significant effect on the evolution of meat quality during 3 days of storage. In contrast, storage time seemed to have a more important effect on meat quality parameters. The lowest pH was reached 24-48 h post mortem, with a higher variability among fasting durations at 20h00, although no clear pattern could be discerned. Maximum stiffening from rigor mortis occurred after 24 h. The water holding capacity was very stable throughout storage and seemed to be independent of pH changes. Meat lightness (L*) slightly increased during storage and a* and b*-values were relatively stable. In conclusion, based on the haematological results, slaughtering at night may have less of a negative effect on welfare than at other times of the day. Overall, our results suggest that rainbow trout can cope well with fasting up to three days or 68 ºC d prior to slaughter and that their welfare is therefore not seriously compromised. At low water temperatures, trout could probably be fasted for longer periods without negative effects on welfare but more research is needed to determine the relationship between water temperature and days of fasting in terms of loss of live weight and the decrease in plasma glucose and other metabolic indicators.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La evaluación de la seguridad de estructuras antiguas de fábrica es un problema abierto.El material es heterogéneo y anisótropo, el estado previo de tensiones difícil de conocer y las condiciones de contorno inciertas. A comienzos de los años 50 se demostró que el análisis límite era aplicable a este tipo de estructuras, considerándose desde entonces como una herramienta adecuada. En los casos en los que no se produce deslizamiento la aplicación de los teoremas del análisis límite estándar constituye una herramienta formidable por su simplicidad y robustez. No es necesario conocer el estado real de tensiones. Basta con encontrar cualquier solución de equilibrio, y que satisfaga las condiciones de límite del material, en la seguridad de que su carga será igual o inferior a la carga real de inicio de colapso. Además esta carga de inicio de colapso es única (teorema de la unicidad) y se puede obtener como el óptimo de uno cualquiera entre un par de programas matemáticos convexos duales. Sin embargo, cuando puedan existir mecanismos de inicio de colapso que impliquen deslizamientos, cualquier solución debe satisfacer tanto las restricciones estáticas como las cinemáticas, así como un tipo especial de restricciones disyuntivas que ligan las anteriores y que pueden plantearse como de complementariedad. En este último caso no está asegurada la existencia de una solución única, por lo que es necesaria la búsqueda de otros métodos para tratar la incertidumbre asociada a su multiplicidad. En los últimos años, la investigación se ha centrado en la búsqueda de un mínimo absoluto por debajo del cual el colapso sea imposible. Este método es fácil de plantear desde el punto de vista matemático, pero intratable computacionalmente, debido a las restricciones de complementariedad 0 y z 0 que no son ni convexas ni suaves. El problema de decisión resultante es de complejidad computacional No determinista Polinomial (NP)- completo y el problema de optimización global NP-difícil. A pesar de ello, obtener una solución (sin garantía de exito) es un problema asequible. La presente tesis propone resolver el problema mediante Programación Lineal Secuencial, aprovechando las especiales características de las restricciones de complementariedad, que escritas en forma bilineal son del tipo y z = 0; y 0; z 0 , y aprovechando que el error de complementariedad (en forma bilineal) es una función de penalización exacta. Pero cuando se trata de encontrar la peor solución, el problema de optimización global equivalente es intratable (NP-difícil). Además, en tanto no se demuestre la existencia de un principio de máximo o mínimo, existe la duda de que el esfuerzo empleado en aproximar este mínimo esté justificado. En el capítulo 5, se propone hallar la distribución de frecuencias del factor de carga, para todas las soluciones de inicio de colapso posibles, sobre un sencillo ejemplo. Para ello, se realiza un muestreo de soluciones mediante el método de Monte Carlo, utilizando como contraste un método exacto de computación de politopos. El objetivo final es plantear hasta que punto está justificada la busqueda del mínimo absoluto y proponer un método alternativo de evaluación de la seguridad basado en probabilidades. Las distribuciones de frecuencias, de los factores de carga correspondientes a las soluciones de inicio de colapso obtenidas para el caso estudiado, muestran que tanto el valor máximo como el mínimo de los factores de carga son muy infrecuentes, y tanto más, cuanto más perfecto y contínuo es el contacto. Los resultados obtenidos confirman el interés de desarrollar nuevos métodos probabilistas. En el capítulo 6, se propone un método de este tipo basado en la obtención de múltiples soluciones, desde puntos de partida aleatorios y calificando los resultados mediante la Estadística de Orden. El propósito es determinar la probabilidad de inicio de colapso para cada solución.El método se aplica (de acuerdo a la reducción de expectativas propuesta por la Optimización Ordinal) para obtener una solución que se encuentre en un porcentaje determinado de las peores. Finalmente, en el capítulo 7, se proponen métodos híbridos, incorporando metaheurísticas, para los casos en que la búsqueda del mínimo global esté justificada. Abstract Safety assessment of the historic masonry structures is an open problem. The material is heterogeneous and anisotropic, the previous state of stress is hard to know and the boundary conditions are uncertain. In the early 50's it was proven that limit analysis was applicable to this kind of structures, being considered a suitable tool since then. In cases where no slip occurs, the application of the standard limit analysis theorems constitutes an excellent tool due to its simplicity and robustness. It is enough find any equilibrium solution which satisfy the limit constraints of the material. As we are certain that this load will be equal to or less than the actual load of the onset of collapse, it is not necessary to know the actual stresses state. Furthermore this load for the onset of collapse is unique (uniqueness theorem), and it can be obtained as the optimal from any of two mathematical convex duals programs However, if the mechanisms of the onset of collapse involve sliding, any solution must satisfy both static and kinematic constraints, and also a special kind of disjunctive constraints linking the previous ones, which can be formulated as complementarity constraints. In the latter case, it is not guaranted the existence of a single solution, so it is necessary to look for other ways to treat the uncertainty associated with its multiplicity. In recent years, research has been focused on finding an absolute minimum below which collapse is impossible. This method is easy to set from a mathematical point of view, but computationally intractable. This is due to the complementarity constraints 0 y z 0 , which are neither convex nor smooth. The computational complexity of the resulting decision problem is "Not-deterministic Polynomialcomplete" (NP-complete), and the corresponding global optimization problem is NP-hard. However, obtaining a solution (success is not guaranteed) is an affordable problem. This thesis proposes solve that problem through Successive Linear Programming: taking advantage of the special characteristics of complementarity constraints, which written in bilinear form are y z = 0; y 0; z 0 ; and taking advantage of the fact that the complementarity error (bilinear form) is an exact penalty function. But when it comes to finding the worst solution, the (equivalent) global optimization problem is intractable (NP-hard). Furthermore, until a minimum or maximum principle is not demonstrated, it is questionable that the effort expended in approximating this minimum is justified. XIV In chapter 5, it is proposed find the frequency distribution of the load factor, for all possible solutions of the onset of collapse, on a simple example. For this purpose, a Monte Carlo sampling of solutions is performed using a contrast method "exact computation of polytopes". The ultimate goal is to determine to which extent the search of the global minimum is justified, and to propose an alternative approach to safety assessment based on probabilities. The frequency distributions for the case study show that both the maximum and the minimum load factors are very infrequent, especially when the contact gets more perfect and more continuous. The results indicates the interest of developing new probabilistic methods. In Chapter 6, is proposed a method based on multiple solutions obtained from random starting points, and qualifying the results through Order Statistics. The purpose is to determine the probability for each solution of the onset of collapse. The method is applied (according to expectations reduction given by the Ordinal Optimization) to obtain a solution that is in a certain percentage of the worst. Finally, in Chapter 7, hybrid methods incorporating metaheuristics are proposed for cases in which the search for the global minimum is justified.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La proliferación en todos los ámbitos de la producción multimedia está dando lugar a la aparición de nuevos paradigmas de recuperación de información visual. Dentro de éstos, uno de los más significativos es el de los sistemas de recuperación de información visual, VIRS (Visual Information Retrieval Systems), en los que una de las tareas más representativas es la ordenación de una población de imágenes según su similitud con un ejemplo dado. En este trabajo se presenta una propuesta original para la evaluación de la similitud entre dos imágenes, basándose en la extensión del concepto de saliencia desde el espacio de imágenes al de características para establecer la relevancia de cada componente de dicho vector. Para ello se introducen metodologías para la cuantificación de la saliencia de valores individuales de características, para la combinación de estas cuantificaciones en procesos de comparación entre dos imágenes, y para, finalmente, establecer la mencionada ponderación de cada característica en atención a esta combinación. Se presentan igualmente los resultados de evaluar esta propuesta en una tarea de recuperación de imágenes por contenido en comparación con los obtenidos con la distancia euclídea. Esta comparación se realiza mediante la evaluación de ambos resultados por voluntarios.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La fractura de metales dúctiles como el acero suele explicarse a partir de la hipótesis de nucleación, crecimiento y coalescencia de microhuecos. A partir de esta teoría, se han desarrollado diversos modelos numéricos, entre los que el modelo de Gurson y sus variantes son los más extendidos. Dichos modelos reproducen matemáticamente el fenómeno físico de crecimiento de huecos resultando en un desarrollo progresivo del daño en el interior del material durante un ensayo de tracción. En estos modelos, el daño comienza a desarrollarse en fases muy tempranas del ensayo, incluso anteriores a la carga máxima. Ensayos realizados por los autores parecen indicar, sin embargo, que en el caso de barras de acero eutéctico empleado en la fabricación de alambres de pretensado, el daño originado en el interior del material como consecuencia del crecimiento de microhuecos sólo es apreciable en un estado muy avanzado del ensayo, momentos antes de producirse la rotura. Además, desde hace décadas se conoce que la triaxialidad de tensiones tiene una fuerte influencia sobre la rotura de los materiales. En este trabajo se presenta un modelo de rotura para elementos de acero sometidos a tracción, basado en un comportamiento cohesivo del material y que contempla el valor de la triaxialidad de tensiones, diferente en cada punto de la sección crítica de rotura. The fracture of ductile materials, such as steel, is usually explained with the theory of nucleation, growth and coalescence of microvoids. Based on this theory, many numerical models have been developed, with a special mention to Gurson-type models. These models simulate mathematically the physical growth of microvoids, leading to a progressive development of the internal damage that takes place during a tensile test. In these models, the damage starts to develop in very early stages of the test. Tests carried out by the authors seem to point out that, in the case of eutectoid steel bars used for manufacturing prestressing steel wires, the internal damage that takes place as a result of the growth of microvoids is only noticeable in a very advanced state of the test. In addition to this, it is known that the stress triaxiality has a strong influence over the fracture of ductile materials. This work presents a fracture model for steel specimens in a tensile test, based on a cohesive behaviour and taking into account the effect of stress triaxiality, which is different in every point of the fracture plane.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Algunos investigadores han utilizado la información que suministran determinados parámetros sanguíneos para el control biológico del entrenamiento. Entre estos parámetros los más utilizados como indicadores de sobreentrenamiento son: creatina kinasa (CK), urea (U), cortisol (C), testosterona(T) y relación testosterona/cortisol (T/C). El objetivo de este estudio fue determinar la evolución de CK, U, C,T y T/C a lo largo de 3 microciclos (M) de ntrenamiento,comparando los valores tras una sesión de entrenamientointenso con los obtenidos tras una sesión de recuperación. Seis triatletas masculinos de élite participaron en el estudio y fueron seguidos durante un periodo de entrenamiento de 31 semanas. Se estudiaron los microciclos 8, 22 y 31 (M1, M2 y M3, respectivamente). Se realizaron 7 extracciones sanguíneas en los siguientes momentos: una analítica en octubre en el periodo de descanso, y dos analíticas al final de cada M (tras una sesión de entrenamiento y una de recuperación). En cada M se registraron los datos de entrenamiento así como los de percepción de la carga y recuperación. La CK descendió de forma significativa tras una sesión de recuperación después de haber alcanzado valores significativamente superiores a los de referencia (129,5±80,2 U/l) en el M1 (Entrenamiento: 303,2±141,8 U/l vs. Recuperación: 211,3±65,4 U/l; P < 0,05), en el M2 (Entrenamiento: 316,2±134,1 U/l vs. Recuperación: 238,2±149 U/l; P < 0,05) y M3 (Entrenamiento: 383,3±231,0 U/l vs. Recuperación: 209,8±98,2 U/l; P < 0,05). Ni la U ni la T experimentaron variaciones significativas tras una sesión de recuperación, mientras que el C sólo descendió significativamente en M3 (Entrenamiento: 23±2,3 μg/dl vs. Recuperación: 18,9±2,7 μg/dl: P < 0,05). En conclusión, este estudio muestra las variaciones que experimentan varios parámetros sanguíneos a lo largo de tres microciclos de entrenamiento intenso, en los que ninguno de los deportistas experimentó ningún síntoma de sobreentrenamiento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente documento es el resultado de la participación de forma activa del autor en el equipo de la oficina de proyectos IDEAM S.A. encargada de realizar en U.T.E. con F.H.E.C.O.R. un manual de aplicación del Eurocódigo 7 a petición de la Dirección General de Carreteras del Ministerio de Fomento. El trabajo se ha centrado en la comparación entre las diversas formulaciones existentes para obtener la carga de hundimiento en cimentaciones superficiales, comparando los resultados de los distintos factores que participan en la formulación de los diferentes autores. De este modo el estudio ha servido para detectar algunas incongruencias entre las formulaciones clásicas de Brinch-Hansen y la formulación propuesta en el anexo D del Eurocódigo 7 (UNE-EN 1997-1) A sí mismo la investigación también se centra en las implicaciones que supone realizar el diseño de las cimentaciones superficiales utilizando para ello el método de los coeficientes parciales de seguridad y combinaciones de acciones mayoradas tal y como plantea el Eurocódigo 7 en lugar de realizar dicho diseño mediante el método de los coeficientes globales de seguridad y combinaciones características de acciones en la forma en que la tradición geotécnica española ha venido haciendo hasta la fecha. This document is the result of the active participation of the author in IDEAM SA, responsible for compiling a guide for the Eurocode 7 as a request by General Director of Hihways of the Fomento Ministry The work primarily focuses on the comparison between the different theories used to obtain the bearing capacity of shallow foundations and comparing the results of the multpile factors involved in the formulas designed by different authors Thereby, the present study has helped identify inconsistencies between the classical formulations of Brinch-Hansen and the proposed formulation in the Annex D of the Eurocode 7 (UNE- EN 1997-1) The investigation additionally focuses on the implications of shallow foundations desing by using the method of partial safety factors and the ULS combinations of actions instead of employing the design by the global safety factor method and SLS combinations of the actions.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En ciertas ocasiones: hormigón pretensado, muros anclados, etc., se presenta la necesidad de estudiar el armado en las proximidades de anclajes pasivos, o bien analizar las tensiones producidas. En este artículo se asimila el anclaje pasivo a una placa infinitamente rígida que, por efecto de la carga de pretensado, se adhiere al material adyacente por una de sus caras, formando el conjunto una fisura semirrígida. El problema elástico se reduce a la determinación de unas funciones seccionalmente holomorfas, que aparecen como la resolución de un problema homogéneo de Hilbert. La resolución se consigue por aplicación de las fórmulas de Plemelj. Haciendo variar el ángulo de ataque y las características del material se presentan algunos resultados notables. Por último se resuelve el problema mediante un método numérico, el método de los elementos de contorno, y se comparan resultados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La fractura de metales dúctiles como el acero suele explicarse a partir de la hipótesis de nucleación, crecimiento y coalescencia de microhuecos. A partir de esta teoría, se han desarrollado diversos modelos numéricos, entre los que el modelo de Gurson y sus variantes son los más extendidos. Dichos modelos reproducen matemáticamente el fenómeno físico de crecimiento de huecos resultando en un desarrollo progresivo del daño en el interior del material durante un ensayo de tracción. En estos modelos, el daño comienza a desarrollarse en fases muy tempranas del ensayo, incluso anteriores a la carga máxima. Ensayos realizados por los autores parecen indicar, sin embargo, que en el caso de barras de acero eutéctico empleado en la fabricación de alambres de pretensado, el daño originado en el interior del material como consecuencia del crecimiento de microhuecos sólo es apreciable en un estado muy avanzado del ensayo, momentos antes de producirse la rotura. Además, desde hace décadas se conoce que la triaxialidad de tensiones tiene una fuerte influencia sobre la rotura de los materiales. En este trabajo se presenta un modelo de rotura para elementos de acero sometidos a tracción, basado en un comportamiento cohesivo del material y que contempla el valor de la triaxialidad de tensiones, diferente en cada punto de la sección crítica de rotura. The fracture of ductile materials, such as steel, is usually explained with the theory of nucleation, growth and coalescence of microvoids. Based on this theory, many numerical models have been developed, with a special mention to Gurson-type models. These models simulate mathematically the physical growth of microvoids, leading to a progressive development of the internal damage that takes place during a tensile test. In these models, the damage starts to develop in very early stages of the test. Tests carried out by the authors seem to point out that, in the case of eutectoid steel bars used for manufacturing prestressing steel wires, the internal damage that takes place as a result of the growth of microvoids is only noticeable in a very advanced state of the test. In addition to this, it is known that the stress triaxiality has a strong influence over the fracture of ductile materials. This work presents a fracture model for steel specimens in a tensile test, based on a cohesive behaviour and taking into account the effect of stress triaxiality, which is different in every point of the fracture plane.