602 resultados para exhaustion
Resumo:
In the last few years there has been a heightened interest in data treatment and analysis with the aim of discovering hidden knowledge and eliciting relationships and patterns within this data. Data mining techniques (also known as Knowledge Discovery in Databases) have been applied over a wide range of fields such as marketing, investment, fraud detection, manufacturing, telecommunications and health. In this study, well-known data mining techniques such as artificial neural networks (ANN), genetic programming (GP), forward selection linear regression (LR) and k-means clustering techniques, are proposed to the health and sports community in order to aid with resistance training prescription. Appropriate resistance training prescription is effective for developing fitness, health and for enhancing general quality of life. Resistance exercise intensity is commonly prescribed as a percent of the one repetition maximum. 1RM, dynamic muscular strength, one repetition maximum or one execution maximum, is operationally defined as the heaviest load that can be moved over a specific range of motion, one time and with correct performance. The safety of the 1RM assessment has been questioned as such an enormous effort may lead to muscular injury. Prediction equations could help to tackle the problem of predicting the 1RM from submaximal loads, in order to avoid or at least, reduce the associated risks. We built different models from data on 30 men who performed up to 5 sets to exhaustion at different percentages of the 1RM in the bench press action, until reaching their actual 1RM. Also, a comparison of different existing prediction equations is carried out. The LR model seems to outperform the ANN and GP models for the 1RM prediction in the range between 1 and 10 repetitions. At 75% of the 1RM some subjects (n = 5) could perform 13 repetitions with proper technique in the bench press action, whilst other subjects (n = 20) performed statistically significant (p < 0:05) more repetitions at 70% than at 75% of their actual 1RM in the bench press action. Rate of perceived exertion (RPE) seems not to be a good predictor for 1RM when all the sets are performed until exhaustion, as no significant differences (p < 0:05) were found in the RPE at 75%, 80% and 90% of the 1RM. Also, years of experience and weekly hours of strength training are better correlated to 1RM (p < 0:05) than body weight. O'Connor et al. 1RM prediction equation seems to arise from the data gathered and seems to be the most accurate 1RM prediction equation from those proposed in literature and used in this study. Epley's 1RM prediction equation is reproduced by means of data simulation from 1RM literature equations. Finally, future lines of research are proposed related to the problem of the 1RM prediction by means of genetic algorithms, neural networks and clustering techniques. RESUMEN En los últimos años ha habido un creciente interés en el tratamiento y análisis de datos con el propósito de descubrir relaciones, patrones y conocimiento oculto en los mismos. Las técnicas de data mining (también llamadas de \Descubrimiento de conocimiento en bases de datos\) se han aplicado consistentemente a lo gran de un gran espectro de áreas como el marketing, inversiones, detección de fraude, producción industrial, telecomunicaciones y salud. En este estudio, técnicas bien conocidas de data mining como las redes neuronales artificiales (ANN), programación genética (GP), regresión lineal con selección hacia adelante (LR) y la técnica de clustering k-means, se proponen a la comunidad del deporte y la salud con el objetivo de ayudar con la prescripción del entrenamiento de fuerza. Una apropiada prescripción de entrenamiento de fuerza es efectiva no solo para mejorar el estado de forma general, sino para mejorar la salud e incrementar la calidad de vida. La intensidad en un ejercicio de fuerza se prescribe generalmente como un porcentaje de la repetición máxima. 1RM, fuerza muscular dinámica, una repetición máxima o una ejecución máxima, se define operacionalmente como la carga máxima que puede ser movida en un rango de movimiento específico, una vez y con una técnica correcta. La seguridad de las pruebas de 1RM ha sido cuestionada debido a que el gran esfuerzo requerido para llevarlas a cabo puede derivar en serias lesiones musculares. Las ecuaciones predictivas pueden ayudar a atajar el problema de la predicción de la 1RM con cargas sub-máximas y son empleadas con el propósito de eliminar o al menos, reducir los riesgos asociados. En este estudio, se construyeron distintos modelos a partir de los datos recogidos de 30 hombres que realizaron hasta 5 series al fallo en el ejercicio press de banca a distintos porcentajes de la 1RM, hasta llegar a su 1RM real. También se muestra una comparación de algunas de las distintas ecuaciones de predicción propuestas con anterioridad. El modelo LR parece superar a los modelos ANN y GP para la predicción de la 1RM entre 1 y 10 repeticiones. Al 75% de la 1RM algunos sujetos (n = 5) pudieron realizar 13 repeticiones con una técnica apropiada en el ejercicio press de banca, mientras que otros (n = 20) realizaron significativamente (p < 0:05) más repeticiones al 70% que al 75% de su 1RM en el press de banca. El ínndice de esfuerzo percibido (RPE) parece no ser un buen predictor del 1RM cuando todas las series se realizan al fallo, puesto que no existen diferencias signifiativas (p < 0:05) en el RPE al 75%, 80% y el 90% de la 1RM. Además, los años de experiencia y las horas semanales dedicadas al entrenamiento de fuerza están más correlacionadas con la 1RM (p < 0:05) que el peso corporal. La ecuación de O'Connor et al. parece surgir de los datos recogidos y parece ser la ecuación de predicción de 1RM más precisa de aquellas propuestas en la literatura y empleadas en este estudio. La ecuación de predicción de la 1RM de Epley es reproducida mediante simulación de datos a partir de algunas ecuaciones de predicción de la 1RM propuestas con anterioridad. Finalmente, se proponen futuras líneas de investigación relacionadas con el problema de la predicción de la 1RM mediante algoritmos genéticos, redes neuronales y técnicas de clustering.
Resumo:
The colony shape of four yeast species growing on agar medium wasmeasured for 116 days by image analysis. Initially, all the colonies are circular, with regular edges. The loss of circularity can be quantitatively estimated by the eccentricity index, Ei, calculated as the ratio between their orthogonal vertical and horizontal diameters. Ei can increase from 1 (complete circularity) to a maximum of 1.17–1.30, depending on the species. One colony inhibits its neighbour only when it has reached a threshold area. Then, Ei of the inhibited colony increases proportionally to the area of the inhibitory colony. The initial distance between colonies affects those threshold values but not the proportionality, Ei/area; this inhibition affects the shape but not the total surface of the colony. The appearance of irregularities in the edges is associated, in all the species, not with age but with nutrient exhaustion. The edge irregularity can be quantified by the Fourier index, Fi, calculated by the minimum number of Fourier coefficients that are needed to describe the colony contour with 99% fitness. An ad hoc function has been developed in Matlab v. 7.0 to automate the computation of the Fourier coefficients. In young colonies, Fi has a value between 2 (circumference) and 3 (ellipse). These values are maintained in mature colonies of Debaryomyces, but can reach values up to 14 in Saccharomyces.All the species studied showed the inhibition of growth in facing colony edges, but only three species showed edge irregularities associated with substrate exhaustion. Copyright © 2014 John Wiley & Sons, Ltd.
Resumo:
El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.
Resumo:
La Mezquita-Catedral de Córdoba es un edificio vivo. Un edificio que ha sido transformado sucesivamente por hombres de razas, culturas y religiones distintas durante sus más de 1.200 años de vida y que, a pesar de ello, no ha dejado de estar en uso ni uno solo de esos días de esa larga vida. De esta forma, el edificio se muestra ante el visitante como un complejo objeto arquitectónico, resultado de una continua transformación. La capacidad de la transformación de los edificios es algo inherente a su propia condición arquitectónica, no es un hecho exclusivo de la Mezquita-Catedral. Sin embargo, en este edificio esa transformación se produce con una gran intensidad y sin pérdida de su autenticidad. Tradicionalmente, los edificios se han adaptado a los nuevos requerimientos de cada época en un proceso que ha buscado en el propio edificio las leyes o principios que habían de regir la intervención. De esta forma, tanto las sucesivas ampliaciones de la Mezquita de Abd al-Rahman I como las siguientes intervenciones cristianas debieron asumir lo preexistente como material de trabajo. Así, los arquitectos del califa al-Hakam II dialogaron con sus antecesores complejizando el espacio que recibieron, así como los Hernán Ruiz consiguieron un nuevo organismo resultante de la introducción de su arquitectura luminosa en la trama hispanomusulmana. El siglo XIX confirmó el deseo por descubrir las huellas de un pasado esplendoroso que la intervención barroca había silenciado bajo un tratamiento homogéneo del espacio. La recuperación de esas huellas supuso, hace exactamente dos siglos, el inicio de la última gran etapa en la transformación del edificio, la de la restauración. La fábrica es considerada como objeto a conservar y los esfuerzos desde ese momento se centraron en la recuperación de la arquitectura omeya latente. De este modo, la práctica de la restauración como disciplina se encontró absolutamente influenciada por la Arqueología como única fuente de conocimiento. Las intervenciones buscaban lo original como modo de recuperar espacial y formalmente aquel pasado, concentrándose en los lugares del edificio considerados como esenciales. La declaración del edificio como monumento nacional en 1882 propició que el Estado se hiciera cargo de su mantenimiento y conservación, sustituyendo en esa tarea a los Obispos y Cabildos del siglo XIX, que tuvieron un entendimiento muy avanzado para su época. La llegada del arquitecto Velázquez Bosco en las últimas décadas del siglo XIX supuso un cambio trascendental en la historia del edificio, puesto que recibió un edificio con importantes deterioros y consiguió poner las bases del edificio que hoy contemplamos. El empeño por la recuperación material y espacial devolvió a la Mezquita-Catedral buena parte de su imagen original, reproduciendo con exactitud los modelos hallados en las exploraciones arqueológicas. La llegada de Antonio Flórez tras la muerte de Velázquez Bosco supuso la traslación al edificio del debate disciplinar que se desarrolló en las dos primeras décadas del siglo XX. Flórez procuró un nuevo entendimiento de la intervención, considerando la conservación como actuación prioritaria. En 1926 el Estado reformó la manera en que se atendía al patrimonio con la creación de un sistema de zonas y unos arquitectos a cargo de ellas. La existencia de un nuevo marco legislativo apuntaló esa nueva visión conservativa, avalada por la Carta de Atenas de 1931. Este modelo restauración científica huía de la intervención en estilo y valoraba la necesidad de intervenir de la manera más escueta posible y con un lenguaje diferenciado, basándose en los datos que ofrecía la Arqueología. Por tanto, se continuaba con la valoración del edificio como documento histórico, buscando en este caso una imagen diferenciada de la intervención frente a la actitud mimética de Velázquez. Resulta destacable la manera en la que el historiador Manuel Gómez-Moreno influyó en varias generaciones de arquitectos, arqueólogos e historiadores, tanto en el entendimiento científico de la restauración como en la propia estructura administrativa. La labor desarrollada en el edificio por José Mª Rodríguez Cano primero y Félix Hernández a continuación estuvo influida de manera teórica por el método de Gómez-Moreno, aunque en muchos aspectos su labor no representó una gran diferencia con lo hecho por Velázquez Bosco. La búsqueda de lo original volvió a ser recurrente, pero la carga económica del mantenimiento de un edificio tan extenso conllevó la no realización de muchos de los proyectos más ambiciosos. Esta obsesiva búsqueda de la imagen original del edificio tuvo su última y anacrónica etapa con la intervención de la Dirección General de Arquitectura en los 70. Sin embargo, el agotamiento del modelo científico ya había propiciado un nuevo escenario a nivel europeo, que cristalizó en la Carta de Venecia de 1964 y en una nueva definición del objeto a preservar, más allá del valor como documento histórico. Esta nueva posición teórica tuvo su traslación al modelo restaurador español en el último cuarto de siglo XX, coincidiendo con la Transición. El arquitecto Dionisio Hernández Gil defendió una interpretación distinta a la de los arqueólogos y de los historiadores, que había prevalecido durante todo el siglo. En opinión de Hernández Gil, los problemas de intervención debían enfocarse fundamentalmente como problemas de Arquitectura, abandonando la idea de que solamente podían ser resueltos por especialistas. Esta convicción teórica fue defendida desde la nueva Administración y deparó la utilización de unos criterios de intervención particularizados, provenientes del análisis multifocal de cada situación y no sólo desde el valor de los edificios como documentos históricos. Y este cambio tuvo su traslación a la Mezquita-Catedral con la práctica de Gabriel Ruiz Cabrero y Gabriel Rebollo. En consecuencia con esa nueva perspectiva, aceptaron el edificio que recibieron, sustituyendo la búsqueda de aquella página original por la aceptación de cada una de las páginas de su historia y el respeto a las técnicas constructivas del pasado. La búsqueda de soluciones específicas desde el propio objeto arquitectónico significó la renovada atención a la potente estructura formal-constructiva como origen de toda reflexión. Considerar la Mezquita-Catedral en primer lugar como Arquitectura implicaba la atención a todo tipo de factores además de los históricos, como medio para preservar su autenticidad. Esta tesis pretende demostrar que la práctica de la restauración realizada en la Mezquita-Catedral a lo largo del siglo XX ha evolucionado desde la búsqueda de lo original hasta la búsqueda de lo auténtico, como reflejo de una visión basada en lo arqueológico frente a una renovada visión arquitectónica más completa, que incluye a la anterior. La consideración de la intervención en este edificio como otra página más de su historia y no como la última, significa la reedición de un mecanismo recurrente en la vida del edificio y un nuevo impulso en ese proceso de continua transformación. ABSTRACT The Mosque-Cathedral of Cordoba is a living building. A building transformed by men of different races, cultures and religions during more than 1.200 years old and that, nevertheless, it has continued to be in use all days in that long life. Thus, the building shows to the visitor as a complex architectural object, the result of continuous transformation. This transformation capacity of the buildings is inherent in their own architectural condition, it’s not an exclusive fact of the Mosque-Cathedral. However, in this building that transformation happens with a great intensity, without losing their authenticity. Traditionally, buildings have been adapted to the new requirements of times in a process that looked for laws or principles in order to guide the intervention. Thus, both the successive enlargements of the Mosque of Abd al-Rahman and Christian interventions must assume the preexistence as a working material. So, the architects of the caliph al-Hakam II spoke to their predecessors, complexing the receiving space, as well as Hernan Ruiz got a new organism as result the introduction of his luminous architecture into hispanic-muslim weft. The nineteenth century confirmed the desire to discover the traces of a glorious past that Baroque intervention had silenced, under a uniform space treatment. Exactly two centuries ago, the recovery of these traces meant the start of the last major phase in the transformation of the building: the restoration. The building was considered subject to conserve and since then, efforts focused on the recovery of latent Umayyad architecture. Thus, the practice of restoration as a discipline was absolutely influenced by Archaeology as the only source of knowledge. Interventions were seeking the original as the way to recover that past in a space and formal way, concentrating on essential sites of the building. The statement as a national monument in 1882 prompted the State take charge of its maintenance and preservation, replacing to the nineteenth century Bishops and Cabildos, which had a very advanced understanding for that time. The arrival of the architect Velazquez Bosco in the last decades of the nineteenth century involved a momentous change in the history of the building, since he received a building with significant damage and he achieved the foundations of the building that we can see today. Efforts to a material and space recover returned the Mosque-Cathedral to its original image, accurately reproducing the models found in archaeological explorations. The arrival of Antonio Florez after Velazquez’s death involved the translation of discipline debate, which was developed in the first two decades of the twentieth century. Florez tried a new understanding of the intervention, considering conservation as a priority action. In 1926, the State reformed the way in which heritage was attended, creating a zones system with a few architects in charge of them. The existence of a new legislative framework, underpinned this new conservative vision, supported by the Athens Charter of 1931. This scientific restoration model fleeing from intervention in style and it appreciated the need to intervene in the most concise way, with a distinct language based on the data offered by Archaeology. Therefore, it continued with the appraisement of the building as a historical document, seeking in this case a differentiated image of intervention, against Velazquez mimetic attitude. It is remarkable the way in which the historian Manuel Gomez-Moreno influenced several generations of architects, archaeologists and historians, both in the scientific understanding of the restoration and the administrative structure. The work of Jose Maria Rodriguez Cano first and then Felix Hernandez was theoretically influenced by the Gomez-Moreno’s method, although in many respects their work did not represent a great difference to Velazquez Bosco. The search of the original returned to recur, but the economic charge of maintaining such a large building led to the non-realization of many of the most ambitious projects. This obsessive search for the original image of the building had its last and anachronistic stage with the intervention of the Department of Architecture at 70’s. However, the exhaustion of the scientific model had already led to a new scenario at European level, which crystallized in the Venice Charter of 1964 and a new definition of the object to be preserved beyond the value as a historical document. This new theoretical position had its translation to Spanish restaurateur model in the last quarter of the twentieth century, coinciding with the Transition. The architect Dionisio Hernandez Gil defended a different interpretation from archaeologists and historians, that had prevailed throughout the century. According to Hernandez Gil, the problems of intervention should focus primarily as architectural issues, abandoning the idea that they could only be determined by specialist. This theoretical conviction was defended from the new administration and led to the use of particularized criteria, from a multifocal analysis of each situation. And this change had its translation to the Mosque with the practice of Gabriel Ruiz Cabrero and Gabriel Rebollo. Consistent with this new perspective, they accepted the receiving building, replacing the search on original page for acceptance of all historical pages and respecting the constructive techniques of the past. The search for specific solutions from the architectural object meant the renewed attention to the powerful formal-constructive structure as the origin of all thought. Consider the Mosque-Cathedral as Architecture, involved the attention to all kinds of factors in addition to the historical, as a means to preserve its authenticity. This thesis aims to demonstrate that the practice of restoration in the Mosque-Cathedral throughout the twentieth century has evolved from the search of the original to the search for the authentic, reflecting a vision based on the archaeological against a renewed more complete architectural vision, including the above. Consideration of intervention in this building as another page in its history and not the last one, means the reissue of an own mechanism and a new impetus in that continuous transformation process.
Resumo:
"Si el hombre es el cuidador de las palabras y sólo de ellas emerge el sentido de las cosas, la arquitectura tiene un cometido preciso: hacer de las condiciones ya dadas de cada lugar palabras que signifiquen las cualidades de la existencia, y que desvelen la riqueza y contenidos que en ellas se contienen potencialmente" Ignasi Solá Morales. Lugar: permanencia o producción, 1992. Esta tesis surge tanto del afán por comprender la identidad de uno de los espacios más representativos de mi ciudad, asumido familiarmente pero que plantea muchas dudas respecto a su caracterización, como de la preocupación personal respecto a la aparente hegemonía del modelo urbano de la "ciudad genérica", crudamente expuesto por Rem Koolhaas a finales del siglo XX, que pone en crisis la ciudad histórica. El territorio, espacio físico concreto, y la memoria asociada a este, obliterados, son considerados como punto de partida para confrontarlos con la proclamación del nuevo modelo de "ciudad genérica", de raíz eminentemente económica y tecnológica. La realidad tangible de un espacio, aparentemente forjado en base a los valores denostados por el nuevo modelo propuesto, se estudia desde las premisas opuestas. La idea del no-lugar, teorizado por Marc Augé y tomado como modelo por Koolhaas, supone éste emancipado tanto de las preexistencias históricas como de su ubicación física concreta, planteando un tipo de espacio de representación al margen del territorio y la memoria. Sin pretender adoptar una postura resistente u opuesta, sino antitética y complementaria, se toman aquí las premisas de Koolhaas para contrastarlas con una porción del territorio a medio camino entre la arquitectura y la ciudad, a fin de desarrollar una reflexión que sirva de complemento y contrapeso al paradigma espacial que la “ciudad genérica” implica y cuya inmediatez y supuesta anomia parecen anular cualquier intención interpretativa al neutralizar los centros históricos y proclamar el agotamiento de la historia. El planteamiento de una teoría dicotómica frente al espacio y las teorías arquitectónicas asociadas a este ya fue formulado por Colin Rowe y Fred Koetter a finales de los años setenta del siglo pasado. Se plantea aquí la idea de una “ciudad tangible” como opuesta a la idea de la "ciudad genérica" enunciada por Koolhaas. Tomando el territorio y la memoria como referencia principal en un lugar concreto y huyendo de la premisa de la inmediatez del instante y el "presente perpetuo" proclamado por Koolhaas, del que según él seríamos prisioneros, se establece una distancia respecto al objeto de análisis que desarrolla el estudio en la dirección opuesta al supuesto origen del mismo, planteando la posibilidad de reactivar una reflexión en torno al territorio y la memoria en el seno del proceso global de habitación para poner de manifiesto determinados mecanismos de configuración de un espacio de representación al margen de la urgencia del presente, reactivando la memoria y su relación con el territorio como punto de partida. Desde de la reconstrucción hipotética del territorio, partiendo de la propia presencia física del mismo, su orografía, la paleo-biología, las analogías etológicas, los restos arqueológicos, la antropología o la historia, se reivindica la reflexión arquitectónica como disciplina diversa y privilegiada en cuanto al análisis espacial, tratando de discernir el proceso mediante el cual el Prado pasó de territorio a escenario. La organización cronológica del estudio y la incorporación de muy diversas fuentes, en su mayoría directas, pretende poner de manifiesto la condición transitiva del espacio de representación y contrastar el pasado remoto del lugar y su construcción con el momento actual, inevitablemente encarnado por el punto de vista desde el cual se desarrolla la tesis. El Prado parece albergar, agazapado en su nombre, la raíz de un origen remoto y olvidado. Si como enunciaba Ignasi Solá-Morales la función de la arquitectura es hacer aflorar los significados inherentes al lugar, esta tesis se plantea como una recuperación de la idea del vínculo entre el territorio y la memoria como fuente fundamental en la definición de un espacio de representación específico. El escrutinio del pasado constituye un acto eminentemente contemporáneo, pues el punto de vista y la distancia, inevitablemente condicionados por el presente, determinan la mirada. El culto contemporáneo a la inmediatez y la proclamación de la superación de los procesos históricos han relegado el pasado, en cierto grado, a depósito de restos o referente a superar, obviando su ineluctable condición de origen o momento anterior condicionante. Partiendo de la reconstrucción del lugar sobre el cual se halla el Prado ubicado y reconsiderando, según las premisas desarrolladas por la moderna historiografía, fundamentalmente desarrolladas por la Escuela francesa de los Annales, la cotidianeidad y lo anónimo como fuente de la que dimanan muchos de los actuales significados de nuestros espacios de representación, tomando como punto de partida un lugar remoto y olvidado, se estudia como se fue consolidando el Prado hasta devenir un lugar insigne de referencia asociado a los poderes fácticos y el espacio áulico de la capital de las Españas en el siglo XVII. El proceso mediante el cual el Prado pasó de territorio a escenario implica la recuperación de la memoria de un espacio agropecuario anónimo y el análisis de cómo, poco a poco, se fue depositando sobre el mismo el acervo de los diversos pobladores de la región que con sus particularidades culturales y sociales fueron condicionando, en mayor o menor grado, un lugar cuyo origen se extiende retrospectivamente hasta hace más de dos mil años, cuando se considera que pudo darse la primera habitación a partir de la cual, de manera ininterrumpida, el Prado ha venido siendo parte de lo que devino, más tarde, Madrid. La llegada de nuevos agentes, vinculados con estructuras de poder y territoriales que trascendían la inmediatez del territorio sobre el que se comenzó a erigir dicho lugar, sirven para repasar los diferentes depósitos ideológicos y culturales que han ido conformando el mismo, reivindicando la diversidad y lo heterogéneo del espacio de representación frente a la idea homogeneizadora que el modelo genérico implica. La constitución del Prado como un espacio de referencia asociado al paganismo arcaico a partir de la praxis espacial cotidiana, su relación con las estructuras defensivas de Al-Andalus y la atalaya Omeya, la apropiación del los primitivos santuarios por parte la iglesia, su relación con un determinado tipo de espiritualidad y las órdenes religiosas más poderosas de la época, la preferencia de Carlos V por Madrid y sus vínculos con la cultura europea del momento, o la definitiva metamorfosis del lugar a partir del siglo XVI y el advenimiento de un nuevo paganismo emblemático y estetizado, culminan con el advenimiento de lo económico como representación del poder en el seno de la corte y la erección del Palacio del Buen Retiro como manifestación tangible de la definitiva exaltación del Prado a espacio de representación áulico. Decía T.S. Elliot que la pugna por el espacio de la memoria constituye el principal rasgo del clasicismo, y el Prado, ciertamente, participa de ese carácter al que está profundamente asociado en la conciencia espacial de los madrileños como lugar de referencia. Acaso la obliteración del territorio y la memoria, propuestas en la “ciudad genérica” también tengan algo que ver con ello. ABSTRACT "If man is the caretaker of words and only they provide the sense of things, the architecture has a precise mission: to make out from the given conditions of each place words that mean the qualities of existence, and which unveil the wealth and content they potentially contain " Ignasi Solá Morales. Place: permanence or production, 1992. This thesis arises from both the desire to understand the identity of one of the most representative spaces of my city, assumed in a familiar way but that raises many doubts about its characterization, and from a personal concern about the apparent hegemony of the urban model of the "generic city " so crudely exposed by Rem Koolhaas in the late twentieth century that puts a strain on the historic city. The obliteration of the territory, specific physical space, and its associated memory, are considered as a starting point to confront them with the proclamation of the new model of "generic city" raised from eminently economic and technological roots. The tangible reality of a space, apparently forged based on the values reviled by the proposed new model, is studied from opposite premises. The idea of non-place, theorized by Marc Augé and modeled by Koolhaas, implies the emancipation from both historical preexistences and physical location, posing a type of space representation outside the territory and memory. Without wishing to establish a confrontational or opposite position, but an antithetical and complementary stance, the premises of Koolhaas are here taken to contrast them with a portion of territory halfway between architecture and the city, to develop a study that will complement and counterbalance the spatial paradigm that the "generic city" means and whose alleged immediacy and anomie appear to nullify any interpretative intention by neutralizing the historic centers and proclaiming the exhaustion of history. The approach of a dichotomous theory versus space and architectural theories associated with this were already formulated by Colin Rowe and Fred Koetter during the late seventies of last century. The idea of a "tangible city" as opposed to the idea of the "generic city" enunciated by Koolhaas arises here. Taking the territory and memory as the main reference in a particular place and trying to avoid the premise of the immediacy of the moment and the "perpetual present" proclaimed by Koolhaas, of which he pleas we would be prisoners, a distance is established from the object of analysis developing the study in the opposite direction to the alleged origin of it, raising the possibility of reactivating a reflection on the territory and memory within the overall process of inhabiting to reveal certain representational space configuration mechanisms outside the urgency of the present, reviving the memory and its relationship with the territory as a starting point. From the hypothetical reconstruction of the territory, starting from its physical presence, geography, paleo-biology, ethological analogies, archaeological remains, anthropology or history, architecture is claimed as a diverse as privileged discipline for spatial analysis, trying to discern the process by which the Prado moved from territory to stage. The chronological organization of the study and incorporating a variety of sources, most direct, aims to highlight the transitive condition of representational space and contrast the remote past of the place and its construction with the current moment, inevitably played by the view point from which the thesis develops. The Prado seems to harbor, in its name, the root of a remote and forgotten origin. If, as Ignasi Sola-Morales said, the aim of architecture is to bring out the meanings inherent in the site, this thesis is presented as a recovery of the idea of the link between the territory and memory as a key source in defining a specific space of representation. The scrutiny of the past is an eminently contemporary act, for the view and distance inevitably conditioned by the present, determine the way we look. The contemporary cult of immediacy and the proclamation of overcoming historical processes have relegated the past, to some extent, to remains deposit or a reference to overcome, ignoring its ineluctable condition as origin or previous constraint. From rebuilding the site on which the Prado is located and reconsidering everyday life and the anonymous as a source of many arising current meanings of our space of representation, according to the premises developed by modern historiography mainly developed by the French school of Annales, trying to recover the remote and forgotten is attempted, the thesis studies how el Prado was consolidated to become the most significant place of Madrid, deeply associated with the power in the capital of Spain during the XVII century. The process by which the Prado evolved from territory to stage involves the recovery of the memory of an anonymous agricultural space and the analysis of how, little by little, the influence of the various inhabitants of the region with their own and how their cultural and social peculiarities was deposited through time on the common ground and how that determined, to a greater or lesser degree, a place whose origin retrospectively extends over more than two thousand years ago, when we can consider the first inhabiting from which, without interruption, the Prado has come to be part of what became, later, Madrid. The arrival of new players, linked to power structures and territorial issues which transcended the immediacy of the territory on which the place begun to be a characteristic space, serve to review the different ideological and cultural deposits that have shaped the place, claiming diversity and heterogeneous space of representation before the homogenizing idea which the generic model implies. The constitution of the Prado as a benchmark associated with the archaic paganism developed from the ancient everyday spatial praxis, its relationship with the defensive structures of Al-Andalus and the Umayyad watchtower, the appropriation of the early sanctuaries by the roman church, its relationship with a certain type of spirituality and the most powerful religious orders of the time, the preference of Carlos V towards Madrid and its links with the European culture of the moment and the final metamorphosis of the place during the sixteenth century, end at the moment on which the advent of the economic as a representation of power within the court and the erection of the Palacio del Buen Retiro, as a tangible manifestation of the ultimate exaltation of courtly Prado space representation, happened in the mid XVII century. T. S. Elliot said that the struggle for memory space is the main feature of classicism, and the Prado certainly shares part of that character deeply associated in the mental spatial structure of the locals as a landmark. Perhaps the obliteration of territory and memory proposed in the "generic city" might also have something to do with that.
Resumo:
A fadiga é um sintoma inespecífico, encontrado com freqüência na população. Ela é definida como sensação de cansaço físico profundo, perda de energia ou mesmo sensação de exaustão, e é importante a sua diferenciação com depressão ou fraqueza. Os transtornos depressivos e ansiosos constituem os transtornos psiquiátricos mais freqüentes no idoso, e quase sempre dão lugar a conseqüências graves neste grupo etário. Este estudo visa avaliar a influência da ansiedade e depressão sobre o desencadeamento de fadiga e evolução de problemas de saúde e de comportamentos peculiares ao processo de envelhecimento. Trata-se de um estudo, do tipo caso-controle investigando ansiedade, depressão e fadiga. Foram avaliados 61 indivíduos com 60 anos de idade ou mais. Um grupo controle constituído por 60 indivíduos jovens (idade até 35 anos), foram selecionados entre estudantes do Centro Universitário de Santo André que responderam um Questionário de Características Gerais, um Inventário de Ansiedade traço-estado, um Inventário de Depressão de Beck e uma Escala de Severidade de Fadiga. O grupo de idosos apresentou um escore significativamente maior em relação ao grupo controle na escala de severidade de fadiga. O grupo de idosos apresentou escore médio de 36,87 ± 14,61 enquanto o grupo controle apresentou escore médio de 31,47 ± 12,74 (t = 2,167; df = 119; p = 0,032). No entanto, o grupo de idosos apresentou escores significativamente maiores na escala de Beck (10,54 ± 8,63) em relação aos controles (6,83 ± 7,95); t = 2,455; df = 119; p = 0,016). Analisando-se apenas o grupo de indivíduos idosos, observou-se uma correlação significativa entre os escore da escala de severidade de fadiga e a escala de depressão de Beck (correlação de Pearson = 0,332; p = 0,009). Ainda trabalhando apenas com o grupo de indivíduos idosos, observou-se um escore significativamente maior da escala de severidade de fadiga naqueles indivíduos que praticavam atividade física regular, sendo, escore médio de 31,55 ± 13,36; (t = 2,203; df = 58; p = 0,032). A partir da análise dos resultados deste estudo pôde-se concluir que o grupo de indivíduos idosos apresentam estatisticamente significante escore maior, quando comparado com o grupo controle, apresentando mais sintomas de fadiga e depressão. Estes sintomas de fadiga ocorreram em conjunto com sintomas depressivos sugerindo uma possível correlação entre estes. Quando se observou apenas os idosos, esta correlação foi confirmada. Analisado-se ainda somente o grupo de indivíduos idosos observa-se que o grupo de idosos que praticam atividade física regularmente apresentam menos sintomas fadiga que o grupo que não pratica atividade física.(AU)
Resumo:
A fadiga é um sintoma inespecífico, encontrado com freqüência na população. Ela é definida como sensação de cansaço físico profundo, perda de energia ou mesmo sensação de exaustão, e é importante a sua diferenciação com depressão ou fraqueza. Os transtornos depressivos e ansiosos constituem os transtornos psiquiátricos mais freqüentes no idoso, e quase sempre dão lugar a conseqüências graves neste grupo etário. Este estudo visa avaliar a influência da ansiedade e depressão sobre o desencadeamento de fadiga e evolução de problemas de saúde e de comportamentos peculiares ao processo de envelhecimento. Trata-se de um estudo, do tipo caso-controle investigando ansiedade, depressão e fadiga. Foram avaliados 61 indivíduos com 60 anos de idade ou mais. Um grupo controle constituído por 60 indivíduos jovens (idade até 35 anos), foram selecionados entre estudantes do Centro Universitário de Santo André que responderam um Questionário de Características Gerais, um Inventário de Ansiedade traço-estado, um Inventário de Depressão de Beck e uma Escala de Severidade de Fadiga. O grupo de idosos apresentou um escore significativamente maior em relação ao grupo controle na escala de severidade de fadiga. O grupo de idosos apresentou escore médio de 36,87 ± 14,61 enquanto o grupo controle apresentou escore médio de 31,47 ± 12,74 (t = 2,167; df = 119; p = 0,032). No entanto, o grupo de idosos apresentou escores significativamente maiores na escala de Beck (10,54 ± 8,63) em relação aos controles (6,83 ± 7,95); t = 2,455; df = 119; p = 0,016). Analisando-se apenas o grupo de indivíduos idosos, observou-se uma correlação significativa entre os escore da escala de severidade de fadiga e a escala de depressão de Beck (correlação de Pearson = 0,332; p = 0,009). Ainda trabalhando apenas com o grupo de indivíduos idosos, observou-se um escore significativamente maior da escala de severidade de fadiga naqueles indivíduos que praticavam atividade física regular, sendo, escore médio de 31,55 ± 13,36; (t = 2,203; df = 58; p = 0,032). A partir da análise dos resultados deste estudo pôde-se concluir que o grupo de indivíduos idosos apresentam estatisticamente significante escore maior, quando comparado com o grupo controle, apresentando mais sintomas de fadiga e depressão. Estes sintomas de fadiga ocorreram em conjunto com sintomas depressivos sugerindo uma possível correlação entre estes. Quando se observou apenas os idosos, esta correlação foi confirmada. Analisado-se ainda somente o grupo de indivíduos idosos observa-se que o grupo de idosos que praticam atividade física regularmente apresentam menos sintomas fadiga que o grupo que não pratica atividade física.(AU)
Resumo:
Down-regulation of the initial burst of viremia during primary HIV infection is thought to be mediated predominantly by HIV-specific cytotoxic T lymphocytes, and the appearance of this response is associated with major perturbations of the T cell receptor repertoire. Changes in the T cell receptor repertoire of virus-specific cytotoxic T lymphocytes were analyzed in patients with primary infection to understand the failure of the cellular immune response to control viral spread and replication. This analysis demonstrated that a significant number of HIV-specific T cell clones involved in the primary immune response rapidly disappeared. The disappearance was not the result of mutations in the virus epitopes recognized by these clones. Evidence is provided that phenomena such as high-dose tolerance or clonal exhaustion might be involved in the disappearance of these monoclonally expanded HIV-specific cytotoxic T cell clones. These findings should provide insights into how HIV, and possibly other viruses, elude the host immune response during primary infection.
Resumo:
Robert Falcon Scott and his companions reached the South Pole in January of 1912, only to die on their return journey at a remote site on the Ross Ice Shelf, about 170 miles from their base camp on the coast. Numerous contributing causes for their deaths have been proposed, but it has been assumed that the cold temperatures they reported encountering on the Ross Ice Shelf, near 82–80°S during their northward trek toward safety, were not unusual. The weather in the region where they perished on their unassisted trek by foot from the Pole remained undocumented for more than half a century, but it has now been monitored by multiple automated weather stations for more than a decade. The data recorded by Scott and his men from late February to March 19, 1912, display daily temperature minima that were on average 10 to 20°F below those obtained in the same region and season since routine modern observations began in 1985. Only 1 year in the available 15 years of measurements from the location where Scott and his men perished displays persistent cold temperatures at this time of year close to those reported in 1912. These remarkably cold temperatures likely contributed substantially to the exhaustion and frostbite Scott and his companions endured, and their deaths were therefore due, at least in part, to the unusual weather conditions they endured during their cold march across the Ross Ice Shelf of Antarctica.
Resumo:
The murine γ-herpesvirus 68 replicates in epithelial sites after intranasal challenge, then persists in various cell types, including B lymphocytes. Mice that lack CD4+ T cells (I-Ab−/−) control the acute infection, but suffer an ultimately lethal recrudescence of lytic viral replication in the respiratory tract. The consequences of CD4+ T cell deficiency for the generation and maintenance of murine γ-herpesvirus 68-specific CD8+ set now have been analyzed by direct staining with viral peptides bound to major histocompatibility complex class I tetramers and by a spectrum of functional assays. Both acutely and during viral reactivation, the CD8+ T cell responses in the I-Ab−/− group were no less substantial than in the I-Ab+/+ controls. Indeed, virus-specific CD8+ T cell numbers were increased in the lymphoid tissue of clinically compromised I-Ab−/− mice, although relatively few of the potential cytotoxic T lymphocyte effectors were recruited back to the site of pathology in the lung. Thus the viral reactivation that occurs in the absence of CD4+ T cells was not associated with any exhaustion of the virus-specific cytotoxic T lymphocyte response. It seems that CD8+ T cells alone are insufficient to maintain long-term control of this persistent γ-herpesvirus.
Resumo:
Estrogen is critical for epiphyseal fusion in both young men and women. In this study, we explored the cellular mechanisms by which estrogen causes this phenomenon. Juvenile ovariectomized female rabbits received either 70 μg/kg estradiol cypionate or vehicle i.m. once a week. Growth plates from the proximal tibia, distal tibia, and distal femur were analyzed after 2, 4, 6, or 8 weeks of treatment. In vehicle-treated animals, there was a gradual senescent decline in tibial growth rate, rate of chondrocyte proliferation, growth plate height, number of proliferative chondrocytes, number of hypertrophic chondrocytes, size of terminal hypertrophic chondrocytes, and column density. Estrogen treatment accelerated the senescent decline in all of these parameters. In senescent growth plates, epiphyseal fusion was observed to be an abrupt event in which all remaining chondrocytes were rapidly replaced by bone elements. Fusion occurred when the rate of chondrocyte proliferation approached zero. Estrogen caused this proliferative exhaustion and fusion to occur earlier. Our data suggest that (i) epiphyseal fusion is triggered when the proliferative potential of growth plate chondrocytes is exhausted; and (ii) estrogen does not induce growth plate ossification directly; instead, estrogen accelerates the programmed senescence of the growth plate, thus causing earlier proliferative exhaustion and consequently earlier fusion.
Resumo:
Human immunodeficiency virus (HIV)-specific cytotoxic T lymphocytes (CTLs) are thought to play a major role in the immune response to HIV infection. The HIV-specific CTL response is much stronger than previously documented in an infectious disease, yet estimates of CTL frequency derived from limiting-dilution analysis (LDA) are relatively low and comparable to other viral infections. Here we show that individual CTL clones specific for peptides from HIV gag and pol gene products are present at high levels in the peripheral blood of three infected patients and that individual CTL clones may represent between 0.2% and 1% of T cells. Previous LDA in one donor had shown a frequency of CTL precursors of 1/8000, suggesting that LDA may underestimate CTL effector frequency. In some donors individual CTL clones persisted in vivo for at least 5 years. In contrast, in one patient there was a switch in CTL usage suggesting that different populations of CTLs can be recruited during infection. These data imply strong stimulation of CTLs, potentially leading some clones to exhaustion.
Resumo:
Trata-se de um estudo analítico de corte transversal, que visa avaliar o risco cardiovascular de PVHA segundo o Escore de Framingham e identificar a associação entre o risco e as variáveis demográficas, comportamentais, psicossociais e clínicas de PVHA. O estudo foi aprovado na Secretaria Municipal de Saúde e no Comitê de Ética da Escola de Enfermagem de Ribeirão Preto, a coleta de dados foi realizada no período de outubro de 2014 a agosto de 2015 em cinco Serviços de Atendimento Especializado às PVHA utilizando questionário sociodemográfico, clínico e comportamental, avaliação da alimentação saudável, Inventário de Sintomas de Stress para Adultos de Lipp e avaliação do risco cardiovascular por meio do Escore de Framingham. A análise dos dados ocorreu através de estatística descritiva e teste de associação entre as variáveis, onde foi adotado nível de significância com valor de p<0,05. Identificou-se que 58,3% pertenciam ao sexo masculino, 69,1% apresentavam idade acima de 40 anos, com média de 44,4 anos, 40,6% referiram ser brancos e 40,0% pardos, e 70,9% eram heterossexuais. Observou-se que 64,0% eram sedentários, 35,4% tabagistas e 40,0% faziam uso de bebida alcóolica regularmente. Do mesmo modo, 73,7% consideraram sua alimentação saudável, no entanto, ao ser avaliado de acordo com o escore da alimentação saudável, 70,9% obtiveram score intermediário para alimentação. Com relação às variáveis psicossociais, foi identificado que 52,0% tinham menos de oito anos de estudo, e 80,6% referiram receber até três salários mínimos por mês. Quanto aos sintomas de estresse, foi visto que 29,1% e 22,3% estavam nas fases de resistência e exaustão, respectivamente. Além disso, identificou-se que 15,4% da amostra tinha diagnóstico médico para depressão e que 71,4% não realizavam atividades de lazer regularmente. Com relação às variáveis clínicas gerais, 57,7% referiram antecedentes familiares para HAS, 40,6% para DM, 21,7% para IAM e 27,4% para AVE. Quanto aos antecedentes pessoais, foi visto que 15,4% eram hipertensos, 8,0% eram diabéticos e 8,0% tinham dislipidemia. Desta mesma amostra, 45,2% apresentavam IMC maior que 25,0 kg/m² e 41,7% estavam em síndrome metabólica. Com relação às variáveis clínicas relacionadas ao HIV, observou-se que 42,2% e 32,0% possuíam o diagnóstico de soropositividade e fazem uso de TARV há mais de dez anos, respectivamente. A contagem de células TCD4+ e carga viral mostrou que 82,8% dos participantes apresentaram contagem maior que 350 cels/mm³, e 80,6% tinham carga viral indetectável. Foi identificado que 25,8% dos sujeitos apresentam risco cardiovascular de médio a alto, segundo o Escore de Framingham. Apenas as variáveis sociodemográficas sexo (p=0,006), idade (p<0,001) e estado civil (p=0,003) apresentaram associação com o risco cardiovascular calculado pelo Escore de Framingham. Nas variáveis comportamentais, as fases de estresse (p=0,039) tiveram associação com o risco cardiovascular, e com relação às variáveis clínicas, antecedentes familiares para DM (p=0,035), HAS, DM e SM (p<0,001) e DLP (p=0,030) apresentaram significância estatística. Nas variáveis clínicas relacionadas ao HIV, o tempo de diagnóstico (p=0,005) e o tempo de TARV (p=0,038) também apresentaram associação. Conclui-se que 25,8% de PVHA no município de Ribeirão Preto apresentam risco cardiovascular de moderado a alto, medido pelo Escore de Framingham
Resumo:
INTRODUÇÃO: A infecção por HIV-1 é um grave problema de saúde pública causando elevada taxa de morbidade e mortalidade. Entretanto, alguns indivíduos são considerados resistentes à infecção por HIV-1, mesmo após repetidas exposições ao vírus. Vários fatores imunológicos e genéticos podem estar associados a resistência à infecção, como ativação de componentes da imunidade inata e também devido ao baixo perfil de ativação das células T. É possível que nos indivíduos expostos e não infectados por HIV-1 (ENI) ocorra uma importante atuação das células T secretoras de IL-17 e IL-22, e também as células T reguladoras, pois são necessárias para a manutenção e homeostase das mucosas associadas ao intestino (GALT). OBJETIVO: Avaliar o fenótipo e a função de células TCD4+ e TCD8+ em casais sorodiscordante ao HIV-1, compostos por indivíduos ENI e os parceiros infectados por HIV-1. MÉTODOS: Os casais sorodiscordantes ao HIV-1, consistiam de 23 indivíduos expostos não-infectados (ENI), 14 mulheres e 9 homens, com mediana de 41 anos e 21 parceiros infectados por HIV-1 (HIV), 20 homens e 1 mulher com mediana de 41 anos. Os controles saudáveis foram 24 indivíduos (14 mulheres e 10 homens) com mediana de 37 anos. Os casais sorodiscordantes foram compostos por 16 heterossexuais e 7 homossexuais, com tempo de relacionamento de 13 anos. As frequências de células Th17, Th22 e Tc22, as células T polifuncionais foram analisadas em células mononucleares (CMNs) do sangue periférico, estimulados com peptídeos da região Gag do HIV-1 e da enterotoxina B do Staphylococcus aureus (SEB), a frequência de células T reguladoras, o perfil fenotípico de exaustão/diferenciação e a expressão da integrina alfa4?7 e CCR9 em células T, foram realizados por citometria de fluxo. RESULTADOS: No grupo HIV, as células T CD4+ e CD8+ do sangue periférico mostrou maior frequência de CD95 e PD-1 e baixa expressão de CD127 comparado ao grupo ENI e controle. A frequência de células Th17 em CMNs aumentou nos grupos ENI e HIV-1 na condição sem estímulo, contudo, após estímulo com os peptídeos da região p24 da Gag do HIV-1 induziu resposta somente no grupo HIV-1. O grupo ENI mostrou resposta antígeno-especifica somente para IL-22. Além disto, avaliando as células Tc22 e Th22, foi verificado aumento da resposta aos peptídeos da Gag e também ao SEB, nos grupos HIV e ENI. A presença de células T polifuncionais antígeno-especificas, secretoras de 5-4 citocinas, foi detectada apenas em células T CD38+ no grupo HIV, enquanto os indivíduos ENI mostraram resposta polifuncional por células T CD38- somente ao estímulo policlonal por SEB. Uma diminuição do número absoluto de células T reguladoras (CD4+CD25+CD127low/-Foxp3+) foi detectada no grupo HIV comparado ao ENI e controle, com maior expressão de moléculas HLA-DR e CD95. Além disto, foi detectado diminuição na frequência de células TCD8+ ?4?7+ no grupo ENI e de células TCD4+ alfa4beta7+ nos grupos ENI e HIV. Houve uma correlação positiva entre as células Tc22 e Th22 com as células TCD8+ e TCD4+ que expressam alfa4beta7, no grupo ENI e HIV-1. CONCLUSÃO: Os indivíduos ENI são capazes de desenvolver resposta antígeno-específicas relacionadas com a IL-22, que possui importante função na imunidade de mucosas. Além disto, mostram presença de células T polifuncionais com baixo perfil de ativação a estímulo policlonal. Os dados evidenciam que os indivíduos ENI, mostram indução de células Tc22, aumento de expressão de moléculas de migração para o intestino e equilíbrio entre as células efetoras e Treg, que em conjunto, devem exercer importante papel para a resistência à infecção por HIV-1
Resumo:
Buscamos investigar, neste trabalho, quais são os discursos sobre os gêneros discursivos que circulam entre sujeitos-professores que atuam nos anos finais (4º e 5º anos) do Ensino Fundamental I, em escolas públicas municipais. Buscamos compreender também, a maneira como esses sujeitos (se) significam, em suas relações com a língua e a história. O interesse pela temática investigada se dá, principalmente, porque observamos, ao longo de nossos anos de experiência no magistério, que, embora os gêneros discursivos conforme definidos por Bakhtin (1997) sejam considerados pelos Parâmetros Curriculares Nacionais e por outros documentos legais que fundamentam a Educação Básica, como um dos principais objetivos do ensino de língua portuguesa, o conceito ainda desperta muitas dúvidas nos docentes. Filiamo-nos à Análise de Discurso de matriz francesa, postulada por Pêcheux (2009), área do conhecimento basicamente constituída na intersecção entre o materialismo histórico, a psicanálise e a linguística, e que considera a língua como lugar de materialização do discurso que é a língua em movimento, em uso pelos sujeitos. Na construção de nosso referencial teórico, mobilizamos, ainda, a teoria bakhtiniana dos gêneros do discurso, e as contribuições de teóricos das ciências da educação, tais como Pimenta (2012), Tardif (2002), Giroux (1997), Sacristán (1998), entre outros. O corpus da pesquisa é representado por seis entrevistas semiestruturadas, realizadas com sujeitos-professores que atuam em classes de 4º e 5º ano do ensino fundamental, em escolas de rede pública municipal. A partir da transcrição das entrevistas, foram realizados recortes que constituíram o material analisado neste estudo. As análises realizadas aqui indiciam que os sujeitos-professores entrevistados circulam por formações discursivas e ideológicas cristalizadas, no que diz respeito à relação dos estudantes com a língua. Tais docentes buscam desenvolver um trabalho pedagógico mediado pelos critérios de suposta familiaridade, utilidade ou praticidade em relação aos usos sociais que os gêneros discursivos poderiam ter para os estudantes. Além disso, as análises discursivas de alguns recortes apontam para um equívoco na compreensão do conceito bakhtiniano de gêneros discursivos, compreendidos, no cotidiano escolar, como uma classificação tipológica e estanque, excluindo a dinamicidade e a plasticidade que envolvem o conceito, conforme proposto por Bakhtin (1997). A cristalização da definição do conceito de gêneros discursivos, na dimensão tipológica, favorece o cerceamento da prática pedagógica, colaborando para a difusão de práticas que visam o esgotamento dos gêneros discursivos, buscando apresentar o maior número possível de gêneros aos estudantes, sob a forma de modelos que deverão ser seguidos em suas produções textuais futuras, e que lhes serão cobrados em avaliações internas e externas.