618 resultados para Absoluto


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La computación ubicua está extendiendo su aplicación desde entornos específicos hacia el uso cotidiano; el Internet de las cosas (IoT, en inglés) es el ejemplo más brillante de su aplicación y de la complejidad intrínseca que tiene, en comparación con el clásico desarrollo de aplicaciones. La principal característica que diferencia la computación ubicua de los otros tipos está en como se emplea la información de contexto. Las aplicaciones clásicas no usan en absoluto la información de contexto o usan sólo una pequeña parte de ella, integrándola de una forma ad hoc con una implementación específica para la aplicación. La motivación de este tratamiento particular se tiene que buscar en la dificultad de compartir el contexto con otras aplicaciones. En realidad lo que es información de contexto depende del tipo de aplicación: por poner un ejemplo, para un editor de imágenes, la imagen es la información y sus metadatos, tales como la hora de grabación o los ajustes de la cámara, son el contexto, mientras que para el sistema de ficheros la imagen junto con los ajustes de cámara son la información, y el contexto es representado por los metadatos externos al fichero como la fecha de modificación o la de último acceso. Esto significa que es difícil compartir la información de contexto, y la presencia de un middleware de comunicación que soporte el contexto de forma explícita simplifica el desarrollo de aplicaciones para computación ubicua. Al mismo tiempo el uso del contexto no tiene que ser obligatorio, porque si no se perdería la compatibilidad con las aplicaciones que no lo usan, convirtiendo así dicho middleware en un middleware de contexto. SilboPS, que es nuestra implementación de un sistema publicador/subscriptor basado en contenido e inspirado en SIENA [11, 9], resuelve dicho problema extendiendo el paradigma con dos elementos: el Contexto y la Función de Contexto. El contexto representa la información contextual propiamente dicha del mensaje por enviar o aquella requerida por el subscriptor para recibir notificaciones, mientras la función de contexto se evalúa usando el contexto del publicador y del subscriptor. Esto permite desacoplar la lógica de gestión del contexto de aquella de la función de contexto, incrementando de esta forma la flexibilidad de la comunicación entre varias aplicaciones. De hecho, al utilizar por defecto un contexto vacío, las aplicaciones clásicas y las que manejan el contexto pueden usar el mismo SilboPS, resolviendo de esta forma la incompatibilidad entre las dos categorías. En cualquier caso la posible incompatibilidad semántica sigue existiendo ya que depende de la interpretación que cada aplicación hace de los datos y no puede ser solucionada por una tercera parte agnóstica. El entorno IoT conlleva retos no sólo de contexto, sino también de escalabilidad. La cantidad de sensores, el volumen de datos que producen y la cantidad de aplicaciones que podrían estar interesadas en manipular esos datos está en continuo aumento. Hoy en día la respuesta a esa necesidad es la computación en la nube, pero requiere que las aplicaciones sean no sólo capaces de escalar, sino de hacerlo de forma elástica [22]. Desgraciadamente no hay ninguna primitiva de sistema distribuido de slicing que soporte un particionamiento del estado interno [33] junto con un cambio en caliente, además de que los sistemas cloud actuales como OpenStack u OpenNebula no ofrecen directamente una monitorización elástica. Esto implica que hay un problema bilateral: cómo puede una aplicación escalar de forma elástica y cómo monitorizar esa aplicación para saber cuándo escalarla horizontalmente. E-SilboPS es la versión elástica de SilboPS y se adapta perfectamente como solución para el problema de monitorización, gracias al paradigma publicador/subscriptor basado en contenido y, a diferencia de otras soluciones [5], permite escalar eficientemente, para cumplir con la carga de trabajo sin sobre-provisionar o sub-provisionar recursos. Además está basado en un algoritmo recientemente diseñado que muestra como añadir elasticidad a una aplicación con distintas restricciones sobre el estado: sin estado, estado aislado con coordinación externa y estado compartido con coordinación general. Su evaluación enseña como se pueden conseguir notables speedups, siendo el nivel de red el principal factor limitante: de hecho la eficiencia calculada (ver Figura 5.8) demuestra cómo se comporta cada configuración en comparación con las adyacentes. Esto permite conocer la tendencia actual de todo el sistema, para saber si la siguiente configuración compensará el coste que tiene con la ganancia que lleva en el throughput de notificaciones. Se tiene que prestar especial atención en la evaluación de los despliegues con igual coste, para ver cuál es la mejor solución en relación a una carga de trabajo dada. Como último análisis se ha estimado el overhead introducido por las distintas configuraciones a fin de identificar el principal factor limitante del throughput. Esto ayuda a determinar la parte secuencial y el overhead de base [26] en un despliegue óptimo en comparación con uno subóptimo. Efectivamente, según el tipo de carga de trabajo, la estimación puede ser tan baja como el 10 % para un óptimo local o tan alta como el 60 %: esto ocurre cuando se despliega una configuración sobredimensionada para la carga de trabajo. Esta estimación de la métrica de Karp-Flatt es importante para el sistema de gestión porque le permite conocer en que dirección (ampliar o reducir) es necesario cambiar el despliegue para mejorar sus prestaciones, en lugar que usar simplemente una política de ampliación. ABSTRACT The application of pervasive computing is extending from field-specific to everyday use. The Internet of Things (IoT) is the shiniest example of its application and of its intrinsic complexity compared with classical application development. The main characteristic that differentiates pervasive from other forms of computing lies in the use of contextual information. Some classical applications do not use any contextual information whatsoever. Others, on the other hand, use only part of the contextual information, which is integrated in an ad hoc fashion using an application-specific implementation. This information is handled in a one-off manner because of the difficulty of sharing context across applications. As a matter of fact, the application type determines what the contextual information is. For instance, for an imaging editor, the image is the information and its meta-data, like the time of the shot or camera settings, are the context, whereas, for a file-system application, the image, including its camera settings, is the information and the meta-data external to the file, like the modification date or the last accessed timestamps, constitute the context. This means that contextual information is hard to share. A communication middleware that supports context decidedly eases application development in pervasive computing. However, the use of context should not be mandatory; otherwise, the communication middleware would be reduced to a context middleware and no longer be compatible with non-context-aware applications. SilboPS, our implementation of content-based publish/subscribe inspired by SIENA [11, 9], solves this problem by adding two new elements to the paradigm: the context and the context function. Context represents the actual contextual information specific to the message to be sent or that needs to be notified to the subscriber, whereas the context function is evaluated using the publisher’s context and the subscriber’s context to decide whether the current message and context are useful for the subscriber. In this manner, context logic management is decoupled from context management, increasing the flexibility of communication and usage across different applications. Since the default context is empty, context-aware and classical applications can use the same SilboPS, resolving the syntactic mismatch that there is between the two categories. In any case, the possible semantic mismatch is still present because it depends on how each application interprets the data, and it cannot be resolved by an agnostic third party. The IoT environment introduces not only context but scaling challenges too. The number of sensors, the volume of the data that they produce and the number of applications that could be interested in harvesting such data are growing all the time. Today’s response to the above need is cloud computing. However, cloud computing applications need to be able to scale elastically [22]. Unfortunately there is no slicing, as distributed system primitives that support internal state partitioning [33] and hot swapping and current cloud systems like OpenStack or OpenNebula do not provide elastic monitoring out of the box. This means there is a two-sided problem: 1) how to scale an application elastically and 2) how to monitor the application and know when it should scale in or out. E-SilboPS is the elastic version of SilboPS. I t is the solution for the monitoring problem thanks to its content-based publish/subscribe nature and, unlike other solutions [5], it scales efficiently so as to meet workload demand without overprovisioning or underprovisioning. Additionally, it is based on a newly designed algorithm that shows how to add elasticity in an application with different state constraints: stateless, isolated stateful with external coordination and shared stateful with general coordination. Its evaluation shows that it is able to achieve remarkable speedups where the network layer is the main limiting factor: the calculated efficiency (see Figure 5.8) shows how each configuration performs with respect to adjacent configurations. This provides insight into the actual trending of the whole system in order to predict if the next configuration would offset its cost against the resulting gain in notification throughput. Particular attention has been paid to the evaluation of same-cost deployments in order to find out which one is the best for the given workload demand. Finally, the overhead introduced by the different configurations has been estimated to identify the primary limiting factor for throughput. This helps to determine the intrinsic sequential part and base overhead [26] of an optimal versus a suboptimal deployment. Depending on the type of workload, this can be as low as 10% in a local optimum or as high as 60% when an overprovisioned configuration is deployed for a given workload demand. This Karp-Flatt metric estimation is important for system management because it indicates the direction (scale in or out) in which the deployment has to be changed in order to improve its performance instead of simply using a scale-out policy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto versa sobre el estudio y diseño de una central termosolar de torre central, así como de su rendimiento y producción. La característica especial de esta planta es que tiene como fin suministrar calor a un proceso químico: cracking térmico del metano para la producción de hidrógeno. Debido a que el cracking térmico tiene lugar en el interior de un tanque de metal líquido (reactor químico) y al peso del mismo, resulta conveniente dejar el reactor a nivel de suelo. Así pues, los rayos solares tienen que descender desde la parte superior de la torre hasta el reactor. Los rayos solares se reflejan en los heliostatos para volver a ser reflejados en la parte superior de la torre, donde hay otro espejo que conduce los rayos solares hasta el reactor. La localización elegida para realizar el estudio ha sido Tabernas, cerca de la Plataforma Solar de Almería (PSA). De la estación SIAR (Sistema de Información Agroclimática para el Regadío del Ministerio de Agricultura, Alimentación y Medio Ambiente del Gobierno de España). de Tabernas precisamente se han obtenido los datos de radiación global, y mediante una correlación kd-kt, se ha obtenido la radiación directa. Para el estudio de la energía aportada por el campo solar, se ha elegido un campo norte de heliostatos, debido a que un campo circular además de tener menor rendimiento en este proyecto no sería factible. Los heliostatos considerados son cuadrados de 11 x 11 m. Estos heliostatos apuntan hacia el punto (0, 0, 100) m en el sistema de coordenadas absoluto considerado para el proyecto, que coincide con una altura a 100 m en el centro interior de la torre. Este punto es uno de los focos del elipsoide virtual, del cual forma parte el reflector (espejo situado en la parte superior) y cuyo otro foco se sitúa en la parte superior del receptor (reactor), cuyo fin es dirigir los rayos hacia el reactor, como se ha indicado. Una vez definido el proyecto, se lleva a cabo un dimensionado del campo solar, con el cual puede obtenerse un campo de heliostatos. Tras realizar la simulación, se obtienen datos instantáneos y medios. A modo de ejemplo, se incluye el rendimiento por bloqueos y sombras a las 9 h de la mañana en enero, donde puede observarse que la sombra de la torre tiene una alta importancia sobre los heliostatos situados en la zona oeste. Del mismo modo, se han obtenido los datos de incidencia de los rayos solares sobre el receptor, de forma que puede caracterizarse la incidencia del flujo térmico sobre el mismo mediante un mallado. A continuación se incluye una imagen del número de rayos solares que inciden sobre el receptor a las 12 h en junio. Las conclusiones que pueden extraerse del proyecto son:  El rendimiento anual de la planta es del 26 %.  La producción anual de hidrógeno sería de 163,7 t.  Para mayores potencias de plantas el rendimiento por sombras y bloqueos sería menor, al igual que el asociado al efecto coseno, a la dispersión y absorción atmosférica y al factor de interceptación.  Para reducir el efecto del tamaño en los dos primeros rendimientos mencionados en el párrafo anterior podría elevarse la altura de la torre.  Para aumentar el factor de interceptación podría estudiarse la colocación de espejos en el interior de la torre, de modo que reflejasen los rayos solares hasta el receptor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existe normalmente el propósito de obtener la mejor solución posible cuando se plantea un problema estructural, entendiendo como mejor la solución que cumpliendo los requisitos estructurales, de uso, etc., tiene un coste físico menor. En una primera aproximación se puede representar el coste físico por medio del peso propio de la estructura, lo que permite plantear la búsqueda de la mejor solución como la de menor peso. Desde un punto de vista práctico, la obtención de buenas soluciones—es decir, soluciones cuyo coste sea solo ligeramente mayor que el de la mejor solución— es una tarea tan importante como la obtención de óptimos absolutos, algo en general difícilmente abordable. Para disponer de una medida de la eficiencia que haga posible la comparación entre soluciones se propone la siguiente definición de rendimiento estructural: la razón entre la carga útil que hay que soportar y la carga total que hay que contabilizar (la suma de la carga útil y el peso propio). La forma estructural puede considerarse compuesta por cuatro conceptos, que junto con el material, definen una estructura: tamaño, esquema, proporción, y grueso.Galileo (1638) propuso la existencia de un tamaño insuperable para cada problema estructural— el tamaño para el que el peso propio agota una estructura para un esquema y proporción dados—. Dicho tamaño, o alcance estructural, será distinto para cada material utilizado; la única información necesaria del material para su determinación es la razón entre su resistencia y su peso especifico, una magnitud a la que denominamos alcance del material. En estructuras de tamaño muy pequeño en relación con su alcance estructural la anterior definición de rendimiento es inútil. En este caso —estructuras de “talla nula” en las que el peso propio es despreciable frente a la carga útil— se propone como medida del coste la magnitud adimensional que denominamos número de Michell, que se deriva de la “cantidad” introducida por A. G. M. Michell en su artículo seminal de 1904, desarrollado a partir de un lema de J. C. Maxwell de 1870. A finales del siglo pasado, R. Aroca combino las teorías de Galileo y de Maxwell y Michell, proponiendo una regla de diseño de fácil aplicación (regla GA), que permite la estimación del alcance y del rendimiento de una forma estructural. En el presente trabajo se estudia la eficiencia de estructuras trianguladas en problemas estructurales de flexión, teniendo en cuenta la influencia del tamaño. Por un lado, en el caso de estructuras de tamaño nulo se exploran esquemas cercanos al optimo mediante diversos métodos de minoración, con el objetivo de obtener formas cuyo coste (medido con su numero deMichell) sea muy próximo al del optimo absoluto pero obteniendo una reducción importante de su complejidad. Por otro lado, se presenta un método para determinar el alcance estructural de estructuras trianguladas (teniendo en cuenta el efecto local de las flexiones en los elementos de dichas estructuras), comparando su resultado con el obtenido al aplicar la regla GA, mostrando las condiciones en las que es de aplicación. Por último se identifican las líneas de investigación futura: la medida de la complejidad; la contabilidad del coste de las cimentaciones y la extensión de los métodos de minoración cuando se tiene en cuenta el peso propio. ABSTRACT When a structural problem is posed, the intention is usually to obtain the best solution, understanding this as the solution that fulfilling the different requirements: structural, use, etc., has the lowest physical cost. In a first approximation, the physical cost can be represented by the self-weight of the structure; this allows to consider the search of the best solution as the one with the lowest self-weight. But, from a practical point of view, obtaining good solutions—i.e. solutions with higher although comparable physical cost than the optimum— can be as important as finding the optimal ones, because this is, generally, a not affordable task. In order to have a measure of the efficiency that allows the comparison between different solutions, a definition of structural efficiency is proposed: the ratio between the useful load and the total load —i.e. the useful load plus the self-weight resulting of the structural sizing—. The structural form can be considered to be formed by four concepts, which together with its material, completely define a particular structure. These are: Size, Schema, Slenderness or Proportion, and Thickness. Galileo (1638) postulated the existence of an insurmountable size for structural problems—the size for which a structure with a given schema and a given slenderness, is only able to resist its self-weight—. Such size, or structural scope will be different for every different used material; the only needed information about the material to determine such size is the ratio between its allowable stress and its specific weight: a characteristic length that we name material structural scope. The definition of efficiency given above is not useful for structures that have a small size in comparison with the insurmountable size. In this case—structures with null size, inwhich the self-weight is negligible in comparisonwith the useful load—we use as measure of the cost the dimensionless magnitude that we call Michell’s number, an amount derived from the “quantity” introduced by A. G. M. Michell in his seminal article published in 1904, developed out of a result from J. C.Maxwell of 1870. R. Aroca joined the theories of Galileo and the theories of Maxwell and Michell, obtaining some design rules of direct application (that we denominate “GA rule”), that allow the estimation of the structural scope and the efficiency of a structural schema. In this work the efficiency of truss-like structures resolving bending problems is studied, taking into consideration the influence of the size. On the one hand, in the case of structures with null size, near-optimal layouts are explored using several minimization methods, in order to obtain forms with cost near to the absolute optimum but with a significant reduction of the complexity. On the other hand, a method for the determination of the insurmountable size for truss-like structures is shown, having into account local bending effects. The results are checked with the GA rule, showing the conditions in which it is applicable. Finally, some directions for future research are proposed: the measure of the complexity, the cost of foundations and the extension of optimization methods having into account the self-weight.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La lucha contra la pobreza y la desigualdad ocupa la lista de prioridades y tareas pendientes, en la mayoría de los países de América Latina; es un hecho, sustentado en estadísticas e informes de importantes organizaciones a nivel mundial (que se citan más adelante), que una gran parte de la población enfrenta dificultades y barreras que impiden el pleno disfrute de beneficios, derechos y libertades y que las desigualdades persisten en varios campos, afectando mayoritariamente a un grupo de población: las mujeres. Esa realidad implica que los proyectos, políticas, estrategias y acciones enfocadas en la promoción del desarrollo humano deben actuar con plena consciencia sobre esas desigualdades y procurar intervenciones más efectivas, que atiendan las necesidades e intereses diferenciados de hombres y mujeres y generen beneficios bajo criterios de igualdad. Para lograr tal fin, es necesario desvirtuar las intervenciones que asumen como ciertos los roles estereotipados de mujeres y hombres — desconociendo la existencia de relaciones, características, roles y responsabilidades diferenciadas por sexo — y adoptan fórmulas únicas para dar respuesta a problemas comunes, ya que no sólo no disminuyen las brechas de desigualdad entre los sexos si no que directa o indirectamente continúan perpetuándolas. ¿Por qué analizar el papel de la mujer en el desarrollo humano? Intentar entender la relación entre mujer y desarrollo humano es internarse en un complejo sistema de factores, causas y efectos que van desde intereses económicos y políticos hasta mitos y creencias socialmente aceptadas y reforzadas generacionalmente. A pesar de los avances logrados en los últimos años, aún hoy en muchos lugares del mundo siguen existiendo mujeres que se enfrentan a los estereotipos de género, las barreras sociales y culturales y una serie de situaciones desiguales que las hacen más propensas a la pobreza, más vulnerables y peor posicionadas en varios aspectos del desarrollo. Esa vulnerabilidad y empobrecimiento de las mujeres, también llamada feminización de la pobreza, es generalmente ocasionada por múltiple factores, entre los cuáles (FAO, 1998) cita: “Acceso limitado a los recursos de producción, a los servicios sociales, y comerciales; desempleo, subempleo y/o desigualdad en la remuneración; exclusión o limitada participación en los procesos de toma de decisiones y formulación de políticas; legislación desfavorable o discriminatoria…existencia y reproducción de la discriminación en el seno del hogar; creciente migración masculina y consecuente abandono de las mujeres e hijos...” adicionalmente los estereotipos, el sistema patriarcal y la privación de la mujer de sus derechos por medios violentos y de coacción le hacen aún más difícil avanzar hacia su desarrollo humano. Mantener, aproximadamente, al 50% de la población mundial en condiciones de desigualdad implica impactos negativos, no solo para las mujeres, sino para la eficiencia, el crecimiento económico y el desarrollo de la sociedad en su conjunto, que se dan por hechos como:  La correlación entre los bajos índices de desarrollo de las mujeres y los menores niveles de desarrollo alcanzados por sus hijos e hijas que se configuran como un mecanismo de reproducción de la pobreza de una generación a otra.  La correlación entre Índice de Desarrollo Humano (IDH) y el Índice de Potenciación de Género (IPG), que según datos del Programa de las Naciones Unidas para el Desarrollo (PNUD) sugieren que la igualdad de género va de la mano de mayores y mejores niveles de desarrollo de la sociedad.  La directa relación entre el papel de la mujer y su posibilidad para ejercer sus derechos y el logro de objetivos de desarrollo del milenio, en aspectos como el crecimiento demográfico.  La clara contribución de la mujer a la producción, la economía, el cuidado de la fuerza de trabajo y las futuras generaciones y el desarrollo comunitario. “La igualdad de género es parte de la economía inteligente: puede aumentar la eficiencia económica y mejorar otros resultados en materia de desarrollo de tres maneras distintas. En primer lugar, eliminar las barreras que impiden que las mujeres tengan el mismo acceso que los hombres a la educación, a las oportunidades económicas y a los insumos productivos puede dar lugar a aumentos generalizados de la productividad... En segundo lugar, mejorar el estatus absoluto y relativo de las mujeres promueve muchos otros resultados en materia de desarrollo, incluidos los que afectan a sus hijos e hijas. En tercer lugar, equilibrar la balanza —de manera que las mujeres y los hombres gocen de las mismas oportunidades de tener una actividad social y política, tomar decisiones y definir las políticas— probablemente conducirá con el tiempo al establecimiento de instituciones y opciones de política más representativas y más incluyentes, y por tanto a una vía más apropiada hacia el desarrollo. (Banco Mundial, 2012) En congruencia con todo lo anterior este trabajo busca entender la perspectiva de género y su influencia en el desarrollo humano de dos grupos de mujeres ubicadas en el estado de Alagoas en Brasil. Como punto de partida se definieron las siguientes preguntas de investigación: 1) ¿Los grupos analizados enfrentan desigualdades, en el contexto familiar y comunitario, por causa de su sexo? 2) ¿Qué factores están interfiriendo en el ejercicio de los derechos y libertades de las mujeres específicamente en las áreas de tiempo, trabajo, dinero y poder? 3) ¿Cuáles son las interrelaciones entre las áreas anteriormente mencionadas y el desarrollo de las mujeres? 4) ¿La situación de las mujeres y las relaciones de género guardan similitudes en contextos urbanos y rurales? Para lograr una respuesta aproximada a estas preguntas, se realizó un análisis de género utilizando la combinación de algunos aspectos del marco de Marco de Análisis de Género de Harvard y el Marco de Moser y se realizaron comparaciones entre dos grupos de mujeres de dos contextos geográficos diferentes, el rural y el urbano. Considerando la amplitud de las dimensiones de género que podrían ser incluidas, el análisis se realizó en torno a los aspectos de tiempo, trabajo, recursos financieros, participación y poder. La metodología utilizada incluyó siguientes herramientas: 1) Análisis del marco jurídico relativo a género 2) Análisis del contexto específico de cada grupo. 3) Aproximación a las necesidades e intereses de las mujeres 4) Análisis de roles y distribución sexual del trabajo 5) Análisis del acceso y control a los recursos 6) Aproximación al análisis de capacidad de las organizaciones responsables para trabajar con perspectiva de género. Con base en los resultados de estos análisis se aportan algunas recomendaciones para la disminución de esas brechas. 7) Análisis de brechas de género, mecanismos de reproducción e impactos en el desarrollo humano de las mujeres

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral busca estudiar el espacio desde la premisa de que el espacio es, fundamentalmente, lo intermedio. El entre, lo que hay entre las cosas mismas y que les da, precisamente, su definición como cosas en un constante proceso de delimitación. Este entre, lo que hay entre las cosas, no es sin embargo un resto que queda, sino bien al contrario el principio activo que hace que las cosas, desde lo que hay alrededor, se configuren en su ser sensible y puedan percibirse. El entre, lo intermedio, no es así una línea, un corte puro, sino un intervalo, un espacio en sí mismo, un ámbito en que se desarrolla un proceso. Es por tanto un espacio de formación, en el que las cosas aún no son y ya están siendo, un intervalo ambiguo pleno de virtualidades, unas desplegadas otras que permanecen en espera, siempre en movimiento. Es la hipótesis principal de esta tesis que en el llamado Movimiento Moderno en la arquitectura del siglo veinte esta condición ambigua del límite se pone de manifiesto como la raíz articuladora de los cambios espaciales y formales que definen su ser y su estética. Para desarrollar esta hipótesis, se parte de una doble premisa: por una parte, como un entre que es en sí misma, la arquitectura se encuentra delimitada por las disciplinas artísticas contemporáneas, especialmente pintura y escultura y a la vez las delimita. Por tanto, se explorarán una serie de momentos claves en las vanguardias de comienzos del siglo veinte en paralelo a una serie de arquitecturas contemporáneas para estudiar esta doble dialéctica entre límites. Por otra parte, y entendiendo que lo propio de la arquitectura es el espacio, se estudiarán en profundidad las concepciones espaciales que en la física y la estética del finales del siglo diecinueve y principios del veinte se desarrollan, para comprender cómo estas nuevas concepciones, centradas en las ideas de relatividad y de espacio-tiempo como magnitudes interlimitadas, determinan a su vez las concepciones espaciales que se desarrollan simultáneamente en las artes plásticas y en la arquitectura. La tríada espacio/tiempo/luz regirá este recorrido, en un doble camino: a través de la física y la teoría del arte, y a través de la arquitectura y las artes plásticas. Se trata por tanto de incardinar la arquitectura en su contexto artístico y científico, y comprobar cómo la comprensión del espacio como un entre, como un intervalo del límite y no como un absoluto trascendente, se generaliza en dichos ámbitos en una exploración paralela que condiciona los resultados en todos ellos y que define, por tanto, la arquitectura de la modernidad como una arquitectura del entre. El encuadre enmarca como motivo principal el Movimiento Moderno a través de la figura de Le Corbusier. Se muestra el modo en que los recursos y mecanismos empleados provocan el encuentro del espacio indecible a través de la polifonía de las artes. Desde el espaciamiento del límite, su borradura, su ambigüedad, producidos mediante el entrelazamiento de los recursos artísticos, la continuidad de lo lineal, el encabalgamiento, el maridaje, la ambivalencia, la relatividad del color y la luz, el intersticio. Ello se analiza a través de la obra de le Corbusier, destacando la dialéctica entre Le Cheminée y Nature morte aux nombreux objets; Ma maison y el pabellón del Zurichhorn; Unité y L’espace indicible. Aclaradas las premisas fundamentales y las consecuencias inmediatas para la arquitectura del Movimiento Moderno, la cuarta parte y final de la tesis, mucho más breve que las anteriores, expone una primera aproximación a las consecuencias que todo esto ha tenido en un momento liminal también: el comienzo de la postmodernidad. En realidad se trata de una apertura a lo que ha de venir, pues establecida la operatividad de la hipóteisi inicial, se trata aquí solamente de abrir el camino a una interpretación que en realidad escapa del alcance de esta tesis. Así se deja apuntado cómo, a través de la obra de tres arquitectos, teóricos y artistas trabajando en los años setenta y comienzos de los ochenta del pasado siglo, una comprensión más clara de la revolución moderna precipitada por esta nueva comprensión del espacio como límite-entre queda patente. Chamberworks de Daniel Libeskind, Wexner Center for the Visual Arts de Peter Eisenman y Manhattan Transcripts de Bernard Tschumi servirían de privilegiados ejemplo. Como queda patente que las consecuencias de todo ello aún las estamos sintiendo en nuestra contemporaneidad. ABSTRACT This thesis aims to study the space from the premise that space is mainly the in-between. The in-between, what is in-between the things themselves and gives them precisely its definition as things in a constant process of delimitation. This in-between, what is in between things, is not a remnant that remains, but on the contrary it is the active ingredient that produces things from what is around, that configures them in a sensitive to be perceived. The in-between, the intermediate, is not a line, a pure cut, but an interval, a space in itself, an area in which a process is developed. It is therefore a space in development, where things are still not and already been, delimiting an ambiguous range full of potentialities, some present and others that remain only as virtualities. It is the main hypothesis of this thesis that in the so-called Modern Movement in the architecture of the twentieth century this ambiguous boundary condition is revealed as the result of the articulatation of spatial and formal changes. To develop this hypothesis, I posit this double premise: On the one hand, as an in-between which is in itself, architecture is defined by contemporary artistic disciplines, especially painting and sculpture and simultaneously defines them. Therefore, a number of key moments in the avantgarde of the early twentieth century in parallel with a number of contemporary architecture to study this double dialectic between boundaries will be explored. On the other hand, and considering that the “essence” of the architecture is space, I will study in depth the spatial concepts in physics and aesthetics of late-nineteenth century and early twentieth century to understand how these new concepts centered on the ideas of relativity and space-time as interlimited magnitudes in turn determine the spatial conceptions that take place simultaneously in the visual arts and architecture. The space / time / light triad governs this journey in a double way: through physics and theory of art, and through architecture and the arts. The aim is to anchor architecture in its artistic and scientific context, and to see how the understanding of space as an in-between interval and not as an absolute transcendent determines the results in all of them, defining, therefore, the architecture of modernity as an architecture of the in-between. The frame of the study is centered in the modern movement through the figure of Le Corbusier and how rthe different resources and mechanisms employed provoke an unspeakable space of encounter through the polyphony of the arts. From the spacing of the limit, its erasure, its ambiguity, produced by the intertwining of artistic resources to continuity of the linear, the marriage, the ambivalence, the relativity of color and light, the gap. All this is analyzed through the work of Le Corbusier, highlighting the dialectic between Le Cheminée and Nature morte aux nombreux objets, Ma maison and Zürichhorn pavilion, Unité and L’espace indicible. Once the basic premises and immediate consequences for the architecture of the Modern Movement are set, the fourth and final part of the thesis aims to explore the impact that all this has had in another liminal time: the beginning of postmodernism. Of course, this part is shorter, in fact it is more a prospective survey and an opening of possibilities than a truly articulated body of theory, since the conceptual core of this thesis has been developed in the central part. Hence, through the work of three architects, theorists and artists working in the seventies and early eighties of last century, a clearer understanding of the modern revolution precipitated by this new understanding of space as a boundary- between is proposed. Chamberworks by Daniel Libeskind, Wexner Center for the Visual Arts by Peter Eisenman and Manhattan Transcripts by Bernard Tschumi will exemplify this approach. The consequences of all this are still haunting our contemporaneity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo desta pesquisa é colocar em relevo o processo de precarização e perda da autonomia do trabalho docente. Este processo está relacionado diretamente à centralização, no Estado de São Paulo, da política educacional. Esta centralização ocorreu de forma combinada com a desconcentração das tarefas administrativas e do financiamento do sistema. O conceito de descentralização, que é amplamente difundido na década de 1990 no ensino público, significa medidas no sentido de liberar o Estado das suas responsabilidades. O que não quer dizer, em absoluto, transferir para a comunidade escolar, como é propagandeado pela ideologia neoliberal, maior autonomia das unidades escolares. No Estado de São Paulo este processo de centralização do poder não ocorre apenas nas questões de administração escolar (atividade-meio), mas também sobre os principais elementos ligados ao processo de ensino-aprendizagem: currículo, formação docente e avaliação do ensino, por exemplo. Estes elementos foram combinados com a desconcentração das tarefas administrativas e de financiamento da escola. Para que o docente tenha autonomia e possa, efetivamente, contribuir de maneira significativa para a formação das novas gerações é imprescindível que participe diretamente do processo de construção curricular, da gestão escolar e, principalmente, da autogestão de seu trabalho. O problema que procuramos apontar é que as políticas educacionais não têm contribuído para estes objetivos. Vejamos: a avaliação externa que não se trata apenas de uma política aplicada no estado e nem em determinado governo é, na verdade, uma política de Estado; extrai do professor, em boa medida, o controle do processo de avaliação do ensino e da aprendizagem. O Regime de Progressão Continuada, instituído pelo Conselho Estadual de Educação, é um mecanismo para determinar a partir de cima a promoção indiscriminada dos alunos, confirmando a pseudo-autonomia dos docentes e dos Conselhos Gestores das Unidades Escolares. Faltam as condições materiais e espirituais para que os docentes possam desempenhar de forma adequada seu trabalho. Por isso, se faz necessária uma denúncia no sentido de que o professor está impossibilitado objetivamente de realizar o trabalho de maneira a contribuir para a formação integral dos alunos. As mudanças do ponto de vista estrutural só podem realizar-se a partir da luta político-social para quebrar a estrutura hierárquica construída no interior das escolas e sustentada nas demais instâncias do sistema de ensino e na sociedade. O trabalho docente precisa se realizar dentro de um ambiente que lhe permita, de fato, desenvolver a sua autonomia a partir de um processo de reflexão sobre sua prática e de uma prática orientada pela sua reflexão. Mas, se não adentramos na condição extremamente precária deste trabalho na atualidade - e esta precariedade não diz respeito apenas a fragmentos da totalidade dos problemas estruturais que envolvem o trabalho docente - não podemos contribuir para o real desenvolvimento da sua autonomia e da superação da crise estrutural da escola pública.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objetivo desta pesquisa é colocar em relevo o processo de precarização e perda da autonomia do trabalho docente. Este processo está relacionado diretamente à centralização, no Estado de São Paulo, da política educacional. Esta centralização ocorreu de forma combinada com a desconcentração das tarefas administrativas e do financiamento do sistema. O conceito de descentralização, que é amplamente difundido na década de 1990 no ensino público, significa medidas no sentido de liberar o Estado das suas responsabilidades. O que não quer dizer, em absoluto, transferir para a comunidade escolar, como é propagandeado pela ideologia neoliberal, maior autonomia das unidades escolares. No Estado de São Paulo este processo de centralização do poder não ocorre apenas nas questões de administração escolar (atividade-meio), mas também sobre os principais elementos ligados ao processo de ensino-aprendizagem: currículo, formação docente e avaliação do ensino, por exemplo. Estes elementos foram combinados com a desconcentração das tarefas administrativas e de financiamento da escola. Para que o docente tenha autonomia e possa, efetivamente, contribuir de maneira significativa para a formação das novas gerações é imprescindível que participe diretamente do processo de construção curricular, da gestão escolar e, principalmente, da autogestão de seu trabalho. O problema que procuramos apontar é que as políticas educacionais não têm contribuído para estes objetivos. Vejamos: a avaliação externa que não se trata apenas de uma política aplicada no estado e nem em determinado governo é, na verdade, uma política de Estado; extrai do professor, em boa medida, o controle do processo de avaliação do ensino e da aprendizagem. O Regime de Progressão Continuada, instituído pelo Conselho Estadual de Educação, é um mecanismo para determinar a partir de cima a promoção indiscriminada dos alunos, confirmando a pseudo-autonomia dos docentes e dos Conselhos Gestores das Unidades Escolares. Faltam as condições materiais e espirituais para que os docentes possam desempenhar de forma adequada seu trabalho. Por isso, se faz necessária uma denúncia no sentido de que o professor está impossibilitado objetivamente de realizar o trabalho de maneira a contribuir para a formação integral dos alunos. As mudanças do ponto de vista estrutural só podem realizar-se a partir da luta político-social para quebrar a estrutura hierárquica construída no interior das escolas e sustentada nas demais instâncias do sistema de ensino e na sociedade. O trabalho docente precisa se realizar dentro de um ambiente que lhe permita, de fato, desenvolver a sua autonomia a partir de um processo de reflexão sobre sua prática e de uma prática orientada pela sua reflexão. Mas, se não adentramos na condição extremamente precária deste trabalho na atualidade - e esta precariedade não diz respeito apenas a fragmentos da totalidade dos problemas estruturais que envolvem o trabalho docente - não podemos contribuir para o real desenvolvimento da sua autonomia e da superação da crise estrutural da escola pública.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho busca apresentar a relação entre retorno da religião e secularização no pensamento de Gianni Vattimo. O ponto de partida se dá na reflexão vattimiana sobre a superação da metafísica desde o anúncio nietzscheano da morte de Deus e do anúncio heideggeriano de fim da metafísica, ambos são equivalentes. O retorno da religião acontece em duas modalidades: na sociedade e na filosofia, como conseqüência da impossibilidade de um fundamento absoluto. A secularização, como enfraquecimento das estruturas metafísicas, está ao mesmo tempo na motivação do retorno da religião como em sua configuração.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho busca apresentar a relação entre retorno da religião e secularização no pensamento de Gianni Vattimo. O ponto de partida se dá na reflexão vattimiana sobre a superação da metafísica desde o anúncio nietzscheano da morte de Deus e do anúncio heideggeriano de fim da metafísica, ambos são equivalentes. O retorno da religião acontece em duas modalidades: na sociedade e na filosofia, como conseqüência da impossibilidade de um fundamento absoluto. A secularização, como enfraquecimento das estruturas metafísicas, está ao mesmo tempo na motivação do retorno da religião como em sua configuração.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal resíduo da indústria de café solúvel é a borra de café, gerada após a extração de sólidos solúveis com água, sendo usualmente queimada em caldeiras para geração de energia para a própria indústria. Entretanto, este co-produto pode conter de 15 a 20 % de óleo, componente de grande interesse na indústria alimentícia. Em paralelo, na indústria de produção de óleos vegetais o solvente frequentemente utilizado é o hexano. Contudo, por este ser um derivado de combustíveis fósseis, alternativas para sua substituição por solventes mais amigáveis ao meio ambiente, que podem ser obtidos por via biotecnológica, estão sendo estudadas. Deste modo, o objetivo principal desta dissertação de mestrado foi a viabilização técnica do emprego de solventes alcoólicos no processo de extração de óleo de borra de café proveniente da indústria de processamento de café solúvel. Foram realizadas extrações sólido-líquido em um estágio para estudar a influência das variáveis de processo temperatura (60 a 90 °C), tipo de solvente (etanol, ET ou isopropanol, IPA) e a hidratação do solvente (absoluto ou azeotrópico) nas características das fases extrato e rafinado, em termos de rendimento de extração de óleo, de ácidos clorogênicos (ACG), de carboidratos totais, teor de proteínas e índice de solubilidade de nitrogênio (ISN) da fase rafinado. Pré-tratamento enzimático ao processo de extração também foi realizado para investigar a sua atuação sobre o rendimento de extração de óleo e ACG, além do ISN das fases rafinado obtidas na temperatura de 70 °C. De forma geral, pode-se inferir que a temperatura favorece a extração de compostos lipídicos, mas a hidratação do solvente prejudica a extração destes compostos pelo aumento da polaridade do solvente. Do mesmo modo, como o ET é mais polar que o IPA, o primeiro solvente proporcionou a obtenção de menores rendimentos de extração de óleo. A temperatura de processo também influenciou a extração de ACG, a qual foi beneficiada a temperaturas mais baixas pelo aumento da polaridade dos solventes utilizados. De tal forma, que a 60 °C, nos experimentos utilizando etanol azeotrópico obteve-se os menores rendimentos de extração de óleo, porém maior rendimento de extração de ACG. O pré-tratamento enzimático apresentou diferenças significativas nas características das fases extrato e rafinado. No entanto, somente os experimentos com etanol absoluto resultaram em rendimentos de extração de óleo economicamente viáveis. De fato, será relevante um estudo mais aprofundado das variáveis de pré-tratamento enzimático para obter resultados mais expressivos em relação à extração de compostos lipídicos. Diante dos dados experimentais obtidos, conclui-se que é tecnicamente viável o emprego de solventes alcoólicos no processo de extração de óleo de borra de café. Entretanto, nota-se que as condições de processo devem ser avaliadas minuciosamente com o objetivo de se obter altos rendimentos de extração de óleo com maior teor de ACG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los años noventa del siglo XX, un conjunto de circunstancias en el panorama internacional abrieron paso a un nuevo perfil intervencionista de la ONU en la resolución de conflictos armados materializado en marcos de actuación significativamente más amplios y en la extensión a nuevos escenarios de intervención. Estas circunstancias estaban vinculadas fundamentalmente a un nuevo orden internacional salido de la guerra fría que, por una nueva primacía de la democracia y de los derechos humanos frente al principio absoluto de la no injerencia en los asuntos internos de los Estados, favoreció los mecanismos multilaterales de seguridad y de promoción de la paz. Sin embargo, la proliferación de nuevas intervenciones en este ámbito, lideradas por las Naciones Unidas y centradas ya no estrictamente en la contención de la violencia, sino en la transformación y resolución de sus causas, no se mostró siempre eficaz conduciendo frecuentemente a la reemergencia de situaciones de violencia. El presente trabajo de investigación tiene como finalidad comprobar que estas nuevas intervenciones para la resolución de conflictos armados intraestatales estuvieron inspiradas en un concepto muy propio de los estudios para la paz ofrecido por uno de sus padres fundadores (Johan Galtung) – la paz positiva – y que su impacto y grado de eficacia fueron tan más elevados cuanto el acercamiento a esta nueva propuesta de paz afectó no solamente su narrativa legitimadora, sino también a sus prácticas en el terreno. Quiere igualmente confirmar que dificultades encontradas en el terreno en la puesta en práctica de una paz positiva tienen que ver también con características endémicas de la ONU que, con frecuencia, obstaculizan proyectos de construcción de paz de trazos más locales y sostenibles. Como metodología, optamos por realizar un análisis comparativo de dos intervenciones para la paz lideradas por las Naciones Unidas en dos países – Guatemala y Haití – en donde la ONU asumió, en un primer momento, el rol de mediadora entre las partes respectivas para, posteriormente, implementar la paz salida de cada uno de los procesos de negociación por vía de la instauración de misiones de paz. Para llevar a cabo dicha investigación, aparte del uso de fuentes secundarias disponibles, fueron realizadas entrevistas en el terreno a actores locales e internacionales en los países en cuestión. Además, fue usado un conjunto de índices e indicadores que intentaron añadir un componente de carácter más cualitativo al análisis. Más allá de observar los procesos de paz en Guatemala y Haití a través de lentes internacionales, se buscaron referentes locales para evaluar el impacto de la intervención de la ONU en cada escenario. Verificamos que en Guatemala la propuesta de una paz sostenible facilitada por la mediación de la ONU y la consecuente instauración de la MINUGUA, aunque con sus debilidades propias, fue extensiblemente más eficaz que la alcanzada en Haití, sostenida por un proceso de mediación frágil y por una sucesión de misiones de paz no exitosas, fracaso evidenciado por el regreso a la violencia diez años después. Los resultados de esta investigación plantean que, por haber cumplido más fielmente con los principios de la propuesta de la paz positiva en la resolución de la guerra civil en Guatemala, facilitando un amplio diálogo nacional, integrador y local sobre las causas del conflicto, la ONU permitió generar semillas de paz más sostenibles. Por el contrario, en Haití, las Naciones Unidas, con su estructura rígida y extremamente dependiente de sus Estados miembros, encontraron serias dificultades en atraer a las partes a una solución pacífica sostenible en el tiempo. Más que un interviniente secundario en los procesos en los que actúa, la ONU tiene a su disposición mecanismos y recursos que condicionan con significativa influencia los resultados de paz alcanzados, fenómeno que sugiere la necesidad de una reflexión crítica sobre su intervención en pro de la paz, sus fortalezas y debilidades, de forma que se potencie un desempeño más eficaz de la Organización en la búsqueda de modelos de paz más fecundos y duraderos a largo plazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença hepática gordurosa não alcoólica (DHGNA) abrange alterações desde esteatose até esteato-hepatite não alcoólica (EHNA), podendo evoluir para fibrose, cirrose e carcinoma hepatocelular. A DHGNA é considerada a doença hepática mais comum na atualidade e com prevalência mundial alarmante. Esta doença caracteriza-se, basicamente, pela deposição de triglicérides nos hepatócitos, podendo evoluir com inflamação e fibrose, e está intimamente associada com resistência à insulina (RI), diabetes mellitus tipo 2 e obesidade. Os hepatócitos representam as principais células hepáticas e se comunicam através de junções do tipo gap, formadas principalmente por conexina 32 (Cx32). Esta proteína apresenta importante função no controle da homeostase tecidual, regulando processos fisiológicos e tem sido associada como agente protetor na hepatocarcinogênese e outros processos patológicos, porem pouco se sabe sobre sua participação na DHGNA. Sendo assim, o objetivo deste trabalho foi avaliar a participação da Cx32 na fisiopatogênese da DHGNA, utilizando camundongos knockout para Cx32 (Cx32-KO) submetidos a uma dieta hiperlipídica deficiente em colina. Foram analisados dados biométricos, histopatológicos, função hepática, RI, citocinas inflamatórias, adipocinas, estresse oxidativo, peroxidação lipídica e a expressão de genes envolvidos na DHGNA. Os animais Cx32-KO apresentaram maior acumulo de triglicérides hepáticos em relação aos animais selvagens e, consequentemente, maior peso absoluto e relativo do fígado. Adicionalmente, apresentaram maior inflamação hepática demonstrado pela exacerbação da citocina TNF-α e supressão da IL-10, maior dano hepatocelular indicado pelo aumento das enzimas AST e ALT, aumento da peroxidação lipídica e alterações na expressão de genes chaves na fisiopatogênese da DHGNA, como SREBP1c. No entanto, não houve diferença nos marcadores histopatológicos, RI e estresse oxidativo hepático. Por fim, os animais Cx32-KO apresentaram maior produção de leptina e adiponectina no tecido adiposo. Todos esses resultados revelam que a Cx32 pode atuar como um agente protetor ao desenvolvimento da DHGNA, sugerindo seu potencial como novo alvo terapêutico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los principales objetivos de esta investigación fueron: (1) identificar los Términos de Color Básicos (TCBs) utilizados en tres versiones (o dialectos) del idioma Español (Castellano, Mejicano y Uruguayo). (2) Realizar la delimitación colorimétrica de las Categorías de Color Básicas (CCBs) asociadas a tales términos. (3) Determinar si en las tres versiones del Español hay CCBs comunes pero que se asocian a TCBs distintos. (4) Evaluar la posible existencia de diferencias relevantes entre hombres y mujeres en TCBs y CCBs. (5) Evaluar la adecuación de las conclusiones obtenidas en el estudio de Lillo et al (2007) en relación con los TCBs y CCB de las tres versiones Español. La investigación requirió la realización de dos cuasi-experimentos. El primero consistió en una aplicación de la técnica de las listas elicitadas, realizada en tres universidades, y que implicó un total de 201 participantes, carentes de alteraciones en la percepción del color. Tales universidades fueron la Complutense de Madrid (España, n=47); La Universidad de Guadalajara (Méjico, n=97); La Universidad de la República (Montevideo, Uruguay, n=57). Las listas elicitadas indicaron que existían 14 TCBs, en el conjunto de las tres versiones del Español estudiadas. Nueve de tales términos aparecieron en las tres versiones: verde, azul, rojo, amarillo, negro, blanco, gris, naranja y rosa. Los otros cinco sólo fueron básicos para una o dos de las versiones: marrón para el Castellano y el Uruguayo; café para el Mejicano; morado para el Castellano y el Mejicano; violeta y celeste para el Uruguayo. Dos fueron las variables dependientes proporcionadas por las listas elicitadas: La frecuencia de aparición (número de listas en los que aparecía un término); el orden de aparición (orden relativo y absoluto) de un término en cada lista. Los términos primarios (cromáticos y acromáticos) tuvieron frecuencias significativamente mayores que los derivados. Por otra parte, los términos primarios cromáticos aparecieron significativamente antes que los restantes TCBs...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas elétricos de potência modernos apresentam inúmeros desafios em sua operação. Nos sistemas de distribuição de energia elétrica, devido à grande ramificação, presença de extensos ramais monofásicos, à dinâmica das cargas e demais particularidades inerentes, a localização de faltas representa um dos maiores desafios. Das barreiras encontradas, a influência da impedância de falta é uma das maiores, afetando significativamente a aplicação dos métodos tradicionais na localização, visto que a magnitude das correntes de falta é similar à da corrente de carga. Neste sentido, esta tese objetivou desenvolver um sistema inteligente para localização de faltas de alta impedância, o qual foi embasado na aplicação da técnica de decomposição por componentes ortogonais no pré-processamento das variáveis e inferência fuzzy para interpretar as não-linearidades do Sistemas de Distribuição com presença de Geração Distribuída. Os dados para treinamento do sistema inteligente foram obtidos a partir de simulações computacionais de um alimentador real, considerando uma modelagem não-linear da falta de alta impedância. O sistema fuzzy resultante foi capaz de estimar as distâncias de falta com um erro absoluto médio inferior a 500 m e um erro absoluto máximo da ordem de 1,5 km, em um alimentador com cerca de 18 km de extensão. Tais resultados equivalem a um grau de exatidão, para a maior parte das ocorrências, dentro do intervalo de ±10%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: A infecção por HIV-1 é um grave problema de saúde pública causando elevada taxa de morbidade e mortalidade. Entretanto, alguns indivíduos são considerados resistentes à infecção por HIV-1, mesmo após repetidas exposições ao vírus. Vários fatores imunológicos e genéticos podem estar associados a resistência à infecção, como ativação de componentes da imunidade inata e também devido ao baixo perfil de ativação das células T. É possível que nos indivíduos expostos e não infectados por HIV-1 (ENI) ocorra uma importante atuação das células T secretoras de IL-17 e IL-22, e também as células T reguladoras, pois são necessárias para a manutenção e homeostase das mucosas associadas ao intestino (GALT). OBJETIVO: Avaliar o fenótipo e a função de células TCD4+ e TCD8+ em casais sorodiscordante ao HIV-1, compostos por indivíduos ENI e os parceiros infectados por HIV-1. MÉTODOS: Os casais sorodiscordantes ao HIV-1, consistiam de 23 indivíduos expostos não-infectados (ENI), 14 mulheres e 9 homens, com mediana de 41 anos e 21 parceiros infectados por HIV-1 (HIV), 20 homens e 1 mulher com mediana de 41 anos. Os controles saudáveis foram 24 indivíduos (14 mulheres e 10 homens) com mediana de 37 anos. Os casais sorodiscordantes foram compostos por 16 heterossexuais e 7 homossexuais, com tempo de relacionamento de 13 anos. As frequências de células Th17, Th22 e Tc22, as células T polifuncionais foram analisadas em células mononucleares (CMNs) do sangue periférico, estimulados com peptídeos da região Gag do HIV-1 e da enterotoxina B do Staphylococcus aureus (SEB), a frequência de células T reguladoras, o perfil fenotípico de exaustão/diferenciação e a expressão da integrina alfa4?7 e CCR9 em células T, foram realizados por citometria de fluxo. RESULTADOS: No grupo HIV, as células T CD4+ e CD8+ do sangue periférico mostrou maior frequência de CD95 e PD-1 e baixa expressão de CD127 comparado ao grupo ENI e controle. A frequência de células Th17 em CMNs aumentou nos grupos ENI e HIV-1 na condição sem estímulo, contudo, após estímulo com os peptídeos da região p24 da Gag do HIV-1 induziu resposta somente no grupo HIV-1. O grupo ENI mostrou resposta antígeno-especifica somente para IL-22. Além disto, avaliando as células Tc22 e Th22, foi verificado aumento da resposta aos peptídeos da Gag e também ao SEB, nos grupos HIV e ENI. A presença de células T polifuncionais antígeno-especificas, secretoras de 5-4 citocinas, foi detectada apenas em células T CD38+ no grupo HIV, enquanto os indivíduos ENI mostraram resposta polifuncional por células T CD38- somente ao estímulo policlonal por SEB. Uma diminuição do número absoluto de células T reguladoras (CD4+CD25+CD127low/-Foxp3+) foi detectada no grupo HIV comparado ao ENI e controle, com maior expressão de moléculas HLA-DR e CD95. Além disto, foi detectado diminuição na frequência de células TCD8+ ?4?7+ no grupo ENI e de células TCD4+ alfa4beta7+ nos grupos ENI e HIV. Houve uma correlação positiva entre as células Tc22 e Th22 com as células TCD8+ e TCD4+ que expressam alfa4beta7, no grupo ENI e HIV-1. CONCLUSÃO: Os indivíduos ENI são capazes de desenvolver resposta antígeno-específicas relacionadas com a IL-22, que possui importante função na imunidade de mucosas. Além disto, mostram presença de células T polifuncionais com baixo perfil de ativação a estímulo policlonal. Os dados evidenciam que os indivíduos ENI, mostram indução de células Tc22, aumento de expressão de moléculas de migração para o intestino e equilíbrio entre as células efetoras e Treg, que em conjunto, devem exercer importante papel para a resistência à infecção por HIV-1