994 resultados para Electrovibração inversa


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La importantísima expansión urbana que sufren las principales ciudades de los países en vías de desarrollo, es el mayor reto que afronta la habitabilidad a nivel mundial. Dentro de la teoría general de la Habitabilidad Básica (HaB-ETSAM-UPM, 1995) la ordenación del territorio y el planeamiento urbanístico son las herramientas determinantes para orientar coherentemente los procesos de urbanización, como se reconoce también desde las principales esferas técnicas a nivel internacional. Pero tales herramientas deben enfocarse a una construcción eficiente del territorio, actuando desde una aproximación multidisciplinar, flexible y directa, que incida en las prioridades específicas de cada contexto. Para ello, resulta fundamental comprender a fondo las realidades específicas de estos ámbitos. La ciudad es un fenómeno complejo en esencia. El tejido construido, en constante proceso de cambio, es el caparazón visible que alberga una maravillosa mezcla entrelazada de espacios, funciones, flujos, personas.... Cada ciudad, diferente y única, se integra en su medio, se adapta a geografías, contextos y climas distintos, evoluciona según dinámicas propias, en incomprensibles (o casi) procesos evolutivos. El estudio de la ciudad, supone siempre una simplificación de la misma. La realidad urbana, por detallado que sea nuestro análisis, siempre contendrá indescifrables relaciones que se nos escapan. En cambio, necesitamos de métodos analíticos que nos ayuden a comprender algo esa complejidad. Acercarnos en ese análisis, es un paso previo fundamental para la formulación de respuestas. En este plano, de avance en la comprensión del hecho urbano, se sitúa este trabajo. Se pone el acento en el enfoque cuantitativo, profundizando en datos básicos concretos, siempre aceptando de partida que esta información es una componente mínima, pero esperamos que sustantiva, de un fenómeno inabordable. Y es esta búsqueda de comprensión material y cuantitativa de la ciudad, el objetivo esencial de la investigación. Se pretende proporcionar una base detallada de aquéllos aspectos fundamentales, que pueden ser medidos en los entornos urbanos y que nos proporcionan información útil para el diagnóstico y las propuestas. Para ello, se aportan rangos y referencias deseables, a través de una herramienta para la comprensión y la valoración de cada contexto, la Matriz de Indicadores. Esta herramienta se concibe desde la reflexión a la aplicación práctica, a la utilidad directa, al aporte concreto para quien pueda servir. Ésta es la voluntad decidida con la que se aborda este trabajo, centrado en los entornos urbanos donde el aporte técnico es prioritario: la Ciudad Informal. La Ciudad Informal, entendida aquí como aquélla que se desarrolla sin los medios suficientes (técnicos, económicos e institucionales) que proporciona la planificación, aquélla por donde la habitabilidad precaria se extiende. Es la ciudad que predomina en los países en vías de desarrollo, en los contextos de bajos recursos, allí donde, precisamente, se concentran los principales déficits y necesidades a nivel global. El enfoque nace de la teoría de la Habitabilidad Básica, de la definición de mínimos posibles para, desde allí, construir el espacio necesario para el desarrollo humano. Éste es el ámbito genérico objeto del trabajo que, a su vez, se nutre, de forma muy importante, de la experiencia directa en la ciudad de Makeni, en Sierra Leona. Esta ciudad nos sirve de prototipo experimental en un doble sentido. Por un lado, sirve como espacio empírico en el que chequear la metodología de valoración cuantitativa; y, por otro, el conocimiento de esta ciudad de tamaño medio africana, que se ha ido adquiriendo en los últimos cinco años, es una base directa para el desarrollo teórico de la propia metodología, que ayuda a atisbar lo esencial en contextos similares. El encaje de todo este recorrido se ha articulado desde una experiencia académica que, como docente, he coordinado directa e intensamente. Experiencia muy enriquecedora, que ha sumado muchas manos y mucho aprendizaje en este tiempo. Teoría y práctica en planeamiento urbano se alternan en el trabajo, nutriéndose la una de la otra y a la inversa. Trabajo que nace desde la pasión por la ciudad y el urbanismo. Desde la búsqueda por comprender y desde la vocación de actuar, de intentar mejorar y hacer más habitables los entornos urbanos. Especialmente allí donde las dificultades se agolpan y el camino se alarga, se llena de polvo. Acumular preguntas a cada paso. Cada vez más preguntas. Las respuestas, si existen, aparecen entrelazadas en dinámicas indescifrables de las que queremos formar parte. Fundirnos por momentos en la misma búsqueda, acompañarla. Sentirnos cerca de quiénes comienzan de cero casi cada día. Y otra vez, arrancar. Y compartir, desde el conocimiento, si acaso es que se puede. Y la ciudad. Brutal, imponente, asfixiante, maravillosa, imposible. Creación colectiva insuperable, de energías sumadas que se cosen sin patrón aparente. O sin más razón que la del propio pulso de la vida. Así se siente Makeni. ABSTRACT The important urban growth suffering major cities of developing countries, is the biggest challenge facing the global habitability. Within the general theory of Basic Habitability (HAB-ETSAM-UPM, 1995) spatial planning and urban planning are the crucial tools to consistently guide the urbanization process, as also recognized from the main technical areas worldwide. But such tools should focus on an efficient construction of the territory, working from a multidisciplinary, flexible and direct approach, that affects the specific priorities of each context. To do this, it is essential to thoroughly understand the specific realities of these areas. The city is essentially a complex phenomenon. The urban fabric in constant flux, is the visible shell that houses a wonderful mixture interlocking spaces, functions, flows, people.... Every city, different and unique, is integrated into its environment, adapted to geographies, contexts and climates, it evolves according to its own dynamics, along (almost) incomprehensible evolutionary processes. The study of the city, is always a simplification of it. The urban reality, even studied from a detailed analysis, always contain undecipherable relationships that escape us. Instead, we need analytical methods that help us understand something that complexity. Moving forward in this analysis is an essential first step in formulating responses. At this level, progressing in understand the urban reality, is where this work is located. The emphasis on the quantitative approach is placed, delving into specific basic data, starting always accepting that this information is just a minimal component, but we hope that substantive, of an intractable phenomenon. And it is this search for materials and quantitative understanding of the city, the main objective of the research. It is intended to provide a detailed basis of those fundamental aspects that can be measured in urban environments that provide us useful information for the diagnosis and proposals. To do this, desirable ranges and references are provided, through a tool for understanding and appreciation of each context, the Indicator Matrix. This tool is conceived from reflection to practical application, to a direct utility, concrete contribution to who can serve. This is the firm resolve with which this work is addressed, centered in urban environments where the technical contribution is a priority: the Informal City. The Informal City, understood here as the urban areas developed without the sufficient resources (technical, economic and institutional) which planning provides, where it is extended the precarious habitability. It is the city that prevails in developing countries, in low-resource settings, where, precisely, the main gaps and needs in the global context are concentrated. The approach stems from the theory of Basic Habitability, the definition of possible minimum, to build the necessary space for human development. This is the generic scope of the work object, that is also based in the direct experience in the town of Makeni, Sierra Leone. This city serves as an experimental prototype in two ways. On the one hand, it serves as a space where empirically check the quantitative assessment methodology; and, secondly, the knowledge of this African city of medium size, which has been acquired in the last five years, is a direct basis for the theoretical development of the methodology itself, which helps to glimpse the essence in similar contexts. The engagement of this whole journey has been articulated from an academic experience, directly and intensely coordinated as teacher. Enriching experience that has added many hands and much learning at this time. Theory and practice in urban planning are mixed at work, enriching the one of the other and vice versa. Work is born from the passion for the city and urbanism. From the search for understanding and from the vocation of acting, trying to improve and make more livable urban environments. Especially where the difficulties are crowded and the road is so long, full of dust. To accumulate questions at every turn. More and more questions. The answers, if do exist, appears inside indecipherable dynamics in which we want to be involved. Merge at times in the same search. Feel close to those who start from scratch almost every day. And again, move forward. And share, from knowledge, if possible. And the city. Brutal, impressive, suffocating, wonderful, impossible. Unsurpassed collective creation, combined energy mix that are sewn with no apparent pattern. Or for no reason other than the pulse of life itself. As it feels the city of Makeni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se va a realizar un estudio de la codificación de imágenes sobre el estándar HEVC (high-effiency video coding). El proyecto se va a centrar en el codificador híbrido, más concretamente sobre la aplicación de la transformada inversa del coseno que se realiza tanto en codificador como en el descodificador. La necesidad de codificar vídeo surge por la aparición de la secuencia de imágenes como señales digitales. El problema principal que tiene el vídeo es la cantidad de bits que aparecen al realizar la codificación. Como consecuencia del aumento de la calidad de las imágenes, se produce un crecimiento exponencial de la cantidad de información a codificar. La utilización de las transformadas al procesamiento digital de imágenes ha aumentado a lo largo de los años. La transformada inversa del coseno se ha convertido en el método más utilizado en el campo de la codificación de imágenes y video. Las ventajas de la transformada inversa del coseno permiten obtener altos índices de compresión a muy bajo coste. La teoría de las transformadas ha mejorado el procesamiento de imágenes. En la codificación por transformada, una imagen se divide en bloques y se identifica cada imagen a un conjunto de coeficientes. Esta codificación se aprovecha de las dependencias estadísticas de las imágenes para reducir la cantidad de datos. El proyecto realiza un estudio de la evolución a lo largo de los años de los distintos estándares de codificación de video. Se analiza el codificador híbrido con más profundidad así como el estándar HEVC. El objetivo final que busca este proyecto fin de carrera es la realización del núcleo de un procesador específico para la ejecución de la transformada inversa del coseno en un descodificador de vídeo compatible con el estándar HEVC. Es objetivo se logra siguiendo una serie de etapas, en las que se va añadiendo requisitos. Este sistema permite al diseñador hardware ir adquiriendo una experiencia y un conocimiento más profundo de la arquitectura final. ABSTRACT. A study about the codification of images based on the standard HEVC (high-efficiency video coding) will be developed. The project will be based on the hybrid encoder, in particular, on the application of the inverse cosine transform, which is used for the encoder as well as for the decoder. The necessity of encoding video arises because of the appearance of the sequence of images as digital signals. The main problem that video faces is the amount of bits that appear when making the codification. As a consequence of the increase of the quality of the images, an exponential growth on the quantity of information that should be encoded happens. The usage of transforms to the digital processing of images has increased along the years. The inverse cosine transform has become the most used method in the field of codification of images and video. The advantages of the inverse cosine transform allow to obtain high levels of comprehension at a very low price. The theory of the transforms has improved the processing of images. In the codification by transform, an image is divided in blocks and each image is identified to a set of coefficients. This codification takes advantage of the statistic dependence of the images to reduce the amount of data. The project develops a study of the evolution along the years of the different standards in video codification. In addition, the hybrid encoder and the standard HEVC are analyzed more in depth. The final objective of this end of degree project is the realization of the nucleus from a specific processor for the execution of the inverse cosine transform in a decoder of video that is compatible with the standard HEVC. This objective is reached following a series of stages, in which requirements are added. This system allows the hardware designer to acquire a deeper experience and knowledge of the final architecture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis se centra en el análisis de dos aspectos complementarios de la ciberdelincuencia (es decir, el crimen perpetrado a través de la red para ganar dinero). Estos dos aspectos son las máquinas infectadas utilizadas para obtener beneficios económicos de la delincuencia a través de diferentes acciones (como por ejemplo, clickfraud, DDoS, correo no deseado) y la infraestructura de servidores utilizados para gestionar estas máquinas (por ejemplo, C & C, servidores explotadores, servidores de monetización, redirectores). En la primera parte se investiga la exposición a las amenazas de los ordenadores victimas. Para realizar este análisis hemos utilizado los metadatos contenidos en WINE-BR conjunto de datos de Symantec. Este conjunto de datos contiene metadatos de instalación de ficheros ejecutables (por ejemplo, hash del fichero, su editor, fecha de instalación, nombre del fichero, la versión del fichero) proveniente de 8,4 millones de usuarios de Windows. Hemos asociado estos metadatos con las vulnerabilidades en el National Vulnerability Database (NVD) y en el Opens Sourced Vulnerability Database (OSVDB) con el fin de realizar un seguimiento de la decadencia de la vulnerabilidad en el tiempo y observar la rapidez de los usuarios a remiendar sus sistemas y, por tanto, su exposición a posibles ataques. Hemos identificado 3 factores que pueden influir en la actividad de parches de ordenadores victimas: código compartido, el tipo de usuario, exploits. Presentamos 2 nuevos ataques contra el código compartido y un análisis de cómo el conocimiento usuarios y la disponibilidad de exploit influyen en la actividad de aplicación de parches. Para las 80 vulnerabilidades en nuestra base de datos que afectan código compartido entre dos aplicaciones, el tiempo entre el parche libera en las diferentes aplicaciones es hasta 118 das (con una mediana de 11 das) En la segunda parte se proponen nuevas técnicas de sondeo activos para detectar y analizar las infraestructuras de servidores maliciosos. Aprovechamos técnicas de sondaje activo, para detectar servidores maliciosos en el internet. Empezamos con el análisis y la detección de operaciones de servidores explotadores. Como una operación identificamos los servidores que son controlados por las mismas personas y, posiblemente, participan en la misma campaña de infección. Hemos analizado un total de 500 servidores explotadores durante un período de 1 año, donde 2/3 de las operaciones tenían un único servidor y 1/2 por varios servidores. Hemos desarrollado la técnica para detectar servidores explotadores a diferentes tipologías de servidores, (por ejemplo, C & C, servidores de monetización, redirectores) y hemos logrado escala de Internet de sondeo para las distintas categorías de servidores maliciosos. Estas nuevas técnicas se han incorporado en una nueva herramienta llamada CyberProbe. Para detectar estos servidores hemos desarrollado una novedosa técnica llamada Adversarial Fingerprint Generation, que es una metodología para generar un modelo único de solicitud-respuesta para identificar la familia de servidores (es decir, el tipo y la operación que el servidor apartenece). A partir de una fichero de malware y un servidor activo de una determinada familia, CyberProbe puede generar un fingerprint válido para detectar todos los servidores vivos de esa familia. Hemos realizado 11 exploraciones en todo el Internet detectando 151 servidores maliciosos, de estos 151 servidores 75% son desconocidos a bases de datos publicas de servidores maliciosos. Otra cuestión que se plantea mientras se hace la detección de servidores maliciosos es que algunos de estos servidores podrán estar ocultos detrás de un proxy inverso silente. Para identificar la prevalencia de esta configuración de red y mejorar el capacidades de CyberProbe hemos desarrollado RevProbe una nueva herramienta a través del aprovechamiento de leakages en la configuración de la Web proxies inversa puede detectar proxies inversos. RevProbe identifica que el 16% de direcciones IP maliciosas activas analizadas corresponden a proxies inversos, que el 92% de ellos son silenciosos en comparación con 55% para los proxies inversos benignos, y que son utilizado principalmente para equilibrio de carga a través de múltiples servidores. ABSTRACT In this dissertation we investigate two fundamental aspects of cybercrime: the infection of machines used to monetize the crime and the malicious server infrastructures that are used to manage the infected machines. In the first part of this dissertation, we analyze how fast software vendors apply patches to secure client applications, identifying shared code as an important factor in patch deployment. Shared code is code present in multiple programs. When a vulnerability affects shared code the usual linear vulnerability life cycle is not anymore effective to describe how the patch deployment takes place. In this work we show which are the consequences of shared code vulnerabilities and we demonstrate two novel attacks that can be used to exploit this condition. In the second part of this dissertation we analyze malicious server infrastructures, our contributions are: a technique to cluster exploit server operations, a tool named CyberProbe to perform large scale detection of different malicious servers categories, and RevProbe a tool that detects silent reverse proxies. We start by identifying exploit server operations, that are, exploit servers managed by the same people. We investigate a total of 500 exploit servers over a period of more 13 months. We have collected malware from these servers and all the metadata related to the communication with the servers. Thanks to this metadata we have extracted different features to group together servers managed by the same entity (i.e., exploit server operation), we have discovered that 2/3 of the operations have a single server while 1/3 have multiple servers. Next, we present CyberProbe a tool that detects different malicious server types through a novel technique called adversarial fingerprint generation (AFG). The idea behind CyberProbe’s AFG is to run some piece of malware and observe its network communication towards malicious servers. Then it replays this communication to the malicious server and outputs a fingerprint (i.e. a port selection function, a probe generation function and a signature generation function). Once the fingerprint is generated CyberProbe scans the Internet with the fingerprint and finds all the servers of a given family. We have performed a total of 11 Internet wide scans finding 151 new servers starting with 15 seed servers. This gives to CyberProbe a 10 times amplification factor. Moreover we have compared CyberProbe with existing blacklists on the internet finding that only 40% of the server detected by CyberProbe were listed. To enhance the capabilities of CyberProbe we have developed RevProbe, a reverse proxy detection tool that can be integrated with CyberProbe to allow precise detection of silent reverse proxies used to hide malicious servers. RevProbe leverages leakage based detection techniques to detect if a malicious server is hidden behind a silent reverse proxy and the infrastructure of servers behind it. At the core of RevProbe is the analysis of differences in the traffic by interacting with a remote server.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesis doctoral se centra en la posibilidad de entender que la práctica de arquitectura puede encontrar en las prácticas comunicativas un apoyo instrumental, que sobrepasa cualquier simplificación clásica del uso de los medios como una mera aplicación superficial, post-producida o sencillamente promocional. A partir de esta premisa se exponen casos del último cuarto del siglo XX y se detecta que amenazas como el riesgo de la banalización, la posible saturación de la imagen pública o la previsible asociación incorrecta con otros individuos en presentaciones grupales o por temáticas, han podido influir en un crecimiento notable de la adquisición de control, por parte de los arquitectos, en sus oportunidades mediáticas. Esto es, como si la arquitectura hubiera empezado a superar y optimizar algo inevitable, que las fórmulas expositivas y las publicaciones, o más bien del exponer(se) y publicar(se), son herramientas disponibles para activar algún tipo de gestión intelectual de la comunicación e información circulante sobre si misma. Esta práctica de “autoedición” se analiza en un periodo concreto de la trayectoria de OMA -Office for Metropolitan Architecture-, estudio considerado pionero en el uso eficiente, oportunista y personalizado de los medios. Así, la segunda parte de la tesis se ocupa del análisis de su conocida monografía S,M,L,XL (1995), un volumen que contó con gran participación por parte de sus protagonistas durante la edición, y de cuyo proceso de producción apenas se había investigado. Esta publicación señaló un punto de inflexión en su género alterando todo formato y restricciones anteriores, y se ha convertido en un volumen emblemático para la disciplina que ninguna réplica posterior ha podido superar. Aquí se presenta a su vez como el desencadenante de la construcción de un “gran evento” que concluye en la transformación de la identidad de OMA en 10 años, paradójicamente entre el nacimiento de la Fundación Groszstadt y el arranque de la actividad de AMO, dos entidades paralelas clave anexas a OMA. Este planteamiento deviene de cómo la investigación desvela que S,M,L,XL es una pieza más, central pero no independiente, dentro de una suma de acciones e individuos, así como otras publicaciones, exposiciones, eventos y también artículos ensayados y proyectos, en particular Bigness, Generic City, Euralille y los concursos de 1989. Son significativos aspectos como la apertura a una autoría múltiple, encabezada por Rem Koolhaas y el diseñador gráfico Bruce Mau, acompañados en los agradecimientos de la editora Jennifer Sigler y cerca de una centena de nombres, cuyas aportaciones no necesariamente se basan en la construcción de fragmentos del libro. La supresión de ciertos límites permite superar también las tareas inicialmente relevantes en la edición de una publicación. Un objetivo general de la tesis es también la reflexión sobre relaciones anteriormente cuestionadas, como la establecida entre la arquitectura y los mercados o la economía. Tomando como punto de partida la idea de “design intelligence” sugerida por Michael Speaks (2001), se extrae de sus argumentos que lo esencial es el hallazgo de la singularidad o inteligencia propia de cada estudio de arquitectura o diseño. Asimismo se explora si en la construcción de ese tipo de fórmulas magistrales se alojaban también combinaciones de interés y productivas entre asuntos como la eficiencia y la creatividad, o la organización y las ideas. En esta dinámica de relaciones bidireccionales, y en ese presente de exceso de información, se fundamenta la propuesta de una equivalencia más evidenciada entre la “socialización” del trabajo del arquitecto, al compartirlo públicamente e introducir nuevas conversaciones, y la relación inversa a partir del trabajo sobre la “socialización” misma. Como si la consciencia sobre el uso de los medios pudiera ser efectivamente instrumental, y contribuir al desarrollo de la práctica de arquitectura, desde una perspectiva idealmente comprometida e intelectual. ABSTRACT The dissertation argues the possibility to understand that the practice of architecture can find an instrumental support in the practices of communication, overcoming any classical simplification of the use of media, generally reduced to superficial treatments or promotional efforts. Thus some cases of the last decades of the 20th century are presented. Some threats detected, such as the risk of triviality, the saturation of the public image or the foreseeable wrong association among individuals when they are introduced as part of thematic groups, might have encouraged a noticeable increase of command taken by architects when there is chance to intervene in a media environment. In other words, it can be argued that architecture has started to overcome and optimize the inevitable, the fact that exhibition formulas and publications, or simply the practice of (self)exhibition or (self)publication, are tools at our disposal for the activation of any kind of intellectual management of communication and circulating information about itself. This practice of “self-edition” is analyzed in a specific timeframe of OMA’s trajectory, an office that is considered as a ground-breaking actor in the efficient and opportunistic use of media. Then the second part of the thesis dissects their monograph S,M,L,XL (1995), a volume in which its main characters were deeply involved in terms of edition and design, a process barely analyzed up to now. This publication marked a turning point in its own genre, disrupting old formats and traditional restrictions. It became such an emblematic volume for the discipline that none of the following attempts of replica has ever been able to improve this precedent. Here, the book is also presented as the element that triggers the construction of a “big event” that concludes in the transformation of OMA identity in 10 years. Paradoxically, between the birth of the Groszstadt Foundation and the early steps of AMO, both two entities parallel and connected to OMA. This positions emerge from how the research unveils that S,M,L,XL is one more piece, a key one but not an unrelated element, within a sum of actions and individuals, as well as other publications, exhibitions, articles and projects, in particular Bigness, Generic City, Euralille and the competitions of 1989. Among the remarkable innovations of the monograph, there is an outstanding openness to a regime of multiple authorship, headed by Rem Koolhaas and the graphic designer Bruce Mau, who share the acknowledgements page with the editor, Jennifer Sigler, and almost 100 people, not necessarily responsible for specific fragments of the book. In this respect, the dissolution of certain limits made possible that the expected tasks in the edition of a publication could be trespassed. A general goal of the thesis is also to open a debate on typically questioned relations, particularly between architecture and markets or economy. Using the idea of “design intelligence”, outlined by Michael Speaks in 2001, the thesis pulls out its essence, basically the interest in detecting the singularity, or particular intelligence of every office of architecture and design. Then it explores if in the construction of this kind of ingenious formulas one could find interesting and useful combinations among issues like efficiency and creativity, or organization and ideas. This dynamic of bidirectional relations, rescued urgently at this present moment of excess of information, is based on the proposal for a more evident equivalence between the “socialization” of the work in architecture, anytime it is shared in public, and the opposite concept, the work on the proper act of “socialization” itself. As if a new awareness of the capacities of the use of media could turn it into an instrumental force, capable of contributing to the development of the practice of architecture, from an ideally committed and intelectual perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No romance O Idiota, Dostoiévski cria, por meio do príncipe Míchkin, uma personagem com as características do Cristo. Sabe-se que a Bíblia, principalmente o Novo Testamento, acompanhou o escritor desde sua infância até o momento de sua morte. O primeiro capítulo, dedicado ao referencial teórico da pesquisa, lida com o universo da linguagem. Tanto o texto literário quanto a literatura bíblica procedem do mito. Neste sen-tido, religião e literatura se tocam e se aproximam. O segundo capítulo foi escrito na intenção de mostrar como o Cristo e os Evangelhos são temas, motivos e imagens recorrentes na obra de Dostoiévski. A literatura bíblica está presente, com mais ou menos intensidade, em diversas das principais obras do escritor russo e não somente em O Idiota. A hipótese de que Dostoiévski cria um Cristo e um Evangelho por meio de O Idiota é demonstrada na análise do romance, no terceiro capítulo. A tese proposta é: Dostoiévski desenvolve um evangelho literário, por meio de Míchkin, misto de um Cristo russo, ao mesmo tempo divino e humano, mas também idiota e quixotesco. Na dinâmica intertextual entre os Evangelhos bíblicos e O Idiota, entre Cristo e Míchkin, a literatura e o sagrado se revelam, como uma presença divina. Nas cenas e na estruturação do enredo que compõe o romance, Cristo se manifesta nas ações de Míchkin, na luz, na beleza, mas também na tragicidade de uma trajetória deslocada e antinômica. O amor e a compaixão ganham forma e vida na presen-ça do príncipe, vazio de si, servo de todos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O diabetes mellitus (DM) está associado com alguns tipos de câncer. No entanto, estudos realizados sobre a associação entre DM e câncer de cabeça e pescoço (CCP) apresentaram resultados controversos. Na avaliação da associação entre DM e câncer, destaque deve ser dado à metformina, medicamento utilizado no DM tipo 2, que se mostra inversamente associado a alguns tumores. O objetivo deste estudo foi avaliar a associação entre DM e CCP, bem como o impacto do uso de metformina no risco de CCP. Este estudo caso-controle incluiu 1021 casos de CCP com confirmação histológica de carcinoma espino celular selecionados em cinco hospitais de grande porte no estado de São Paulo entre 2011 e 2014. Os 1063 controles foram recrutados nos mesmos hospitais, pareados por frequência com os casos por sexo e idade (em grupos de 5 anos). Para avaliar o risco de CCP associado ao DM, odds ratios (OR) e intervalos com 95 por cento de confiança (IC 95 por cento ) foram estimados por meio de regressão logística não condicional. Os participantes diabéticos tiveram associação inversa com o CCP (OR = 0,68; IC 95 por cento : 0,49-0,95), e a proteção foi maior entre diabéticos usuários metformina (OR = 0,54; IC 95 por cento : 0,29-0,99). Diabéticos usuários de metformina que eram fumantes (OR = 0,13; IC 95 por cento : 0,04-0,44), ou consumidores de álcool acima de 40 g/ dia (OR = 0,31; IC 95 por cento : 0,11-0,88) apresentaram proteção ainda maior com relação ao CCP, comparado aos não diabéticos. Em conclusão, os indivíduos diabéticos apresentaram risco inverso de CCP e o uso de metformina pode explicar, ao menos parcialmente, esta associação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução O nível de atividade física (NAF) insuficiente e estado nutricional (EN) inadequado conferem risco de desenvolvimento de hipertensão arterial e diabete, bem como dificultam o controle destas doenças. Assim, infere-se que os custos despendidos pelo SUS com medicamentos, internações e consultas de hipertensos e diabéticos apresentem relação inversa com NAF, incluindo a prática de caminhada e EN. Entretanto, estudos epidemiológicos que descrevam estes custos e analisem essas associações na população idosa são inexistentes no Brasil, o que dificulta a fundamentação para a implementação de políticas publicas para a economia de recursos. Objetivo Descrever os custos com procedimentos de saúde de idosos hipertensos e diabéticos e verificar qual a sua associação com NAF e EN, segundo sexo e grupos etários. Métodos A amostra foi constituída por 806 idosos com autorreferência à hipertensão e/ou diabete ( 60 anos) residentes no município de São PauloSP, participantes das três coortes do Estudo Saúde, Bem-estar e Envelhecimento SABE - em 2010. A variável dependente custo total anual (em Reais), foi estimada com base nos dados autorreferidos sobre uso de medicamentos, uso dos serviços ambulatoriais e internações hospitalares, retroativos a um ano da coleta de dados. A variáveis explanatórias: i) NAF foi estimada a partir de entrevista utilizando o International Physical Activity Questionnaire (IPAQ, versão curta), classificando os idosos segundo duração da realização de atividades físicas moderada, em ativos ( 150 minutos/semana) e insuficientemente ativos (< 150 minutos/semana); ii) Prática de caminhada, categorizada segundo frequência semanal: a) 4 dias/ semana; b) 1 a 3 dias/semana; c) não caminha. iii) EN, identificado pelo índice de massa corporal (IMC), classificando os idosos em dois grupos: a) IMC < 28 kg/ m²; b) IMC 28 kg/ m² (excesso de peso); as variáveis de controle foram o sexo, grupos etários (a. 70 anos; b. 65 a 69 anos; c. 60 a 64 anos); estado civil (a. casado; b. outros) e, escolaridade (a. sem escolaridade; b. 1 ano). A descrição dos custos segundo as NAF e EN foi representada pelos valores de média e IC95 por cento , mediana e P25 P75, valores mínimos e máximos. Modelos de regressão logística múltipla foram empregados para analisar as associações entre variáveis dependentes e explanatórias. O nível de significância foi estabelecido em 5 por cento e todas as análises foram realizadas considerando amostras complexas, por meio do software Stata, 13.0. 9 Resultados: A média de custo total anual por pessoa foi de R$ 732,54 e a soma dos custos relativa a 12 meses para os 806 idosos foi de R$ 609.587,20, sempre superiores para idosos em excesso de peso, com NAF insuficiente e para idosos que não caminham. Idosos em excesso de peso apresentaram chance 50 por cento superior de estarem no grupo de maior custo total anual (OR 1.49, IC95 por cento 1.01 2.18) e mais de 70 por cento superior de maior custo com medicamentos (OR 1.71, IC95 por cento 1.18 2.47). A ausência de caminhada significou a chance superior para maiores custos anuais com medicamentos (OR 1.63, IC95 por cento 1.06 2.51) e custos totais (OR 1.82, IC95 por cento 1.17 2.81). Todas as análises ajustadas por sexo e idade. O NAF não se associou aos custos totais e custo com medicamentos (p>0.05). Conclusão: Os custos para o controle de HAS e DM em idosos são altos e se associam inversamente à prática de caminhada e ao estado nutricional, especialmente em relação ao custo com o uso de medicamentos antihipertensivos e hipoglicemiantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A expectativa de vida dos brasileiros cresce a cada ano; com isso, os idosos vivem mais, e fatores como, Hipertensão Arterial Sistêmica, Diabetes mellitus e o próprio processo de envelhecimento os tornam suscetíveis à doença renal crônica (DRC). Com a DRC, esses idosos têm maiores chances de desenvolverem a fragilidade e terem consequências desfavoráveis na Qualidade de Vida (QV). Objetivo geral: Analisar a relação entre as variáveis independentes (fragilidade, características sociodemográficas e clínicas) e a variável desfecho (QV) de idosos com DRC em tratamento conservador, hemodiálise (HD) e diálise peritoneal (DP). Material e método: Trata-se de uma pesquisa quantitativa, descritiva e transversal. Participaram idosos com 60 anos ou mais, com DRC em tratamento conservador, HD ou DP, que estavam, no mínimo, há seis meses em tratamento e em acompanhamento em um hospital público de Ribeirão Preto-SP. A coleta de dados ocorreu de outubro/14 a março/15, utilizando-se os seguintes instrumentos: de caracterização sociodemográfica, econômica e clínica adaptado; para avaliar a fragilidade, a Edmonton Frail Scale (EFS); para avaliar a QV, o WHOQOL-BREF e WHOQOL-OLD; para avaliar a cognição, o Mini-Exame do Estado Mental (MEEM). Foram realizadas análises estatísticas descritivas, teste de correlação de Spearman e análise de variância multivariada (MANOVA) para as variáveis de interesse. O nível de significância adotado foi de 5%. O projeto foi aprovado por um Comitê de Ética em Pesquisa com seres humanos com CAAE número 34923214.0.0000.5393; seguiu-se as recomendações da Resolução CNS 466/2012. Resultados: Participaram 77 idosos, sendo 35 em tratamento conservador, 14 em DP e 28 em HD. A maioria era homem (41; 53,2%) e tinha companheiro(a) (51; 66,2%). A média dos escores de fragilidade entre os tratamentos foi: tratamento conservador (7,71±3,10); DP (6,79±2,72) e HD (7,36±2,92). No WHOQOL-BREF, os domínios relações sociais e físico obtiveram maior e menor escores médios, respectivamente, (68,93±17,48) e (55,44±14,11). O WHOQOL-OLD apresentou a maior média na faceta Intimidade (68,67±16,45) e menor média na faceta Morte e morrer (37,66±22,76). Foram encontradas correlações inversas entre a idade e o escore do MEEM (p=0,001) e entre anos de estudo e fragilidade (p=0,016); por outro lado, houve correlações positivas entre os escores do MEEM e anos de estudo (p<0,001), entre número de complicações da DRC e fragilidade (p<0,001) e número de comorbidades e fragilidade (p<0,001). Em relação à QV, houve correlação positiva entre o escore global do WHOQOL-BREF e o escore da faceta global do WHOQOL-OLD, bem como correlação inversa entre os escores globais desses instrumentos com os escores de fragilidade (p<0,00; p=0,023). Na MANOVA, o tipo de tratamento e o número de complicações não influenciaram a QV, porém a fragilidade apresentou relação com o constructo, sendo que, para o aumento de um ponto na escala da fragilidade, a QV apresentou redução média de 1,38 no escore global do WHOQOL-BREF e 0,82 no escore global do WHOQOL-OLD, considerando pertencer ao mesmo tipo de tratamento. Conclusão: os pacientes com DRC apresentaram piores escores médios de QV mediante a maiores escores de fragilidade, independentemente do tipo de tratamento e considerando-se a mesma média de complicações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação foi o estudo do instituto da desconsideração da personalidade jurídica, em sua modalidade inversa, e sua aplicabilidade no direito de família e sucessões, principalmente na partilha de bens - efetivada no divórcio ou dissolução de união estável -, na execução de alimentos e na sucessão legítima. A escolha do tema decorreu da necessidade do estabelecimento de pressupostos e requisitos objetivos para a aplicação da disregard na seara do direito de família e sucessões. A utilidade e adequação da abordagem da matéria se justifica pela instabilidade jurídica provocada pela acriteriosa aplicação da desconsideração da personalidade jurídica nas relações familiares. Por outro lado, o enfoque crítico desenvolvido no presente trabalho se justifica pela existência de corrente doutrinária que defende a aplicação da desconsideração em inúmeras situações familiares nas quais outros remédios, já seculares, de direito material ou processual seriam igualmente eficazes, sem que fosse necessária a drástica declaração de ineficácia da separação patrimonial entre a pessoa jurídica e seu sócio. Buscou-se apontar, desta forma, os meios existentes para se alcançar o mesmo resultado prático apresentado pela disregard, mas com a utilização de outras figuras, tais como a simulação, a fraude contra credores e a fraude à execução, ficando, por via de consequência, a aplicação da desconsideração da personalidade jurídica, restrita às hipóteses em que não há quaisquer outros meios para se evitar ou buscar a reparação dos prejuízos advindos da utilização das pessoas jurídicas com abuso da personalidade jurídica, desvio de finalidade ou confusão patrimonial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: A restrição de crescimento fetal (RCF) representa uma das principais complicações da gravidez e está associada a elevadas taxas de morbimortalidade perinatal. A frequência de desfechos desfavoráveis neonatais está diretamente relacionada à gravidade da RCF, sendo que os casos de pior evolução estão relacionados com peso abaixo do percentil 3. O mecanismo do crescimento fetal não está totalmente esclarecido, mas resulta da interação entre potencial genético de crescimento e fatores placentários, maternos e ambientais. Dentre os fatores etiológicos, o desenvolvimento anormal da placenta e a diminuição da perfusão uteroplacentária são as principais causas de RCF. Este estudo teve por objetivo avaliar volume e índices de vascularização placentários, por meio da ultrassonografia tridimensional (US3D), em gestações com RCF grave, e as correlações dos parâmetros placentários com valores de normalidade e dopplervelocimetria materno-fetal. MÉTODOS: Foram avaliadas 27 gestantes cujos fetos apresentavam peso estimado abaixo do percentil 3 para a idade gestacional. Por meio da US3D, utilizando-se a técnica VOCAL, foram mensurados o volume placentário (VP) e os índices vasculares: índice de vascularização (IV), índice de fluxo (IF) e índice de vascularização e fluxo (IVF). Os dados foram comparados com a curva de normalidade para a idade gestacional e peso fetal descrita por De Paula e cols. (2008, 2009). Desde que os volumes placentários variam durante a gravidez, os valores observados foram comparados com os valores esperados para a idade gestacional e peso fetal. Foram criados os índices volume observado/ esperado para a idade gestacional (Vo/e IG) e volume placentário observado/ esperado para o peso fetal (Vo/e PF). Os parâmetros placentários foram correlacionados com índice de pulsatilidade (IP) médio de (AUt) e IP de artéria umbilical (AU), e avaliados segundo a presença de incisura protodiastólica bilateral em AUt. RESULTADOS: Quando comparadas à curva de normalidade, as placentas de gestação com RCF grave apresentaram VP, IV, IF e IVF significativamente menores (p < 0,0001 para todos os parâmetros). Houve correlação inversa estatisticamente significante da média do PI de AUt com o Vo/e IG (r= -0,461, p= 0,018), IV (r= -0,401, p= 0,042) e IVF (r= -0,421, p= 0,048). No grupo de gestantes que apresentavam incisura protodiastólica bilateral de artérias uterinas, Vo/e IG (p= 0,014), Vo/e PF (p= 0,02) e IV (p= 0,044) foram significativamente mais baixos. Nenhum dos parâmetros placentários apresentou correlação significativa com IP de AU. CONCLUSÕES: Observou-se que o volume e os índices de vascularização placentários apresentam-se diminuídos nos fetos com RCF grave. IP médio de AUT apresenta correlação negativa com Vo/e IG, IV e IVF, e Vo/e IG, Vo/e PF e IV apresentaram-se reduzidos nos casos de incisura bilateral. Não houve correlação significativa dos parâmetros placentários com IP de AU

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um método de estimativa de torque do joelho baseado em sinais eletromiográficos (EMG) durante terapia de reabilitação robótica. Os EMGs, adquiridos de cinco músculos envolvidos no movimento de flexão e extensão do joelho, são processados para encontrar as ativações musculares. Em seguida, mediante um modelo simples de contração muscular, são calculadas as forças e, usando a geometria da articulação, o torque do joelho. As funções de ativação e contração musculares possuem parâmetros limitados que devem ser calibrados para cada usuário, sendo o ajuste feito mediante a minimização do erro entre o torque estimado e o torque medido na articulação usando a dinâmica inversa. São comparados dois métodos iterativos para funções não-lineares como técnicas de otimização restrita para a calibração dos parâmetros: Gradiente Descendente e Quasi-Newton. O processamento de sinais, calibração de parâmetros e cálculo de torque estimado foram desenvolvidos no software MATLAB®; o cálculo de torque medido foi feito no software OpenSim com sua ferramenta de dinâmica inversa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O HDL-c é um fator de risco cardiovascular negativo e sua concentração plasmática apresenta relação inversa com a incidência de eventos cardiovasculares. Entretanto, as evidências relativas ao grupo de indivíduos com níveis de HDL-c acima do percentil 95 da população geral ainda são escassas e o impacto da hiperalfalipoproteinemia (HALP) sobre o risco cardiovascular continua representando motivo de controvérsia na literatura médica. Alguns estudos em populações específicas associam a HALP a aumento do risco cardiovascular. Ao mesmo tempo, outros estudos identificaram populações de indivíduos hipoalfalipoproteinêmicos com marcada longevidade. Assim, demonstrou-se aparente dissociação entre níveis de HDL-c e risco cardiovascular em determinadas populações, reconduzível a aspectos disfuncionais da HDL. O objetivo do presente estudo foi verificar o papel da HALP na determinação do risco cardiovascular; comparar a prevalência de doença cardiovascular subclínica, avaliada por meio da quantificação ultrassonográfica da Espessura Íntimo-Medial Carotídea (EIMC), entre portadores de HDL-c >= 90mg/dL (grupo HALP) e portadores de concentrações de HDL-c atualmente consideradas normais (entre 40 e 50mg/dL para os homens e entre 50 e 60mg/dL para as mulheres); e avaliar características e função da HDL em portadores de HALP por meio do estudo de sua composição, de sua capacidade de efluxo de colesterol, e de sua atividade anti-inflamatória e antioxidante, correlacionando estas características com a presença de doença cardiovascular subclínica avaliada por meio da determinação da EIMC, da Velocidade de Onda de Pulso (VOP) e da presença de Calcificação Arterial Coronariana (CAC) avaliada pela TCMD. Para responder estas perguntas, o presente estudo foi articulado em dois braços: Braço 1: Análise da coorte do estudo ELSA com o objetivo de determinar a prevalência de HALP em uma população geral; definir o perfil demográfico, antropométrico e metabólico dos portadores de HALP; e comparar a prevalência de doença vascular subclínica deste grupo com controles da mesma coorte com níveis normais de HDL-colesterol. Braço 2: Recrutamento de 80 voluntários hígidos e portadores de HALP para avaliação da correlação entre presença de doença vascular subclínica, e aspectos estruturais e funcionais da HDL. Em seus dois braços, o estudo levou a quatro conclusões principais: 1) Níveis marcadamente elevados de HDL-c estão associados a menor espessura íntimo-medial carotídea quando comparados a níveis de HDL-c considerados normais pelas diretrizes vigentes. Embora portadores do fenótipo HALP apresentem, como grupo, um perfil metabólico mais favorável que o encontrado em indivíduos com HDL-c normal, a associação entre EIMC e HALP foi independente dos fatores de risco tradicionais, indicando que a menor prevalência destes últimos em portadores de HDL-c marcadamente elevado justifica apenas parcialmente a menor prevalência de doença vascular subclínica neste grupo; 2) Embora a HALP se apresente como um fenótipo ateroprotetor, há indivíduos com níveis marcadamente elevados de HDL-c que evoluem com doença cardiovascular, clínica ou subclínica. Neste contexto, nossos resultados indicam correlação entre os três métodos avaliados para estudar doença vascular subclínica em portadores de HALP: EIMC, VOP e CAC; 3) Os fatores de risco tradicionais continuam exercendo seu peso na determinação do risco cardiovascular em portadores de HALP. Idade, tabagismo, hipertensão arterial, hipertrigliceridemia e altos níveis de LDL-c apresentaram associação estatisticamente significativa com a presença de doença vascular subclínica no grupo estudado; 4) A avaliação da composição e da função da HDL em portadores de HALP pode permitir identificar indivíduos especificamente mais suscetíveis à aterosclerose. Nossos resultados indicam que, em particular, a atividade anti-inflamatória da HDL, avaliada pela capacidade de inibição da produção de IL-6; o efluxo de colesterol e a capacidade de transferência de triglicérides apresentaram associação independente com menor espessura íntimo-medial carotídea em portadores de HALP, enquanto níveis mais altos de Apo A-IV se associaram a maior grau de doença cardiovascular subclínica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO:A rigidez arterial aumentada é um importante determinante do risco cardiovascular e um forte preditor de morbimortalidade. Além disso, estudos demonstram que o enrijecimento vascular pode estar associado a fatores genéticos e metabólicos. Portanto,os objetivos do presente estudo são determinar a herdabilidade da velocidade de onda de pulso (VOP) e avaliar a associação do perfil lipídico e do controle glicêmico com o fenótipo de rigidez arterial em uma população brasileira.MÉTODOS:Foram selecionados 1675 indivíduos (ambos os gêneros com idade entre 18 e 102 anos) distribuídos em 109 famílias residentes no município de Baependi-MG. A VOP carótida-femoral foi avaliada de forma não invasiva através de um dispositivo automático.As variáveis lipídicas e a glicemia de jejum foram determinadas pelo método enzimático colorimétrico. Os níveis de hemoglobina glicada (HbA1c) foram determinados pelo método de cromatografia líquida de alta eficiência. As estimativas da herdabilidade da VOP foram calculadas utilizando-se a metodologia de componentes de variância implementadas no software SOLAR. RESULTADOS: A herdabilidade estimada para a VOP foi de 26%, sendo ajustada para idade, gênero, HbA1c e pressão arterial média. Os níveis de HbA1c foram associados a rigidez arterial, onde a elevação de uma unidade percentual da HbA1c representou um incremento de 54% na chance de risco para rigidez arterial aumentada. As variáveis lipídicas (LDL-c, HDL-c, colesterol não- HDL-c, colesterol total e triglicérides) apresentaram fraca correlação com a VOP. Além disso, uma análise de regressão linear estratificada para idade (ponto de corte >= 45 anos) demonstrou uma relação inversa entre LDL-c e VOP em mulheres com idade >= 45 anos. CONCLUSÃO: Os resultados indicam que a VOP apresenta herdabilidade intermediária (26%); a HbA1c esta fortemente associada a rigidez arterial aumentada; o LDL-c é inversamente relacionado com a VOP em mulheres com idade >= 45 anos, possivelmente devido às alterações metabólicas associadas à falência ovariana

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral deste estudo foi analisar a relação entre a rede e apoio social, satisfação com o apoio social recebido e as variáveis sociodemográficas, de saúde física e mental, dos idosos atendidos em um Ambulatório de Geriatria de um Hospital Geral Terciário do interior paulista. Trata-se de um estudo descritivo, transversal e exploratório, realizado com 98 idosos atendidos no referido ambulatório. Para a coleta de dados, utilizaram-se o Mini Exame do Estado Mental, um questionário de caracterização sociodemográfica e de saúde, a Escala de Depressão Geriátrica (EDG-15), o Índice de Katz, a Escala de Lawton e Brody, a Escala de medida da rede e apoio social do Medical Outcomes Study e a Escala de Satisfação com o Suporte Social. Os aspectos éticos foram respeitados conforme a Resolução 466/2012 do Conselho Nacional de Saúde. A média de idade dos idosos foi de 80,1 anos, 70,4% eram mulheres, 49,0% viúvos; a média de anos de estudo foi 2,3; 24,5% dos idosos residiam com o cônjuge e filhos ou somente com os filhos; a renda familiar média foi de R$1.773,70. Quanto à capacidade funcional, 80,6% eram independentes para as atividades básicas da vida diária e 88,8% eram parcialmente dependentes para as instrumentais. Os idosos possuíam, em média, 5,3 diagnósticos médicos e os sintomas depressivos estiveram presentes para 61,2% deles. Quanto à rede social, o escore total médio foi de 6,4 pessoas para contato na rede, sendo que 36,7% apresentavam médio contato e participação em atividades sociais. Em relação ao apoio social, o maior escore médio foi para a dimensão material (90,2) e o menor para a interação social positiva (81,8); já para a satisfação com o suporte social, 36,7% e 32,7% apresentaram alta e média satisfação, respectivamente. Foi encontrada correlação inversa entre os escores de todas as dimensões da escala de apoio social e os escores da EDG-15, indicando que quanto maior o apoio social em todas as dimensões, menor é a presença de sintomas depressivos e houve diferenças estatisticamente significativas para todas as dimensões, material (p=0,014), afetiva (p=0,026), interação (p=0,011), emocional (p=0,001) e informação (p=0,005); já a correlação entre os escores das dimensões da escala de apoio social e os escores na escala de Lawton e Brody, foi inversa e fraca para as dimensões material (r=-0,157) e informação (r=-0,027), sugerindo que quanto menor a independência para as AIVDs, maior o apoio social nas referidas dimensões, porém, não houve diferença estatisticamente significativa, material (p=0,121) e informação (p=0,789). A correlação entre os escores da EDG-15 e os escores da escala de satisfação com o apoio social, foi inversa e moderada (r=- 0,467), indicando que quanto maior a satisfação com o apoio social, menor a presença de sintomas depressivos, sendo estatisticamente significativa (p=0,000). Evidencia-se a importância de conhecer se os idosos estão inseridos em rede social e se percebem o apoio social para um melhor direcionamento da assistência prestada ao idoso e para o planejamento e formulação de políticas públicas, programas e projetos voltados a essa população