812 resultados para Sangramento anormal
Resumo:
La ponencia propone problematizar el paradigma de la normalidad implicado en los discursos pedagógicos centrados en el reconocimiento de la diversidad, puestos en circulación a partir de mediados de la década de 1980 en Argentina. Tomamos como punto de partida el surgimiento de los discursos pedagógicos normalizadores en el siglo XIX, donde se determinó y prescribió un tipo de comportamiento y grado de educabilidad natural y esperable. Normal es, siguiendo a Canguilhem, el término por el cual se va a designar el prototipo escolar y el estado de salud orgánica. El desvío o la transgresión a la norma hizo posible producir y clasificar a los sujetos bajo nominaciones de monstruosidad, degeneración, peligrosidad e indocilidad, delimitando a las infancias y juventudes anormales. En este sentido el saber pedagógico se constituyó en relación al saber médico, jurídico y psicológico, como el fundamento central de la escuela moderna. Resulta significativo mencionar que es en este período cuando la escuela comenzará a aplicar tecnologías de modo de definir los destinos del alumnado. Como señala M. Foucault el anormal es un tipo de niño, no un enfermo, es alguien sumergido dentro de la propia infancia normal. Sin embargo, en las últimas décadas del siglo XX, tanto en plano social como en el académico, surgieron miradas e iniciativas que han puesto en cuestión el poder normalizador. Así, tanto el movimiento de personas con discapacidad como, por ejemplo, los estudios e investigaciones realizadas en el marco de los disability studies, han irrumpido en la arena pública, denunciando los discursos y las relaciones de poder que mantienen a grupos e individuos en situación de opresión, desigualdad, invisibilización que los priva de una participación social e interlocución plena. Estas demandas han dado lugar a una re?exión crítica sobre los discursos pedagógicos centrados en la atención a la diversidad que, en términos generales, abordan la relación pedagógica a partir de concepciones como las de tolerancia, aceptación, integración, donde Uno tolera y el Otro es tolerado, el normal se contacta con el anormal que es el diverso, lo cual deja intacto, inconmovible, al paradigma de la normalidad. Esta perspectiva no exige repensar/se ni modificar/se ninguno de sus supuestos en razón de incluir a los otros en sus propias lógicas, a cambio despolitiza las diferencias y borra la desigualdad. Siendo que la génesis del discurso de la pedagogía es normalizador, se hace necesario retomar la pregunta propuesta por Valeria Flores "en tanto la normalidad es un producto de la pedagogía ¿Es posible una pedagogía que trabaje contra sí misma?"
Resumo:
La categoría de los pronombres demostrativos es universal en las lenguas naturales, pero las características funcionales, formales, sintácticas y pragmáticas de estos elementos varían considerablemente de una a otra lengua. El propósito de este trabajo es describir las características funcionales, formales, sintácticas y pragmáticas de los demostrativos en la lengua indígena obsolescente chaná, perteneciente a la familia charrúa, que cuenta actualmente con un último semi hablante terminal residente en la ciudad de Paraná (provincia de Entre Ríos). Se trata de un idioma que se ha transmitido durante más de un siglo y medio de manera anormal, como lengua secreta femenina. En su estado actual, esta lengua presenta un sistema bastante simple de pronombres demostrativos, que distingue dos distancias y dos géneros. En la presente ponencia se describen y analizan los aspectos morfológicos, rasgos semánticos, funciones sintácticas y usos pragmáticos documentados de estos deícticos. Se comparan los datos actuales con los documentados para la misma lengua en 1815 por Dámaso A. Larrañaga, en Soriano (República Oriental del Uruguay), cuando era todavía un idioma vivo (aunque moribundo), de transmisión normal
Resumo:
El lugar común que identifica a la literatura de Silvina Ocampo como fantástica resulta un pretexto tranquilizador que de algún modo domestica su rareza. En las interpretaciones críticas actuales sigue funcionando esta idea reductora que, si para una coyuntura determinada resultaba explicativa, hoy se revela improcedente. Entiendo que, en sus momentos más característicos, los relatos de Ocampo se definen menos por los tópicos y procedimientos que involucran lo sobrenatural, lo anormal o lo irreal, que por una forma de la escritura cuyo desatino deja atónito al lector. Para leer esta literatura en nuevos términos, pienso en el nonsense como relato de la insensatez, un modo de uso de la locura como estética y como ética.
Resumo:
Como en toda reflexión humana desde el inicio de la modernidad, en la arquitectura se entrelazan las aspiraciones de racionalidad con las contaminaciones, errores e interferencias aleatorias propias de cualquier contexto real. De un lado, los modelos de pensamiento y control describen los hechos y los procedimientos, amplificando las pautas de una explicación coherente de los mismos; de otro, el contacto continuo con entornos reales distorsiona cualquier sistema de leyes internas, aumenta la complejidad de los modelos y abre la vía a la indeterminación y la aleatoriedad tanto en la producción como en el pensamiento. Este escenario de conflicto entre el orden abstracto y la singularidad de cada circunstancia real se reproduce reiteradamente en los problemas arquitectónicos, provocando que los mensajes no sigan pautas lineales. Por el contrario, estos se difunden siguiendo un modelo más parecido al de las ondas, en el que las respuestas obtenidas no son unívocas sino múltiples y deformadas, alteradas por las superposiciones y contaminaciones derivadas de este escenario. En la década de 1920 el movimiento Surrealista había detectado no solo la presencia de este conflicto, sino también su condición estructural en la naturaleza de lo contemporáneo y su permanente dilema entre la proyección hacia un futuro utópico predicado en el progreso tecnológico y el peso de la memoria de un pasado igualmente idealizado por la nostalgia. Un conflicto definitivamente magnificado por la Gran Guerra, capaz de poner en duda la existencia incluso de un futuro. La razón ilustrada y el desarrollo tecnológico se ven profundamente contaminados por la destrucción irracional y la mortal maquinaria bélica. Sus imágenes y experiencia directa constituyen, de hecho, uno de los detonantes de la reacción surrealista ante el ‘statu quo’, exacerbada por hechos circustanciales que se tornan intensamente significativos, como la prematura muerte de Apollinaire como consecuencia precisamente de las heridas recibidas en la guerra. “If reality’, Aragon writes in 1924,’ is the apparent absence of contradiction’, a construct that effaces conflict, then ‘the marvellous is the eruption of contradiction in the real’, an eruption that exposes this construct as such.” El shock traumático de la confrontación y las imágenes de una destrucción ajena a cualquier razón están en el origen de la pregunta que formula Aragon: enfrentados con lo absurdo e inexplicable de los hechos, de la destrucción irracional, debe existir necesariamente otro nivel de conciencia y comprensión bajo la apariencia de estabilidad y normalidad que facilite otra descripción de la realidad, por anormal e irracional que esta sea. Las actividades surrealistas en el París de entreguerras se centraron en el potencial de tales contradicciones, las cuales atravesaban, de medio a medio, las certezas de un futuro predicado en la razón objetiva y el avance tecnológico. Y, a pesar de su imprecisa relación con la arquitectura –no existe, de hecho, una arquitectura que pueda calificarse como ‘surrealista’-, identificaron en la construcción misma de la ciudad y de su experiencia diaria, a un tiempo rutinaria y desestabilizadora, los síntomas de tales conflictos.
Resumo:
Nuestro cerebro contiene cerca de 1014 sinapsis neuronales. Esta enorme cantidad de conexiones proporciona un entorno ideal donde distintos grupos de neuronas se sincronizan transitoriamente para provocar la aparición de funciones cognitivas, como la percepción, el aprendizaje o el pensamiento. Comprender la organización de esta compleja red cerebral en base a datos neurofisiológicos, representa uno de los desafíos más importantes y emocionantes en el campo de la neurociencia. Se han propuesto recientemente varias medidas para evaluar cómo se comunican las diferentes partes del cerebro a diversas escalas (células individuales, columnas corticales, o áreas cerebrales). Podemos clasificarlos, según su simetría, en dos grupos: por una parte, la medidas simétricas, como la correlación, la coherencia o la sincronización de fase, que evalúan la conectividad funcional (FC); mientras que las medidas asimétricas, como la causalidad de Granger o transferencia de entropía, son capaces de detectar la dirección de la interacción, lo que denominamos conectividad efectiva (EC). En la neurociencia moderna ha aumentado el interés por el estudio de las redes funcionales cerebrales, en gran medida debido a la aparición de estos nuevos algoritmos que permiten analizar la interdependencia entre señales temporales, además de la emergente teoría de redes complejas y la introducción de técnicas novedosas, como la magnetoencefalografía (MEG), para registrar datos neurofisiológicos con gran resolución. Sin embargo, nos hallamos ante un campo novedoso que presenta aun varias cuestiones metodológicas sin resolver, algunas de las cuales trataran de abordarse en esta tesis. En primer lugar, el creciente número de aproximaciones para determinar la existencia de FC/EC entre dos o más señales temporales, junto con la complejidad matemática de las herramientas de análisis, hacen deseable organizarlas todas en un paquete software intuitivo y fácil de usar. Aquí presento HERMES (http://hermes.ctb.upm.es), una toolbox en MatlabR, diseñada precisamente con este fin. Creo que esta herramienta será de gran ayuda para todos aquellos investigadores que trabajen en el campo emergente del análisis de conectividad cerebral y supondrá un gran valor para la comunidad científica. La segunda cuestión practica que se aborda es el estudio de la sensibilidad a las fuentes cerebrales profundas a través de dos tipos de sensores MEG: gradiómetros planares y magnetómetros, esta aproximación además se combina con un enfoque metodológico, utilizando dos índices de sincronización de fase: phase locking value (PLV) y phase lag index (PLI), este ultimo menos sensible a efecto la conducción volumen. Por lo tanto, se compara su comportamiento al estudiar las redes cerebrales, obteniendo que magnetómetros y PLV presentan, respectivamente, redes más densamente conectadas que gradiómetros planares y PLI, por los valores artificiales que crea el problema de la conducción de volumen. Sin embargo, cuando se trata de caracterizar redes epilépticas, el PLV ofrece mejores resultados, debido a la gran dispersión de las redes obtenidas con PLI. El análisis de redes complejas ha proporcionado nuevos conceptos que mejoran caracterización de la interacción de sistemas dinámicos. Se considera que una red está compuesta por nodos, que simbolizan sistemas, cuyas interacciones se representan por enlaces, y su comportamiento y topología puede caracterizarse por un elevado número de medidas. Existe evidencia teórica y empírica de que muchas de ellas están fuertemente correlacionadas entre sí. Por lo tanto, se ha conseguido seleccionar un pequeño grupo que caracteriza eficazmente estas redes, y condensa la información redundante. Para el análisis de redes funcionales, la selección de un umbral adecuado para decidir si un determinado valor de conectividad de la matriz de FC es significativo y debe ser incluido para un análisis posterior, se convierte en un paso crucial. En esta tesis, se han obtenido resultados más precisos al utilizar un test de subrogadas, basado en los datos, para evaluar individualmente cada uno de los enlaces, que al establecer a priori un umbral fijo para la densidad de conexiones. Finalmente, todas estas cuestiones se han aplicado al estudio de la epilepsia, caso práctico en el que se analizan las redes funcionales MEG, en estado de reposo, de dos grupos de pacientes epilépticos (generalizada idiopática y focal frontal) en comparación con sujetos control sanos. La epilepsia es uno de los trastornos neurológicos más comunes, con más de 55 millones de afectados en el mundo. Esta enfermedad se caracteriza por la predisposición a generar ataques epilépticos de actividad neuronal anormal y excesiva o bien síncrona, y por tanto, es el escenario perfecto para este tipo de análisis al tiempo que presenta un gran interés tanto desde el punto de vista clínico como de investigación. Los resultados manifiestan alteraciones especificas en la conectividad y un cambio en la topología de las redes en cerebros epilépticos, desplazando la importancia del ‘foco’ a la ‘red’, enfoque que va adquiriendo relevancia en las investigaciones recientes sobre epilepsia. ABSTRACT There are about 1014 neuronal synapses in the human brain. This huge number of connections provides the substrate for neuronal ensembles to become transiently synchronized, producing the emergence of cognitive functions such as perception, learning or thinking. Understanding the complex brain network organization on the basis of neuroimaging data represents one of the most important and exciting challenges for systems neuroscience. Several measures have been recently proposed to evaluate at various scales (single cells, cortical columns, or brain areas) how the different parts of the brain communicate. We can classify them, according to their symmetry, into two groups: symmetric measures, such as correlation, coherence or phase synchronization indexes, evaluate functional connectivity (FC); and on the other hand, the asymmetric ones, such as Granger causality or transfer entropy, are able to detect effective connectivity (EC) revealing the direction of the interaction. In modern neurosciences, the interest in functional brain networks has increased strongly with the onset of new algorithms to study interdependence between time series, the advent of modern complex network theory and the introduction of powerful techniques to record neurophysiological data, such as magnetoencephalography (MEG). However, when analyzing neurophysiological data with this approach several questions arise. In this thesis, I intend to tackle some of the practical open problems in the field. First of all, the increase in the number of time series analysis algorithms to study brain FC/EC, along with their mathematical complexity, creates the necessity of arranging them into a single, unified toolbox that allow neuroscientists, neurophysiologists and researchers from related fields to easily access and make use of them. I developed such a toolbox for this aim, it is named HERMES (http://hermes.ctb.upm.es), and encompasses several of the most common indexes for the assessment of FC and EC running for MatlabR environment. I believe that this toolbox will be very helpful to all the researchers working in the emerging field of brain connectivity analysis and will entail a great value for the scientific community. The second important practical issue tackled in this thesis is the evaluation of the sensitivity to deep brain sources of two different MEG sensors: planar gradiometers and magnetometers, in combination with the related methodological approach, using two phase synchronization indexes: phase locking value (PLV) y phase lag index (PLI), the latter one being less sensitive to volume conduction effect. Thus, I compared their performance when studying brain networks, obtaining that magnetometer sensors and PLV presented higher artificial values as compared with planar gradiometers and PLI respectively. However, when it came to characterize epileptic networks it was the PLV which gives better results, as PLI FC networks where very sparse. Complex network analysis has provided new concepts which improved characterization of interacting dynamical systems. With this background, networks could be considered composed of nodes, symbolizing systems, whose interactions with each other are represented by edges. A growing number of network measures is been applied in network analysis. However, there is theoretical and empirical evidence that many of these indexes are strongly correlated with each other. Therefore, in this thesis I reduced them to a small set, which could more efficiently characterize networks. Within this framework, selecting an appropriate threshold to decide whether a certain connectivity value of the FC matrix is significant and should be included in the network analysis becomes a crucial step, in this thesis, I used the surrogate data tests to make an individual data-driven evaluation of each of the edges significance and confirmed more accurate results than when just setting to a fixed value the density of connections. All these methodologies were applied to the study of epilepsy, analysing resting state MEG functional networks, in two groups of epileptic patients (generalized and focal epilepsy) that were compared to matching control subjects. Epilepsy is one of the most common neurological disorders, with more than 55 million people affected worldwide, characterized by its predisposition to generate epileptic seizures of abnormal excessive or synchronous neuronal activity, and thus, this scenario and analysis, present a great interest from both the clinical and the research perspective. Results revealed specific disruptions in connectivity and network topology and evidenced that networks’ topology is changed in epileptic brains, supporting the shift from ‘focus’ to ‘networks’ which is gaining importance in modern epilepsy research.
Resumo:
En nuestra cultura, asumimos el error como algo vergonzoso, como un resultado ajeno a nuestra consciente autoría. Normalmente queremos desentendernos de él, pues se suele asociar a que ha sido el resultado de un accidente involuntario. Sin embargo, también es cierto que se suele usar como un mecanismo que despierta nuestro humor, la curiosidad, el extrañamiento y la sorpresa. El error en nuestra cultura se esconde en inverosímiles mensajes que nos rodean. Si se toma como ejemplo los errores que se encierran en la serie humorística de dibujos animados "El-coyote-y-el-correcaminos"1, se puede descubrir las numerosas consecuencias y actitudes encriptadas donde el error participa. A modo resumen estos son cinco de los mensajes capturados donde los errores participan. 1- El Coyote, siempre hambriento, y con ganas de atrapar al Correcaminos, tiene una gran variedad de modos acercamiento y decisiones de caza. Las tácticas parecen perfectas pero siempre tienen un error que, aunque hacen que no lleguen a su fin, cada vez son más divertidas y locas. El Coyote se enfrenta continuamente al cómo hacerlo con una creatividad, tan abierta como errada. 2- El Correcaminos en cambio, inconscientemente es capaz de usar las trampas que construye el Coyote sin que estás funcionen. Sin saber que pueden atraparle, las usa como si supiera que el no va a errar. El Coyote en cambio es incapaz de hacer esto, y las trampas siempre se vuelven contra él. 3- El Coyote en ocasiones se ve inmiscuido en un proceso de construcción de trampas laborioso. Este proceso, a su vez, también suele estar cargado de errores. A pesar de que por ensayo y error termina haciendo las cosas como preveía, todo acaba saltando por los aires y no funciona. 4- Más allá de los fallos constructivos de las trampas de caza, el Coyote erra a menudo cuando piensa que es “normal”, es decir se da cuenta que no puede hacer unas series de cosas y finalmente no las hace. Por ejemplo, unas veces en medio del aire cae porque piensa que le afecta la gravedad, otras, justo cuando va a atrapar el Correcaminos se extraña por ser más rápido y al final no lo consigue. 5- Por último, el Coyote cansado de artilugios, recurre a la estrategia. Asume que el Correcaminos es más rápido que él y por ello le dibuja en una pared un túnel con una carretera. El Correcaminos entonces, utiliza el túnel o la carretera como uno ya existente se tratara. Mientras, el Coyote sorprendido intenta seguirlo pero no puede, se choca con la pared, cae en su propia trampa. De estos lugares que se encuentran en la cultura y donde campa el error, se sirve la tesis para localizar su correspondencia con la arquitectura. Por lo que se plantean estos contextos de estudio: 1- La historia de la arquitectura está llena de diferentes modos de hacer y tomar decisiones, de proyecto. Existen diversos planteamientos para enfrentarse a una teoría y una práctica. Todos parecen seguros y certeros, en cambio se tiene la convicción de que no es así. La historia de la arquitectura siempre ha sido tan caótica, divertida y llena de errores como son los autores que la construyen. De ahí que se plantee la búsqueda de los errores en el estudio de la teoría de los conocimientos y procesos lógicos que han guiado a la ciencia hasta donde estamos hoy, la búsqueda del error en la arquitectura a través del error en la epistemología. 2- En la cotidianidad de la arquitectura se "juntan" dibujos hechos en planta con los hechos en sección, se viaja por los planos buscando referencias de secciones, se buscan entradas o salidas, se llevan parcialidades de una planta a otra, se leen pies de plano para interpretar lo que ocurre, se dialoga sobre un proyecto buscando un concepto, se montan volúmenes de documentos que te lo dan en planta, se intentan comprender situaciones volumétricas de dibujos en hechos en "2d" o se intenta comprender un montaje gravitatorio. Situaciones donde somos conscientes y otras no, donde se pone en marcha un ejercicio mental de acoplamiento estructural de todas las partes que se “juntan”, a pesar de que estas entre sí no estén realmente relacionadas y sí llenas de errores. Aprovechándose de la confianza del intercambio de información, los errores se cuelan hasta el final y no llegamos a reconocerlos. 3- En la arquitectura uno de los modos más habituales de enfrentarse al proyecto es a través del método de ensayo y error, a través del cual se hacen continuos dibujos o maquetas, una y otra vez. En arquitectura es común necesitar de la insistencia para localizar algo, reiterar la búsqueda de un deseo. Cada una de ellas con modificaciones de la anterior, con nuevas posibilidades y tanteos. Afrontar este proceso más allá de lo que es enfrentarse a un error, encierra actitudes, voluntades, potencialidades y afecciones diferentes entre sí. A la vez, este ejercicio, suele ser personal, por lo que cada acción de ensayo y error es difícil que se deba a un sólo nivel de funcionamiento, hay factores que se escapan del control o de la previsibilidad. Aunque a priori parece que el proceso por ensayo y error en el hacer arquitectónico intenta eliminar el error, hay ocasiones donde éste desvela nuevas posibilidades. 4- Las fichas de patologías de los edificios en arquitectura suelen ser documentos técnicos que aluden a los problemas constructivos de manera directa; humedades, grietas, fisuras, desprendimientos. Errores constructivos que sin embargo se olvidan de lo que pueden ser “errores arquitectónicos”. Es decir, el proceso de construcción, la espacialidad, el programa, el contexto o la iluminación se pueden trabar erróneamente, pero no necesariamente con fallos constructivos. Errores arquitectónicos que no se suelen registrar como tal. Se cree que hay un mundo de arquitectura patológica que va más allá de la situación de la normalidad edificatoria que se suele tratar. Errores integrados en el hacer arquitectónico que han terminado por generar una arquitectura singular pero no excéntrica, anormal y difícilmente genérica. Arquitecturas creadas bajo un “error de vida”, las cuales demuestran que se pueden alcanzar equilibrios ajenos a los que la razón habitual impone en el hacer. 5- Es también común en la arquitectura, la capacidad de proyectar futuro a través de los diferentes campos de oportunidad que se generan. Las oportunidades unas veces las ofrecen las normativas, pero otras son los errores que estas tienen las que se convierten en resquicios para construir realidades que se escapan a sus rigideces. Alturas máximas, edificaciones límites, espacios libres, alineaciones de fachada, programa permitido…, normalmente leyes de control que se imponen en la ciudad y que a veces se convierten en un modo de dominación. Reglas que antes de su puesta en funcionamiento se creen cerradas y lógicas e infranqueables, pero en su puesta en uso, empiezan a errar. Los resultados no salen como debían, y las palabras son interpretadas de forma diferente, por lo que el usuario empieza a aprovecharse de estos errores como vía de escape sobre ellas. Una vez planteados estos cinco lugares vinculados a sistemas arquitectónicos y que a la vez encierran de alguna forma la mirada positiva que en ocasiones la cultura ofrece, cabría ser más específicos y plantearse la pregunta: .Como el error ha sido y puede ser productivo en la arquitectura? Para responder en estos cinco contextos descritos y habituales en el hacer arquitectónico, se crean cinco “planos secuencia” como respuesta. Que usados como técnica de planificación de un pensamiento, permiten responder sin cortes y durante un tiempo prolongado reflexiones concatenadas entre sí. De este modo, los cinco planos secuencias son respuestas a la pregunta pero desde distintos ámbitos. Respuestas donde los resultados del error no avergüenzan a la arquitectura, sino que animan a usarlo, a experimentar con ello. Los planos secuencias son una cantera que contiene las marcas de los errores, tanto de un pasado como de un futuro inmanente. Un modo de ordenar la información, donde el tiempo no es una marca de linealidad cronológica, sino la búsqueda hacia delante y hacia atrás de la maduración de un concepto.
Resumo:
El dolor es un síntoma frecuente en la práctica médica. En España, un estudio realizado en el año 2000 demostró que cada médico atiende un promedio de 181 pacientes con dolor por mes, la mayoría de ellos con dolor crónico moderado1. Del 7%-8% de la población europea está afectada y hasta el 5% puede ser grave2-3, se estima, que afecta a más de dos millones de españoles4. En la consulta de Atención Primaria, los pacientes con dolor neuropático tienen tasas de depresión mucho mayores 5-6-7. El dolor neuropático8 es el dolor causado por daño o enfermedad que afecta al sistema somato-sensorial, es un problema de salud pública con un alto coste laboral, debido a que existe cierto desconocimiento de sus singularidades, tanto de su diagnóstico como de su tratamiento, que al fallar, el dolor se perpetúa y se hace más rebelde a la hora de tratarlo, en la mayoría de las ocasiones pasa a ser crónico. Los mecanismos fisiopatológicos son evolutivos, se trata de un proceso progresivo e integrado que avanza si no recibe tratamiento, ocasionando graves repercusiones en la calidad de vida de los pacientes afectados9. De acuerdo a Prusiner (premio nobel de medicina 1997), en todas las enfermedades neurodegenerativas hay algún tipo de proceso anormal de la función neuronal. Las enfermedades neurodegenerativas son la consecuencia de anormalidades en el proceso de ciertas proteínas que intervienen en el ciclo celular, por lo tanto da lugar al cúmulo de las mismas en las neuronas o en sus proximidades, disminuyendo o anulando sus funciones, como la enfermedad de Alzheimer y el mismo SXF. La proteína FMRP (Fragile Mental Retardation Protein), esencial para el desarrollo cognitivo normal, ha sido relacionada con la vía piramidal del dolor10-11-12. El Síndrome de X Frágil13-14 (SXF), se debe a la mutación del Gen (FMR-1). Como consecuencia de la mutación, el gen se inactiva y no puede realizar la función de sintetizar la proteína FMRP. Por su incidencia se le considera la primera causa de Deficiencia Mental Hereditaria sólo superada por el Síndrome de Down. La electroencefalografía (EEG) es el registro de la actividad bioeléctrica cerebral que ha traído el desarrollo diario de los estudios clínicos y experimentales para el descubrimiento, diagnóstico y tratamiento de un gran número de anormalidades neurológicas y fisiológicas del cerebro y el resto del sistema nervioso central (SNC) incluyendo el dolor. El objetivo de la presente investigación es por medio de un estudio multimodal, desarrollar nuevas formas de presentación diagnóstica mediante técnicas avanzadas de procesado de señal y de imagen, determinando así los vínculos entre las evaluaciones cognitivas y su correlación anatómica con la modulación al dolor presente en patologías relacionadas con proteína FMRP. Utilizando técnicas biomédicas (funcionalestructural) para su caracterización. Para llevar a cabo esta tarea hemos utilizado el modelo animal de ratón. Nuestros resultados en este estudio multimodal demuestran que hay alteraciones en las vías de dolor en el modelo animal FMR1-KO, en concreto en la modulación encefálica (dolor neuropático), los datos se basan en los resultados del estudio estructural (imagen histología), funcional (EEG) y en pruebas de comportamiento (Laberinto de Barnes). En la Histología se muestra una clara asimetría estructural en el modelo FMR1 KO con respecto al control WT, donde el hemisferio Izquierdo tiene mayor densidad de masa neuronal en KO hembras 56.7%-60.8%, machos 58.3%-61%, en WT hembras 62.7%-62.4%, machos 55%-56.2%, hemisferio derecho-izquierdo respectivamente, esto refleja una correlación entre hemisferios muy baja en los sujetos KO (~50%) con respecto a los control WT (~90%). Se encontró correlación significativa entre las pruebas de memoria a largo plazo con respecto a la asimetría hemisférica (r = -0.48, corregido <0,05). En el estudio de comportamiento también hay diferencias, los sujetos WT tuvieron 22% un de rendimiento en la memoria a largo plazo, mientras que en los machos hay deterioro de memoria de un 28% que se corresponden con la patología en humanos. En los resultados de EEG estudiados en el hemisferio izquierdo, en el área de la corteza insular, encuentran que la latencia de la respuesta al potencial evocado es menor (22vs32 15vs96seg), la intensidad de la señal es mayor para los sujetos experimentales FMR1 KO frente a los sujetos control, esto es muy significativo dados los resultados en la histología (140vs129 145vs142 mv). Este estudio multimodal corrobora que las manifestaciones clínicas del SXF son variables dependientes de la edad y el sexo. Hemos podido corroborar en el modelo animal que en la etapa de adulto, los varones con SXF comienzan a desarrollar problemas en el desempeño de tareas que requieren la puesta en marcha de la función ejecutiva central de la memoria de trabajo (almacenamiento temporal). En el análisis del comportamiento es difícil llegar a una conclusión objetiva, se necesitan más estudios en diferentes etapas de la vida corroborados con resultados histológicos. Los avances logrados en los últimos años en su estudio han sido muy positivos, de tal modo que se están abriendo nuevas vías de investigación en un conjunto de procesos que representan un gran desafío a problemas médicos, asistenciales, sociales y económicos a los que se enfrentan los principales países desarrollados, con un aumento masivo de las expectativas de vida y de calidad. Las herramientas utilizadas en el campo de las neurociencias nos ofrecen grandes posibilidades para el desarrollo de estrategias que permitan ser utilizadas en el área de la educación, investigación y desarrollo. La genética determina la estructura del cerebro y nuestra investigación comprueba que la ausencia de FMRP también podría estar implicada en la modulación del dolor como parte de su expresión patológica siendo el modelo animal un punto importante en la investigación científica fundamental para entender el desarrollo de anormalidades en el cerebro. ABSTRACT Pain is a common symptom in medical practice. In Spain, a study conducted in 2000 each medical professional treats an average of 181 patients with pain per month, most of them with chronic moderate pain. 7% -8% of the European population is affected and up to 5% can be serious, it is estimated to affect more than two million people in Spain. In Primary Care, patients with neuropathic pain have much higher rates of depression. Neuropathic pain is caused by damage or disease affecting the somatosensory system, is a public health problem with high labor costs, there are relatively unfamiliar with the peculiarities in diagnosis and treatment, failing that, the pain is perpetuated and becomes rebellious to treat, in most cases becomes chronic. The pathophysiological mechanisms are evolutionary, its a progressive, if untreated, causing severe impact on the quality of life of affected patients. According to Prusiner (Nobel Prize for Medicine 1997), all neurodegenerative diseases there is some abnormal process of neuronal function. Neurodegenerative diseases are the result of abnormalities in the process of certain proteins involved in the cell cycle, reducing or canceling its features such as Alzheimer's disease and FXS. FMRP (Fragile Mental Retardation Protein), is essential for normal cognitive development, and has been linked to the pyramidal tract pain. Fragile X Syndrome (FXS), is due to mutation of the gene (FMR-1). As a consequence of the mutation, the gene is inactivated and can not perform the function of FMRP synthesize. For its incidence is considered the leading cause of Mental Deficiency Hereditary second only to Down Syndrome. Electroencephalography (EEG) is the recording of bioelectrical brain activity, is a advancement of clinical and experimental studies for the detection, diagnosis and treatment of many neurological and physiological abnormalities of the brain and the central nervous system, including pain. The objective of this research is a multimodal study, is the development of new forms of presentation using advanced diagnostic techniques of signal processing and image, to determine the links between cognitive evaluations and anatomic correlation with pain modulation to this protein FMRP-related pathologies. To accomplish this task have used the mouse model. Our results in this study show alterations in multimodal pain pathways in FMR1-KO in brain modulation (neuropathic pain), the data are based on the results of the structural study (histology image), functional (EEG) testing and behavior (Barnes maze). Histology In structural asymmetry shown in FMR1 KO model versus WT control, the left hemisphere is greater density of neuronal mass (KO females 56.7% -60.8%, 58.3% -61% males, females 62.7% -62.4 WT %, males 55% -56.2%), respectively right-left hemisphere, this reflects a very low correlation between hemispheres in KO (~ 50%) subjects compared to WT (~ 90%) control. Significant correlation was found between tests of long-term memory with respect to hemispheric asymmetry (r = -0.48, corrected <0.05). In the memory test there are differences too, the WT subjects had 22% yield in long-term memory, in males there memory impairment 28% corresponding to the condition in humans. The results of EEG studied in the left hemisphere, in insular cortex area, we found that the latency of the response evoked potential is lower (22vs32 15vs96seg), the signal strength is higher for the experimental subjects versus FMR1 KO control subjects, this is very significant given the results on histology (140vs129 145vs142 mv). This multimodal study confirms that the clinical manifestations of FXS are dependent variables of age and sex. We have been able to corroborate in the animal model in the adult stage, males with FXS begin developing problems in the performance of tasks that require the implementation of the central executive function of working memory (temporary storage). In behavior analysis is difficult to reach an objective conclusion, more studies are needed in different life stages corroborated with histologic findings. Advances in recent years were very positive, being opened new lines of research that represent a great challenge to physicians, health care, social and economic problems facing the major developed countries, with a massive increase in life expectancy and quality. The tools used in the field of neuroscience offer us great opportunities for the development of strategies to be used in the area of education, research and development. Genetics determines the structure of the brain and our research found that the absence of FMRP might also be involved in the modulation of pain as part of their pathological expression being an important animal model in basic scientific research to understand the development of abnormalities in brain.
Resumo:
¿La gente utiliza la bicicleta porque les gusta? ¿O es el propio hecho de usarla la razón por la que les gusta hacerlo? ¿O es una combinación de las dos? Este tipo de preguntas reflejan un problema que se puede llamar ‘el círculo de la consideración de la bicicleta’: para poder considerar el uso de la bicicleta en el conjunto de posibles opciones a escoger, un individuo tiene que tener creencias positivas sobre ella, sobre todo en el caso de ‘contextos de bajo uso’. Pero parece poco probable que se formen creencias positivas cuando hay bajos niveles de familiaridad al modo, es decir, con un bajo conocimiento de sus características, su funcionamiento y del imaginario asociado; al mismo tiempo, la familiaridad irá alcanzando niveles más altos conforme aumente el tiempo y la intensidad con la que se utilice la bicicleta a lo largo de la vida de los individuos. El problema parece un circulo recursivo huevo-gallina, ya que es difícil que alguien considere el usar la bicicleta en lugares donde su uso es una práctica poco extendida. En estos lugares, y dentro del conglomerado actual de tecnologías, infraestructuras, reglas, prácticas de los usuarios y preferencias culturales que se han desarrollado alrededor del automóvil (el actual "sistema socio-técnico de la movilidad urbana", Urry 2004; Geels 2005, 2012) usar la bicicleta es considerado por la mayoría como algo difícil, inseguro, y anormal. Como consecuencia, los procesos de aumento de familiaridad con la bicicleta permanecen inactivos. La tesis asume la familiaridad como una fuente de información e influencia sobre las creencias positivas sobre la bicicleta. En ‘contextos de bajo uso’, sin familiaridad al uso de la bicicleta, estas creencias sólo pueden surgir de ciertos rasgos personales (afecto, valores, identidades, voluntad, etc.). Tal como han evidenciado investigaciones recientes, en estos contextos la posibilidad de considerar el uso de la bicicleta (y su eventual adopción), se circunscribe principalmente a los ‘entusiastas’, a los que están dispuestos a “ir contra corriente” (Horton & Parkin 2012), limitando el alcance de las políticas de promoción. La investigación llevada a cabo en esta tesis ofrece un nuevo enfoque al problema del ‘círculo de la consideración de la bicicleta’. Para ello, plantea un modelo en el que se introduce a la familiaridad como un constructo que media entre el comportamiento final –qué modo de transporte elige el individuo– y el conjunto de constructos psicosociales que preceden la elección modal (creencias y actitudes). La familiaridad al uso de la bicicleta se concibe como una medida de la intensidad relativa del uso de una bicicleta, real y percibida (basándose en Diana & Mokhtarian 2009) que puede formarse de manera distinta según sus fines (utilitarios o no utilitarios). El constructo familiaridad con el modo bicicleta está relacionado con la cantidad de tiempo, la intensidad y la regularidad con la que un individuo ha hecho uso de la bicicleta a lo largo de su vida. La familiaridad se concibe así como una condición que permite definir adecuadamente el contexto en el que se toman las decisiones modales de los individuos, en línea con investigaciones que postulan patrones de causalidad alternativos entre los procesos cognitivos de elección y los comportamientos modales (Tardif 1977; Dobson et al. 1978; Golob et al. 1979; Golob 2001; Schwanen et al. 2012; Diana et al. 2009; Vij & Walker 2014). De este modo se plantea que el esquema unidireccional actitudesconductas podría no ser completamente valido en el caso de la consideración de la bicicleta, explorando la hipótesis que sean las propias conductas a influenciar la formación de las actitudes. En esta tesis, el constructo de familiaridad se articula teórica y metodológicamente, y se emplea un instrumento de diseño transversal para contrastarlo. Los resultados de una encuesta telefónica a una muestra representativa de 736 personas en la ciudad española de Vitoria-Gasteiz proveen evidencias que sugieren –aunque de forma preliminar– que la familiaridad juega un papel de mediadora en la relación entre la utilización de la bicicleta y la formación de las creencias y actitudes hacia el su uso. La tesis emplea mediciones para cada individuo con respecto tanto a su consideración como a su familiaridad al uso de la bicicleta. Éstas mediciones se definen haciendo uso del análisis factorial exploratorio (AFE). Por un lado, el AFE arroja una estructura del constructo ‘consideración’ formada por cuatro factores, tres de ellos asociados con elementos positivos y uno con elementos negativos: (1) de cómo el uso de la bicicleta se considera verde e inteligente (G&S); (2) sobre su carácter agradable y adecuado (P&S); (3) sobre su eficacia como modo de transporte para ir al trabajo (E); y (4) sobre los principales inconvenientes de su uso, es decir, las dificultades implícitas (sudoración y estar expuestos a las inclemencias del tiempo) y la sensación de inseguridad que genera (sentirse en riesgo de accidentes y estresarse por el tráfico) (D&T). Por otro lado, la familiaridad al uso de la bicicleta se mide en dos distintas variables ordinales (según se base en el uso utilitario o no utilitario). Como resultado, se puede hablar de que cada individuo se encuentra en una de las siguientes cuatro etapas en orden creciente hacia una familiaridad completa al modo: no familiarizados; apenas familiarizados; moderadamente familiarizados; totalmente familiarizados. El análisis de los datos de los cuatro grupos de sujetos de la muestra, –definidos de acuerdo con cada una de las cuatro etapas de familiaridad definidas– ha evidenciado la existencia de diferencias intergrupo estadísticamente significativas, especialmente para la medida relacionada con el uso utilitario. Asimismo, las personas en los niveles inferiores de familiaridad tienen una consideración menor de los aspectos positivos de la bicicleta y por el contrario presentan preocupaciones mayores hacia las características negativas respecto a aquellas personas que están más familiarizados en el uso utilitario. El uso, aunque esporádico, de una bicicleta para fines utilitarios (ir de compras, hacer recados, etc.), a diferencia de no usarla en absoluto, aparece asociado a unas puntuaciones significativamente más altas en los tres factores positivos (G&S, E, P&S), mientras que parece estar asociado a puntuaciones significativamente más bajas en el factor relacionado con las características negativas (D&U). Aparecen resultados similares cuando se compara un uso moderado, con uno esporádico, sobre todo con respecto a la consideración de las características negativas. Los resultados de esta tesis están en línea con la literatura anterior que se ha basado en variables similares (por ejemplo, de Geus et al. 2008; Stinson & Bhat 2003, 2004; Hunt & Abraham 2006; y van Bekkum et al. 2011a, entre otros), pero en este estudio las diferencias se observan en un contexto de bajo uso y se derivan de un análisis de toda la población de personas que se desplazan a su lugar de trabajo o estudio, lo cual eleva la fiabilidad de los resultados. La posibilidad de que unos niveles más altos de uso de la bicicleta para fines utilitarios puedan llevar a niveles más positivos de su consideración abre el camino a implicaciones teóricas y de políticas que se discuten en la tesis. Con estos resultados se argumenta que el enfoque convencional basado en el cambio de actitudes puede no ser el único y prioritario para lograr cambios a la hora de fomentar el uso de la bicicleta. Los resultados apuntan al potencial de otros esquemas de causalidad, basados en patrones de influencia más descentrados y distribuidos, y que adopten una mirada más positiva hacia los hábitos de transporte, conceptualizándolos como “inteligencia encarnada y pre-reflexiva” (Schwanen et al. 2012). Tales esquemas conducen a un enfoque más práctico para la promoción del uso de la bicicleta, con estrategias que podrían basarse en acciones de ‘degustación’ de su uso o de mayor ‘exposición’ a su uso. Is the fact that people like cycling the reason for them to cycle? Or is the fact that they do cycle the reason for them to like cycling? Or is a combination of the two? This kind of questions reflect a problem that can be called ‘the cycle of cycling consideration’: in order to consider cycling in the set of possible options to be chosen, an individual needs to have positive beliefs about it, especially in the case of ‘low-cycling contexts’. However, positive beliefs seem unlikely to be formed with low levels of mode familiarity, say, with a low acquaintance with mode features, functioning and images; at the same time, higher levels of familiarity are likely to be reached if cycling is practised over relative threshold levels of intensities and extensively across individual life courses. The problem looks like a chicken-egg recursive cycle, since the latter condition is hardly met in places where cycling is little practised. In fact, inside the current conglomerate of technologies, infrastructures, regulations, user practices, cultural preferences that have grown around the automobile (the current “socio-technical system of urban mobility”, Urry 2004; Geels 2005, 2012) cycling is commonly considered as difficult, unsafe, and abnormal. Consequently, the processes of familiarity forming remain disabled, and, as a result, beliefs cannot rely on mode familiarity as a source of information and influence. Without cycling familiarity, origins of positive beliefs are supposed to rely only on personal traits (affect, values, identities, willingness, etc.), which, in low-cycling contexts, confine the possibility of cycling consideration (and eventual adoption) mainly to ‘cycling enthusiasts’ who are willing to “go against the grain” (Horton & Parkin 2012), as it results from previous research. New research conducted by author provides theoretical insights for a different approach of the cycling consideration problem in which the presence of the new construct of cycling familiarity is hypothesised in the relationship between mode choice behaviour and the set of psychosocial constructs that are supposed to precede it (beliefs and attitudes). Cycling familiarity is conceived as a measure of the real and the perceived relative intensity of use of a bicycle (building upon Diana & Mokhtarian 2009) which may be differently formed for utilitarian or non-utilitarian purposes. The construct is assumed to be related to the amount of time, the intensity and the regularity an individual spends in using a bicycle for the two distinct categories of purposes, gaining in this way a certain level of acquaintance with the mode. Familiarity with a mode of transport is conceived as an enabling condition to properly define the decision-making context in which individual travel mode choices are taken, in line with rather disperse research efforts postulating inverse relationships between mode behaviours and mode choices (Tardiff 1977; Dobson et al. 1978; Golob et al. 1979; Golob 2001; Schwanen et al. 2012; Diana et al. 2009; Vij & Walker 2014). The new construct is built theoretically and methodologically, and a cross-sectional design instrument is employed. Results from a telephone survey in a representative sample of 736 commuters in the Spanish city of Vitoria-Gasteiz, provide suggestive –although preliminary– evidence on the role of mode familiarity as a mediator in the relationship between cycling use and the formation of beliefs and attitudes toward cycling. Measures of both cycling consideration and cycling familiarity are defined making use of exploratory factor analysis. On the one hand, four distinct cycling consideration measures are created, based on attitude expressions on four underlying factors relating to the cycling commuting behaviour: on how cycling commuting is considered green and smart (G&S); on its pleasant and suited character (P&S); on its efficiency as a mode of transport for commuting (E); and on the main drawbacks of its use, namely the difficulties implied (sweating and being exposed to adverse weather conditions) and the sense of unsafety it generates (feeling at risk of accidents and getting stressed by traffic) (D&U). On the other hand, dimensions of cycling familiarity are measured on two distinct ordinal variables (whether based on the utilitarian or non-utilitarian use) comprising four stages to a complete mode familiarity: not familiar; barely familiar; moderately familiar; fully familiar. For each of the four stages of cycling familiarity defined, statistical significant differences are found, especially for the measure related to the utilitarian use. Consistently, people at the lower levels of cycling familiarity have a lower consideration of the positive aspects of cycling and conversely they exhibit higher concerns towards the negative characteristics than those individuals that are more familiar in utilitarian cycling. Using a bicycle occasionally for practical purposes, as opposed to not using it at all, seems associated to significant higher scores in the three positive factors (G&S, E, P&S) while it appears to be associated to significant lower scores in the factor relating with the negative characteristics of cycling commuting (D&U). A same pattern also occurs with a moderate use, as opposed to an occasional one, especially for the consideration of the negative characteristics. The results are in line with previous literature based on similar variables (e.g. de Geus et al. 2008; Stinson & Bhat 2003, 2004; Hunt & Abraham 2006; and van Bekkum et al. 2011a, among others), but in this study the differences are observed in a low-cycling context and derive from an analysis of the entire population of commuters, which rises the reliability of results.
Resumo:
Introducción: El sobrepeso y la obesidad son definidos como una acumulación anormal o excesiva de grasa que puede ser perjudicial para la salud. Ambas están asociadas al padecimiento de un gran número de patologías como hipercolesterolemia, enfermedades cardiovasculares, problemas respiratorios o enfermedades musculo esquelética. Objetivos: Analizar los efectos de dos entrenamientos de electroestimulación de cuerpo completo, de 20 Hz y 85 Hz y dieta isocalórica durante 4 semanas, sobre la composición corporal en dos mujeres para observar cuál de ellos es más efectivo tanto para la pérdida de grasa corporal como para la ganancia de masa muscular. Material y métodos: Participaron dos mujeres sedentarias (Participante 1, programa de 85 Hz: Edad = 30 años, IMC = 33,0 kg/cm2 y porcentaje de grasa = 46,6; participante 2, programa de 20 Hz: Edad = 19 años, IMC= 23,9 kg/cm2 y porcentaje de grasa = 33,2) y sin experiencia en el entrenamiento de fuerza.
Resumo:
El objeto de este proyecto es realizar un análisis de estabilidad ante contingencias en una red aislada de pequeña potencia con alto grado de penetración eólica mediante la herramienta PSS/E con el fin de aportar conocimiento para, posteriormente, definir la forma de operación más adecuada de dicho sistema atendiendo a su eficacia y fiabilidad. La red considerada para el estudio es la de la isla de El Hierro, en el archipiélago de Canarias, donde se tiene previsto abastecer exclusivamente, a toda la isla, combinando la aportación energética de un parque eólico y una central hidráulica con grupos de bombeo. Para realizar los estudios de estabilidad se analizan una serie de escenarios considerados de interés desde el punto de vista técnico, bien sea abasteciendo la demanda con una sola fuente de generación o con varias a la vez. El interés principal de esta red radica en que es una red aislada, de pequeña potencia, por lo que el proceso de integración masiva de energías renovables en la misma presenta una serie de particularidades que se irán detallando a lo largo del trabajo. El modelado de la red se ha realizado utilizando PSS/E, un software comercial extendido para el análisis de los sistemas de potencia. Con el programa se han resuelto los regímenes estáticos de funcionamiento (flujos de cargas) y los dinámicos (estudios de contingencias). Los resultados mostrarán las tensiones o frecuencias en los nudos de interés, observándose cómo cambian los valores en la situación anormal de funcionamiento y cómo se recuperan cuando se despeja la falta considerada, retornándose a los valores que existían en la red previos al fallo. Se pretende concluir cuál debe ser el mínimo de energía convencional que se debe mantener en el sistema para asegurar el suministro de forma fiable y segura en cualquier circunstancia.
Resumo:
A via de acesso arterial é um importante sítio de complicações após a realização de procedimentos coronários invasivos. Dentre as estratégias para a redução de complicações vasculares, encontra-se estabelecida a eficácia da técnica radial. Os dispositivos de oclusão vascular propiciam maior conforto ao paciente, reduzindo o tempo de hemostasia e repouso no leito. Entretanto, a inconsistência de dados comprovando sua segurança limita sua adoção rotineira como estratégia para redução de complicações vasculares, requerendo evidências de estudos randomizados com metodologia adequada. O objetivo deste estudo foi comparar a incidência de complicações no sítio de punção arterial entre a técnica radial e a técnica femoral com utilização de Angio-Seal em pacientes com síndrome coronariana aguda sem supradesnível do segmento ST submetidos à estratégia invasiva precoce. Trata-se de um ensaio clínico unicêntrico, de não inferioridade, no qual duzentos e quarenta pacientes foram randomizados para a técnica radial ou técnica femoral com utilização de Angio-Seal. O objetivo primário foi a ocorrência de complicações no sítio de punção arterial até 30 dias após o procedimento, incluindo sangramento grave, hematoma >= 5 cm, hematoma retroperitoneal, síndrome compartimental, pseudoaneurisma, fístula arteriovenosa, infecção, isquemia de membro, oclusão arterial, lesão de nervo adjacente ou necessidade de reparo vascular cirúrgico. Em relação às características demográficas e clínicas, houve diferença apenas quanto ao gênero, com presença maior de pacientes do sexo feminino no grupo radial (33,3% versus 20,0%, p=0,020). Não se observaram diferenças entre os grupos quanto ao diagnóstico de admissão, alterações isquêmicas presentes no eletrocardiograma, elevação de marcadores de necrose miocárdica ou escores de risco, bem como quanto à farmacoterapia antitrombótica adjunta e características da intervenção coronária percutânea. A hemostasia foi obtida na totalidade dos procedimentos do grupo radial com a utilização da pulseira compressora seletiva TR Band e em 95% dos procedimentos realizados pela técnica femoral com o Angio-Seal (p=0,029). Exceto pela maior incidência de oclusão arterial no grupo radial comparado ao femoral, não houve diferenças entre os demais desfechos analisados. Segundo o teste de não inferioridade para complicações na via de acesso arterial aos 30 dias, verificou-se que a utilização do Angio-Seal não produziu resultados inferiores ao acesso radial, considerando-se a margem de 15% (12,5% versus 13,3%, diferença -0,83%, IC 95% -9,31 - 7,65, p para não inferioridade <0,001). Os resultados principais deste estudo demonstram que, em uma população de pacientes com diagnóstico de síndrome coronariana aguda sem supradesnível do segmento ST, submetida à estratificação de risco invasiva, a utilização do dispositivo de oclusão vascular Angio-Seal confere ao procedimento efetivado pelo acesso femoral inferioridade na incidência de complicações no sítio de punção arterial aos 30 dias quando comparado ao acesso radial.
Resumo:
As Neoplasias Mieloproliferativas (NMPs) se caracterizam por apresentarem acúmulo de eritrócitos, leucócitos e plaquetas morfologicamente normais e seus precursores. Nos últimos anos vários estudos buscaram conhecer os mecanismos celulares e moleculares envolvidos na fisiopatologia e evolução dessas desordens, com o intuito de encontrar marcadores de diagnóstico, prognóstico e terapias eficazes. A mutação pontual no gene que codifica a enzima Janus Kinase 2 (JAK2 V617F), presente em aproximadamente 90% dos pacientes com PV e em 50% dos pacientes com TE e MF, foi o principal achado genético anormal associado a essas doenças. Essa mutação resulta na ativação constitutiva da enzima JAK2 e na desregulação da proliferação celular e resistência à apoptose. Nosso grupo de pesquisa descreveu em PV, TE e MF a expressão alterada de genes reguladores da apoptose e dados da literatura indicam que a desregulação do ciclo celular contribui para a fisiopatologia das NMPs. Nesse projeto o intuito foi investigar a associação da via de sinalização m-TOR com as alterações do ciclo celular e via JAK/STAT nas NMPs. A via de sinalização m-TOR participa dos processos celulares de sobrevivência e proliferação. A estratégia experimental foi avaliar a expressão de genes e proteínas, reguladores da via m-TOR, em leucócitos de pacientes com NPMC e linhagens celulares JAK2+ tratadas com inibidores de JAK2 e AKT. Para determinar a relação da via m-TOR nas NMPs foi escolhido o gene eIF4E, alterado nessas doenças, para observar sua modulação diante da inibição farmacológica nas linhagens celulares JAK2 positivas. Os resultados desse estudo contribuem para a descrição de novos alvos terapêuticos dependentes e indepentendes da atividade quinase JAK2 e para o melhor conhecimento da participação da via de sinalização m-TOR na fisiopatologia das NMPs.
Resumo:
INTRODUÇÃO: A restrição de crescimento fetal (RCF) representa uma das principais complicações da gravidez e está associada a elevadas taxas de morbimortalidade perinatal. A frequência de desfechos desfavoráveis neonatais está diretamente relacionada à gravidade da RCF, sendo que os casos de pior evolução estão relacionados com peso abaixo do percentil 3. O mecanismo do crescimento fetal não está totalmente esclarecido, mas resulta da interação entre potencial genético de crescimento e fatores placentários, maternos e ambientais. Dentre os fatores etiológicos, o desenvolvimento anormal da placenta e a diminuição da perfusão uteroplacentária são as principais causas de RCF. Este estudo teve por objetivo avaliar volume e índices de vascularização placentários, por meio da ultrassonografia tridimensional (US3D), em gestações com RCF grave, e as correlações dos parâmetros placentários com valores de normalidade e dopplervelocimetria materno-fetal. MÉTODOS: Foram avaliadas 27 gestantes cujos fetos apresentavam peso estimado abaixo do percentil 3 para a idade gestacional. Por meio da US3D, utilizando-se a técnica VOCAL, foram mensurados o volume placentário (VP) e os índices vasculares: índice de vascularização (IV), índice de fluxo (IF) e índice de vascularização e fluxo (IVF). Os dados foram comparados com a curva de normalidade para a idade gestacional e peso fetal descrita por De Paula e cols. (2008, 2009). Desde que os volumes placentários variam durante a gravidez, os valores observados foram comparados com os valores esperados para a idade gestacional e peso fetal. Foram criados os índices volume observado/ esperado para a idade gestacional (Vo/e IG) e volume placentário observado/ esperado para o peso fetal (Vo/e PF). Os parâmetros placentários foram correlacionados com índice de pulsatilidade (IP) médio de (AUt) e IP de artéria umbilical (AU), e avaliados segundo a presença de incisura protodiastólica bilateral em AUt. RESULTADOS: Quando comparadas à curva de normalidade, as placentas de gestação com RCF grave apresentaram VP, IV, IF e IVF significativamente menores (p < 0,0001 para todos os parâmetros). Houve correlação inversa estatisticamente significante da média do PI de AUt com o Vo/e IG (r= -0,461, p= 0,018), IV (r= -0,401, p= 0,042) e IVF (r= -0,421, p= 0,048). No grupo de gestantes que apresentavam incisura protodiastólica bilateral de artérias uterinas, Vo/e IG (p= 0,014), Vo/e PF (p= 0,02) e IV (p= 0,044) foram significativamente mais baixos. Nenhum dos parâmetros placentários apresentou correlação significativa com IP de AU. CONCLUSÕES: Observou-se que o volume e os índices de vascularização placentários apresentam-se diminuídos nos fetos com RCF grave. IP médio de AUT apresenta correlação negativa com Vo/e IG, IV e IVF, e Vo/e IG, Vo/e PF e IV apresentaram-se reduzidos nos casos de incisura bilateral. Não houve correlação significativa dos parâmetros placentários com IP de AU
Resumo:
A síndrome de Sjögren primária (SSp) é uma doença crônica autoimune sistêmica que pode levar à hipossalivação e afetar negativamente o ambiente oral. Os objetivos deste estudo foram detectar a influência da SSp nos níveis de biomarcadores inflamatórios na saliva e no fluido gengival nas amostras de pacientes com periodontite crônica, avaliar o efeito do tratamento periodontal não cirúrgico sobre os valores do índice clínico de avaliação da atividade sistêmica de pacientes com SSp e do índice reportado pelo paciente com SSp. Amostras de fluido gengival, saliva e os parâmetros clínicos periodontais que consistiram de medida da profundidade de sondagem (PS), nível clínico de inserção (NCI), sangramento à sondagem (SS) e índice de placa (IP) foram coletadas no início do estudo e 45 dias após a terapia periodontal não-cirúrgica de pacientes sistemicamente saudáveis com periodontite crônica (PC, n = 7) e pacientes com SSp e periodontite crônica (SP, n = 7). Pacientes periodontalmente saudáveis com SSp (SC, n = 7) e sistemicamente saudáveis (C, n = 7) também foram avaliados no início do estudo. Os grupos C, PC e SC foram pareados em gênero, idade e critério socioeconômico com o grupo SP. Os níveis de interleucina-8 (IL-8), IL-10 e IL-1ß foram avaliados por ensaio multiplex. Os níveis de atividade da doença foram medidos usando o Gold Standard da literatura chamado Índice Eular de atividade da síndrome de Sjögren (ESSDAI). Já para avaliação dos sintomas reportados pelo paciente com SSp foi utilizado o Índice Eular reportado pelo paciente com Sjögren (ESSPRI). Os parâmetros clínicos melhoraram após a terapia periodontal (p <0,05). No entanto, o NCI em pacientes com SSp não melhorou significativamente após a terapia (p> 0,05). Houve um aumento nos níveis de IL-1ß, IL-8 e diminuição dos níveis de IL-10 nas amostras de saliva de pacientes do grupo SC em comparação ao grupo C (p <0,05). Já em relação ao fluido gengival, pacientes do grupo SC tiveram maiores níveis de IL-1ß em comparação com o grupo C (p<0,05). Além disso, o tratamento periodontal não cirúrgico resultou num aumento dos níveis de IL-10 no fluido gengival no grupo SP e grupo PC em relação ao valor basal (p <0,05). O fluxo salivar foi significativamente aumentado após o tratamento periodontal apenas em pacientes do grupo SP (p = 0,039). Além disso, o tratamento periodontal não influenciou o índice ESSDAI (p = 0,35) e levou a uma diminuição significativa no índice ESSPRI (p = 0,03). Os presentes dados demonstraram que a SSp influencia os níveis salivares e de fluido gengival de biomarcadores inflamatórios em favor de um perfil próinflamatório, no entanto, este perfil parece não aumentar susceptibilidade dos indivíduos SSp à destruição periodontal. Além disso, os presentes dados demonstraram que o tratamento periodontal não-cirúrgico tem um impacto positivo sobre o fluxo salivar e sobre o índice ESSPRI de pacientes com SSp. Sugere-se assim que o tratamento periodontal pode melhorar a qualidade de vida de indivíduos com SSp.
Resumo:
Introdução: A obesidade é uma afecção com alta prevalência no Brasil e no mundo. É fator de risco para comorbidades como Diabetes tipo 2 (DM2), Hipertensão Arterial Sistêmica (HAS), Dislipidemia, Apneia Obstrutiva do Sono (AOS), entre outras. Seu tratamento é complexo e a cirurgia bariátrica, executada por diferentes técnicas, tem sido uma das opções. Objetivo: Analisar os resultados publicados na literatura em relação às técnicas cirúrgicas de Banda Gástrica Ajustável (BGA), Gastrectomia Vertical (GV), Gastroplastia com derivação em Y de Roux (GDYR) e Derivação Biliopancreática (DBP) - técnica de \"Scopinaro\" e de \"Duodenal Switch\" quanto às complicações operatórias, à mortalidade, à perda do excesso de peso (PEP) e ao reganho, e a resolução das comorbidades após a operação. Método: Foram analisados 116 estudos selecionados na base de dados MEDLINE por meio da PubMed publicados na Língua Inglesa entre 2003 e 2014. Para comparar as diferentes técnicas cirúrgicas (BGA, GV, GDYR e DBP), realizou-se estudo estatístico por meio da análise de variância (ANOVA) aplicando os testes de Duncan e de Kruskal Wallis avaliando: complicações pós-operatórias (fístula, sangramento e óbito); perda e reganho do excesso de peso, e resolução das comorbidades. Resultados: A ocorrência de sangramento foi de 0,6% na média entre todos os estudos, sendo 0,44% na BGA; 1,29% na GV; 0,81% na GDYR e 2,09% na DBP. Já a ocorrência de fístulas foi de 1,3% na média entre todos os estudos, 0,68% para BGA; 1,93% para GV; 2,18% para GDYR e 5,23% para DBP. A mortalidade nos primeiros 30 dias pós-operatórios foi de 0,9% na média entre todos os estudos, 0,05% na BGA; 0,16% na GV; 0,60% na GDYR e 2,52% na DBP. A PEP após cinco anos na média entre todos os estudos foi de 63,86%, especificamente na BGA, foi de 48,35%; 52,7% na GV; 71,04% na GDYR e 77,90% na DBP. A taxa de DM2 resolvida foi de 76,9% na média entre todos os estudos, sendo 46,80% na BGA; 79,38% na GV; 79,86% na GDYR e 90,78% na DBP. A taxa de Dislipidemia resolvida após a operação foi de 74,0% na média de todo o estudo, sendo 51,28% na BGA; 58,00% na GV; 73,28% na GDYR e 90,75% na DBP. A taxa de HAS resolvida após a operação foi de 61,80% na média de todo o estudo, sendo 54,50% na BGA; 52,27% na GV; 68,11% na GDYR e 82,12% na DBP. A taxa de AOS resolvida após a operação foi de 75,0% na média de todo o estudo, sendo 56,85% na BGA; 51,43% na GV; 80,31% na GDYR e 92,50% na DBP. Conclusão: quando analisadas e comparada as quatro técnicas observa-se que nos primeiros 30 dias pós-operatório a taxa de sangramento é superior nos pacientes submetidos à DBP e taxa de fístula inferior nos pacientes da BGA. Quanto à mortalidade observou-se taxa mais pronunciada nos pacientes submetidos à DBP e menos nos submetidos à BGA. Quanto à PEP observou-se uma uniformidade entre os pacientes submetidos à GV, GDYR E DBP até o terceiro ano. Após esse período observa-se reganho de peso nos submetidos à GV até o quinto ano de seguimento. Já nos pacientes submetidos à BGA observou-se taxas de PEP menos pronunciadas em relação às demais desde o início do seguimento. Quanto à resolução das comorbidades observou-se taxas de resolução de DM2 inferiores nos pacientes submetidos à BGA, e não houve diferença entre nenhuma técnica quanto à resolução das demais comorbidades: HAS, AOS e dislipidemia