1000 resultados para contraste ecocardiográfico
Resumo:
Mostram os A. A. que não são rigorosamente comparaveis os dados disponiveis sôbre a incidência da peste no Brasil, dentro de um período largo, uma vez que só ultimamente se vem conhecendo em vida um alto percentual dos casos da doença. Distribuindo por triênios os 2610 casos ocorridos no período 1934-1945, verifica-se o contraste do primeiro (1934-36) com os demais, tendo tocado àquele 47% do total. Coincide esse declínio geral com a ação do Govêrno Federal, que, em 1936, iniciou campanha coordenada contra a peste, intensificada com a criação, em 1941, do S. N. P. Restrita agora a doença ao chamado Nordeste brasileiro, continua Pernambuco sendo o seu principal foco, cabendo-lhe, desde 1934, 40 a 50% dos casos. Examinando os ocorridos no quinquênio 1941-1945, sôbre o qual há informes mais complexos, mostram os A. A. que mais de 50% desses casos se verificaram em pessoas com menos de 20 anos de idade, mais de 50% entre pardos e mais de 50% no sexo masculino. Afora 9 casos de peste pulmonar e 13 de forma septicêmica, os demais 724 foram de peste bubônica, 2/3 dos quais com localização inguino-crural. Em favor da benignidade da peste no nordeste, fala a letalidade, de 26% no quinquênio referido, e que se reduz, aliás, a 12% entre os doentes vistos em vida e medicados pelo Serviço. A letalidade é mais alta a partir dos 50 anos, maior entre as mulheres e entre pardos e negros. O emprêgo das sulfas, em substituição ao sôro, trouxe redução da letalidade. Estudando as técnicas de laboratório usadas para o diagnóstico da peste, graças ás quais se positivaram cêrca de 50% dos casos, examinam o valor da digitotomia em comparação com a viscerotomia e o da pesquisa do germe no suco ganglionar e no sangue. Respeito aos roedores domésticos com responsabilidade epidemiológica, aludem ao papel talvez atribuível ao Mus musculus. Comentam os achados de peste em roedores silvestres. Estudam os índices pulicidianos levantados em 8 cidades e que, na maioria delas, parecem mais elevados na época das chuvas. A X. cheopis é a pulga que predomina no Brasil na região tropical, decrescendo a sua frequência com o aumento de latitude, ao inverso do que sucede com a X. brasiliensis que, em S. Paulo, cidade de clima temperado, é a espécie preponderante. Chuvas e temperatura parecem afetar diferentemente as duas espécies. Estudam, finalmente, a influência dos elementos climáticos sôbre a peste humana, mostrando que, no Brasil, a influência no período 1941-45 foi maior na época da primavera e do verão austrais; e que, em 4 distritos, para os quais há normais climatológicas disponiveis, a doença ocorreu mais intensamente em períodos posteriores aos de maior precipitação, e em que a temperatura média mensal variou entre 19] e 26º e a humildade relativa entre 66 e 83%.
Resumo:
Os autores analisam, dentro do campo da higiene industrial, as condições sanitárias de um grande estabelecimento de artes gráficas no Rio de Janeiro a Imprensa Nacional, o regime de trabalho aí instituído; e revistam, um a um, os processos industriais executados, especialmente atenção às causas potenciais de acidentes, que aí existem, e também àquelas cuja responsabilidade já se positivou. Ressaltam, no ponto de vista doutrinário, os diversos fatores que podem interferir na ocorrência dêsses infortúnios de trabalho; e, mostrando como tem sido superestimada a culpabilidade das máquinas, realçam a importância dos fatores individuais idade e experiência do operário, doenças e defeitos físicos, atitude mental, constituição fisio-psicologica. Salientam como a evidência da predisposição a acidentes, que se reconheça existir, possibilita manter os operários, já em função ou pretendentes a emprego, debaixo de supervisão rigorosa; e oportuniza mesmo colocá-los melhormente, em tarefas que, no máximo, só lhes possam acarretar aciden¬tes de natureza leve. Mostram que, no período em estudo 1942 a 1945, houve ao todo 1.123 acidentes na I.N., com o coeficiente geral de incidência de 220.3 por 1.000 operários expostos. O coeficiente de acidentes médios ou graves foi de 32 por mil, no mesmo período. Apontando ainda a descenção, no quatriênio, das curvas relativas tanto aos acidentes totais, como aos médios ou graves e aos produzidos por máquinas, dão a ver que a taxa, que retrata essa descida, é, para os primeiros, 3.5 e cêrca de 10 vêzes maior, respectivamente, que a dos acidentes por máquinas e dos médios ou graves. Mostra-se significativa a diferença, entre a tendência observada nas curvas dos acidentes em geral e dos médios ou graves; já isso, porém, não acontece, quanto à diferença entre a primeira e a dos acidentes produzidos por máquinas. De fato, sendo os valores de t respec¬tivamente, dc 2.987 e 2.333, só o primeiro fica, na tabela de Fisher, acima do nível de significância P = 5%, para v = 4 graus de liberdade (2.776). Na base dos coeficientes de incidência por 1.000 operários, em cada uma das seções da Imprensa Nacional, verifica-se terem sido eles mais elevados nas oficinas de mecânica e carpintaria e na turma de eletricidade; já quanto a oficinas pròpriamente gráficas, mostram-se mais altos os coeficientes nas de rotogravura, estereotipia e impressão. Em 8 das 14 seções, depois de baixa pronunciada do primeiro para o segundo ano e deste para o terceiro, alteou-se, no fim do período (1945), a curva de acidentes. Só na oficina mecânica, veio ela sempre em declínio. Levando em conta a severidade dos acidentes, verifica-se que, no período em estudo, os coeficientes relativos aos acidentes médios ou graves, calculados sobre 1.000 operários expostos, foram mais altos nas oficinas auxiliares de mecânica e carpintaria, seguidos, também aqui, dos ocorridos na rotogravura e estereotipia. Analisando os acidentes pelas suas causas imediatas, apontam os auto¬res ter tocado, no período e em qualquer dos quatro anos, às máquinas, a maior responsabilidade; seguiram-se-lhes os instrumentos e objetos traumatizantes, as quédas e choques. Todavia. na base do percentual dos acidentes médios ou graves sobre o total respectivo. regista-se haver contraste nítido, respeito à severidade, entre um primeiro grupo de causas de acidentes, compreendendo o esforço, os corpos estranhos (dada a sua frequente localização ocular) e os agentes causadores de queimaduras e um segundo grupo, englobando as de¬mais causas, salvo as máquinas, que ficam de permeio. A responsabilidade dos corpos estranhos e das queimaduras, como causas de acidentes de severidade, mostra o cuidado que devem merecer os recursos de proteção individual para os operários. Tabulando por meses, e na base de horas de trabalho, os acidentes ocorridos, verifica-se que a maior taxa corresponde ao verão (146.2 por 1.000 horas de trabalho), seguindo-se-lhe o outono (122.0), vindo depois o inverno e a primavera, nesta ordem. Não sendo, no Rio de Janeiro, cidade situada na zona tropical, tão nítida. como em outras de clima temperado, a diferenciação estacional, tomaram os autores para comparação os quadrimestres mais quente (dezembro a marco) e mais frio (junho a setembro), e verificaram que a taxa de acidentes no primeiro, de 136.8 por 1.000 horas de trabalho, contrasta com a relativa ao segundo período 125.4. Levando apenas em conta os acidentes médios ou graves, não mais se aponta a diferença verificada: tocam, realmente, aos dois quadrimestres, as taxas de 17.2 e 19.7. É muito nítida, porém, a variação no pertinente aos acidentes leves - 119.6 e 105.8, sôbre os quais, segundo Osborne e Vernon, parece clara a influência da temperatura ambiente: de fato, nas verificações desses investigadores, a frequência relativa de acidentes subiu de 102 para 122, quando a temperatura ascendeu de 20°4 C a 25°2 C. No Rio de Janeiro, a temperatura media, no quadrimestre mais quente, foi dc 25°. 2 C e, no mais frio, de 20°.4 C, idênticos os valores aos dos dados de Osborne e Vernon, como pràticamente também o são as taxas de acidentes leves, aqui e ali observadas em função de tais variações. Não se mostrando de todo satisfatórios os dados de 123 das 209 fotometrias realizadas na Imprensa Nacional (59%), apontam os autores tornar-se difícil aquilatar a responsabilidade exata da deficiência de iluminamento, nos acidentes ocorridos. Salientam, todavia, que, mau grado a construção do edifício e as instalações de iluminação artificial terem sido projetadas por técnicos nesses assuntos, a verdade é que os esperados benefícios se viram prejudicados: em parte, pela colocação, nem sempre a mais satisfatória, de máquinas e operários: também, porque muitos dos pontos de luz artificial estão inaproveitados e, ainda, por não ter sido feita de maneira adequada a substituição de unidades defeituosas. Há a consignar, ademais, o descuido, por vezes grande, na limpeza dessas unidades e das superfícies transmissoras de luz natural e a ocorrência de ofuscamento para os operários em diversas situações...
Resumo:
En el período 1985-1996 la desigualdad de la renta en España se redujo de forma notable, en claro contraste con lo sucedido en otros países avanzados. En este trabajo se profundiza en el impacto que sobre esta reducción en la desigualdad ha ejercido la redistribución del stock de capital humano, uno de los factores que aparecen como más relevantes para explicar tanto la distribución de la renta como sus modificaciones. Las conclusiones obtenidas sugieren que aproximadamente un tercio de la reducción en la desigualdad que se ha producido entre los dos años extremos contemplados (1985 frente a 1996) se debe al comportamiento del capital humano. Otros factores tales como el tamaño de la familia o la participación de ambos cónyuges en el mercado de trabajo, han actuado en el mismo sentido. Finalmente, un elevado porcentaje de mejora en la distribución permanece por explicar y deberá ser objeto de investigaciones futuras.
Resumo:
En contraste con el problema clásico en el que, en el óptimo, un bien colectivo local se suministra en todas y cada una de las localidades en alguna cantidad, la mejor ubicación para un bien colectivo local indivisible no es un problema que pueda resolverse atendiendo exclusivamente a la eficiencia paretiana. Con sólo dos ciudades ocurre que la frontera de posibilidades de bienestar asociada a la ubicación del bien en una ciudad no siempre domina o es dominada por la correspondiente a la otra ciudad. Para resolver la indeterminación existen tres alternativas: prescindir de la distribución del bienestar, de la eficiencia, o bien complementar el criterio de eficiencia paretiana con un criterio distributivo. En el trabajo se examinan diversas formas de decisión, como una función de bienestar social, los criterios de Kaldor y de Rawls, la unanimidad, la mayoría simple y el despotismo
Resumo:
El estudio se plantea conocer cuáles son los mecanismos de relación entre los habitantes de un conjunto de ciudades españolas y la accesibilidad en su entorno más íntimo: el del propio hogar. Para ello ha querido analizar el conocimiento y la necesidad percibida de eliminación de barreras en todo tipo de hogares, las condiciones bajo las cuales esa necesidad se transforma en demanda y qué elementos influyen para que la accesibilidad sea un atributo discernible de calidad de vida en la vivienda. Si bien es obvio que estos elementos no pueden ser abarcados plenamente por este estudio ni reducidos al ámbito de un solo enfoque, hemos querido dar una visión amplia y para ello hemos utilizado metodologías diversas que raras veces se utilizan conjuntamente, buscando la complementariedad y también el contraste. Por ello en el trabajo, aún partiendo desde la economía, se han incorporado otros enfoques: la perspectiva de la antropología social e incluso de la psicología ambiental, con el fin de comprender mejor la forma de vivir la vivienda, el lugar que ocupa la accesibilidad entre las preferencias de los hogares, y cuáles son sus particularidades locales.
Resumo:
Análisis de las encuestas hechas a los ciudadanos con el fin de recoger sus propias impresiones sobre las barreras o la accesibilidad de sus entornos vitales, o bien su uso o conocimiento de los elementos o tecnologías disponibles para solventar las barreras existentes. Todas las encuestas realizadas dentro del trabajo compartieron un objetivo común: recabar la experiencia, percepción y opiniones de los usuarios como elemento complementario y de contraste con los otros trabajos de campo, fundamentalmente las evaluaciones realizadas y presentadas en el Diagnóstico.
Resumo:
Este trabajo tiene como objetivo estudiar el impacto de las estrategias activas de gestión en la performance de los fondos de inversión de renta fija y se realiza en tres fases, en primer lugar, a partir de la información homogénea disponible para cualquier partícipe se elabora un perfil de riesgo de los fondos a partir de los tipos de riesgo asociados a la renta fija. En segundo lugar, se propone una medida de performance que permite la comparación entre fondos, a dos niveles: por un lado, tomando como benchmark una cartera puramente pasiva y por otro lado, adecuando el benchmark al vencimiento de la cartera. En tercer lugar se realiza un contraste con el fin de determinar el impacto en la performance de los fondos estudiados de los indicadores de actividad de la estrategia asociados al perfil de riesgo del fondo.
Resumo:
La France inventa le dualisme gauche-droite et le système de partis se lit volontiers à travers cette dichotomie. Pourtant à l’instar d’autres «vieilles démocraties» du continent européen le système partisan français, fruit d’une longue histoire, se révèle à l’analyse bien plus riche que la «bipolarisation» donne à croire. A partir du contraste saisissant entre les scrutins tenus en 2007: le premier tour des présidentielles marqué par une remontée du centrisme d’une part et les législatives consacrant la suprématie de l’UMP et le statut d’opposition du PS, d’autre part. La thèse défendue ici est que la France est bel et bien multipolaire, ne va pas vers le bipartisme et que la bipolarisation est artificielle et résulte de contraintes liées à un mode de scrutin inéquitable. Chaque fois que l’électeur se voit offrir la possibilité d’échapper à cette cage de fer-européennes, premier tour de présidentielle- il exprime sa diversité.
Resumo:
Si les versions cérébralisantes de la pathologie mentale ont eu plus ou moins de succès et de partisans selon les périodes et les courants dominants de la psychiatrie, elles n'ont cessé d'intéresser les aliénistes puis les psychiatres à travers les décennies. La question n'a pas fondamentalement varié au cours de ces deux derniers siècles. Elle peut être résumée ainsi : quels sont les dysfonctionnements cérébraux dont l'influence sur le comportement humain est telle qu'ils puissent provoquer parfois des pathologies qu'aucune thérapie biologique et/ou psychothérapeutique n'est capable de totalement maîtriser? Ce travail aborde ces questionnements à travers l'étude d'une hypothèse représentative des nombreuses tentatives de la psychiatrie de désigner les dysfonctionnements cérébraux potentiellement responsables des pathologies qu'elle tente de traiter: l'hypothèse diencéphalique des pathologies mentales, élaborée durant la première moitié du vingtième siècle, illustre en effet la quête de légitimité scientifique d'une psychiatrie constamment réduite à un tâtonnement thérapeutique. Se pencher sur la biographie d'une zone cérébrale permet premièrement de proposer un autre récit que celui généralement mis en avant par les historien·ne·s de la psychiatrie : il s'agit ici de montrer l'influence de la physiologie, de l'endocrinologie, de la neurologie et de la neurochirurgie sur la manière dont les psychiatres ont envisagé la relation esprit-cerveau, tant dans leur pratique clinique que dans leurs recherches expérimentales. En outre, l'étude de cette hypothèse révèle la continuité théorique entre la période qui précède et celle qui suit la « révolution neuroleptique », continuité qui contraste avec l'idée de rupture transmise par les récits plus classiques. Enfin, cette démarche permet de mettre en relief les enjeux actuels qu'entoure l'avancée des neurosciences psychiatriques, et de les réinscrire dans une histoire fondée sur des questionnements bien antérieurs au récent essor des neurosciences. Ainsi, revisiter la période durant laquelle a émergé l'hypothèse diencéphalique des pathologies mentales ne vise pas uniquement à s'intéresser au passer de la psychiatrie, mais plutôt à mobiliser ce passé pour mieux réfléchir à la façon dont cette discipline écrit sa propre histoire au présent.
Resumo:
Objectifs: Optimiser la visualisation du plexus brachial dans le cadre d'un examen par résonance magnétique (IRM), avec prise en compte des paramètres techniques. Matériels et méthodes: L'IRM est devenue la technique de choix pour explorer le plexus brachial en raison de ses capacités techniques (rapport signal/bruit, contraste). Pour cela, nousavons optimisé d'une part des séquences de routine et d'autre part des séquences 3D, dans le but de différencier les structures nerveuses et les tissusenvironnants. Une analyse technique des examens sera réalisée sur la base d'un échantillon de patients de morphotypes variés. Résultats: La morphologie de la région étudiée, différente d'un patient à l'autre, influence la qualité de l'examen. Effectivement, l'épaisseur de tissu (graisseux oumusculaire) présent au niveau du plexus brachial et plus particulièrement celle qui sépare l'air ambiant de l'air présent dans les poumons , demande certainsajustements techniques tels que : shimming, plan d'acquisition et reconstruction issue des séquences 3D. Conclusion: Dans le cadre de cet examen peu fréquent, le manipulateur joue un rôle important tant par les ajustements techniques que par ses connaissances anatomiques,afin de produire une imagerie du plexus brachial de haute précision et de grande qualité.
Resumo:
En écrivant à la suite de l'évangile ses Actes d'apôtres, Luc a signé la première histoire du christianisme. Fut-il un bon historien? Pour beaucoup, son oeuvre serait partielle, partiale, imprécise et antijuive. Daniel Marguerat s'insurge contre ce procès injustement intenté à l'auteur des Actes. Il s'attache à montrer comment Luc construit son récit en contraste avec les historiens de l'époque. On saisit ainsi mieux la grande originalité des Actes sur des thèmes aussi cruciaux que l'identité du christianisme entre Jérusalem et Rome, l'image de Dieu, magie et guérisons, le conflit entre juifs et chrétiens, l'énigme de la fin de Paul.
Resumo:
L'infarctus rénal, le plus souvent segmentalre, reste un diagnostic difficile et souvent méconnu. La présentation clinique est peu spécifique mais la triade douleurs du flanc, abdominales ou dorso-lombaires, élévation des LDH et hématurie microscopique, survenant sur un terrain à risque thrombo-embolique, doit faire rechercher ce diagnostic. La lithiase urinaire, la pyélonéphrite aiguë et les pathologies intra-abdominales aiguës sont les principaux diagnostics différentiels. Une étiologie cardiaque (FA, anévrismes septaux, valvulopathies mitrales et endocardites) est présente dans la majorité des cas. Le CT-scan avec injection de produit de contraste représente l'examen diagnostique de choix. L'anticoagulatlon ou la fibrinolyse constituent le traitement de première intention quelle que soit la gravité de l'occlusion vasculaire.
Resumo:
Da Bisanzio alla Santa Russia Résumé Ivan Foletti Le texte du premier volume de YIkonografija Bogomatri (Iconographie de la mère de Dieu), publié en 1914 à Saint Pétersbourg par Nikodim Kondakov et traduit dans le cadre de ce travail, soulève chez le lecteur contemporain de nombreuses questions quant au développement des études byzantines, entre la fin du XIXe et le début du XXe siècle. Il s'agit, avant tout, de comprendre les enjeux fondamentaux de la naissance de cette discipline, dans le cadre de l'Europe romantique et plus particulièrement de son acculturation à la réalité russe. En se concentrant sur le personnage de Nikodim Kondakov, considéré par ses contemporains comme le patriarche des études byzantines, ce travail propose d'articuler la réflexion autour de deux axes principaux. Il s'agit d'une part de la relation entre histoire de l'art et société : dans le contexte russe et plus largement dans celui de l'Europe, la recherche semble se développer en étroite relation avec les tendances politiques et sociales de ces années. C'est probablement la raison du choix pour Nikodim Kondakov de se dédier aux études de Byzance, dans les années où la Russie prépare sa guerre contre la Turquie (1877-1878), tandis que l'opinion publique est martelée avec un revival de l'ancienne idéologie de Moscou comme « troisième Rome » et héritière de Byzance. Un autre aspect significatif est la décision de ce même chercheur d'étudier les antiquités russes sous le règne de Alexandre III, le tzar « contre-réformateur », quand la Russie se replie sur elle même autour de trois mots d'ordre: Orthodoxie, autocratie, et nationalité. D'autre part, la réception de Kondakov en Occident, semble aussi dépendre de questions politiques. Son accueil très favorable en France et en Angleterre contraste avec une perception bien plus négative en Autriche et en Allemagne ; il s'agit là d'une position en étonnante harmonie avec les traités politiques - l'alliance franco-russe de 1891 et la triple entente de 1911 qui opposent les pays membres aux empires centraux. Le deuxième axe considéré est celui d'une analyse systématique de la naissance des études sur les images cultuelles russes, les icônes. Les pages dédiées à ce phénomène dans Γ Ikonograflja Bogomatri, mais également dans les autres ouvrages de Kondakov, posent clairement la question des raisons nationalistes et populistes de la redécouverte, autour de 1900, en Russie et en Europe de cette expression visuelle. Conclusion logique de la tradition historiographique du XIXe siècle - qui s'est préoccupé des icônes perçues comme documents historiques - cette nouvelle vague d'intérêt pose la question de l'icône commé"oeuvre d'art. C'est autour de ce débat, alimenté également par l'apparition des avant-gardes, que se situent les plus importants savants russes de ces années en opposant deux manières radicalement différentes de percevoir l'art : à l'approche positiviste s'oppose celle d'un renouveau d'Hegel. Ce débat sera brusquement interrompu par la révolution, suivie par les années staliniennes qui vont définitivement « discerner » laquelle des deux méthodes et approches est la « juste », en congelant de fait, pour des décennies, toute possibilité de discussion. Cette thèse souhaiterait donc ouvrir en Occident un débat pour l'instant marginal dans les études : celui de la naissance d'une histoire de l'art moderne en Russie, mais également de l'émergence d'une nouvelle Europe savante autour de 1900 où l'histoire de l'art byzantin s'affirme comme un domaine émergent.
Resumo:
La insuficiencia pulmonar después de la reparación de la Tetralogía de Fallot ocasiona una dilatación del ventrículo derecho, IT y/o empeoramiento de la CF. El momento de la cirugía viene marcado por la presencia de la clínica y/o dilatación ventrículo derecho. El motivo del presente estudio es realizar una revisión de los pacientes sometidos a sustitución valvular pulmonar, un seguimiento clínico y ecocardiográfico. MÉTODOS Desde enero 2003 a enero 2009, 33 pacientes fueron sometidos a una cirugía de sustitución valvular pulmonar. El 41 % de los pacientes fueron mujeres y el 59 % varones. La edad media de los pacientes fue de 31,3 años, ( 18 - 63 a ). La edad media de la primera intervención fue a los 3,8 años ( 6 meses – 28 años ). Sólo un paciente no había sido sometido a ningún tipo de intervención en la infancia, realizándose una cirugía paliativa – correctora a los 28 años. La indicación de intervención quirúrgica vino marcada por la presencia de clínica en 11 pacientes ( 37 %) y por dilatación VD, ( única o asintomática) en 18 pacientes ( 62%). RESULTADOS No hubo mortalidad operatoria con una estancia media post IQ de 15,21 días ( 9- 27 días). Se analizan los resultados quirúrgicos de estos pacientes a tres niveles: Clínica y tolerancia al esfuerzo en postoperatorio inmediato y tardío. Eventos arrítmicos en el postoperatorio inmediato y seguimiento y Parámetros ecocardiográficos en postoperatorio inmediato y tardío. (Dimensiones cavidades derechas y función contráctil del VD ( TAPSE )).En el seguimiento al año de la intervención ningún paciente presentaba clínica de IP. El 67 % de los pacientes fueron intervenidos manteniéndose asintomáticos con un 37% ( 11 pacientes ) de eventos arrítmicos pre cirugía ( 9 ; 31 % pacientes) fueron sometidos a ablación precirugía y 3 pacientes ( 10 %) requirieron implante de un dispositivo DAI. Después de la cirugía el 86 % de los pacientes, 24 pacientes, se mantenían en CF I; 3 pacientes ( 10 %) continuaron presentando eventos arrítmicos y un solo paciente requirió implante de DAI. El remodelado del VD al año y medio de seguimiento presentó una reducción del 11 % respecto al diámetro teledistólico precirugía ( DTDV x 54,43 ( 41-70 mm), postcirugía ( DTDV x 44,29 ( 32-61), p ≤ 0,01; sin encontrar diferencias significativas en la reducción del dTS pre/postcirugía. La función del VD ( TAPSE pre IQ 16,35 ( 13-229;postcirugía inmediata 15,54 ( 11-23) y al año 17,5. El gradiente medio es inferior al 15 mmHg en el 84 % de los pacientes portadores de válvula biológica. 11 pacientes ≤ 11 mmHg ( 44 %); 10 pacientes ≤ 15 mm Hg ( 40 %). CONCLUSIONES En este estudio realizado en el Hospital Vall d’Hebron, la sustitución valvular pulmonar en pacientes afectos de una Tetralogía de Fallot mejora los diámetros ventriculares, la función contráctil y por lo tanto la capacidad funcional de los mismos. En los pacientes sometidos a Estudio electrofisiológicos que no presentaron inducción de eventos arrítmicos ventriculares, no han presentado episodios arrítmicos tras la cirugía de sustitución valvular pulmonar. Todos los pacientes se mantienen en Clase funcional I tras la cirugía y libres de reintervención con un seguimiento medio de 16,9 ( 5-33 ) meses. Los factores de riesgo para presentar una peor evolución son un retraso en la corrección inicial de la TOF y por lo tanto aparición de enfermedad pulmonar por hipertensión vascular subyacente, edad avanzada en el momento del PVR, deterioro funcional preoperatorio con Clase Funcional según NYHA ( III- IV), o bien aparición de eventos arrítmicos.
Resumo:
RESUME : Bien que les propriétés physiques de la structure de l'ADN aient été intensivement étudiées pendant plus de 50 ans il y a encore beaucoup de questions importantes qui attendent des réponses. Par exemple, qu'arrive-t-il à la structure de la double hélice d'ADN nue (sans protéines liées) lorsqu'elle est fortement courbée, de la même manière que dans les nucléosomes? Cet ADN nu est-il facilement plié (il reste dans le régime élastique) ou réduit-il la contrainte de flexion en formant des sites hyperflexibles «kinks» (il sort du régime élastique en cassant l'empilement des paires de bases à certains endroits) ? La microscopie électronique peut fournir une réponse à cette question par visualisation directe des minicercles d'ADN de la longueur d'un tour de nucléosome (environ 90 paires de bases). Pour que la réponse soit scientifiquement valide, on doit observer les molécules d'ADN lorsqu'elles sont en suspension dans la solution d'intérêt et sans que des colorations, produits chimiques ou fixatifs n'aient été ajoutés, étant donné que ceux-ci peuvent changer les propriétés de l'ADN. La technique de la cryo-microscopie électronique (cryo-EM) développée par le groupe de Jacques Dubochet au début des années 80, permet la visualisation directe des molécules d'ADN suspendues dans des couche minces vitrifiées de solutions aqueuses. Toutefois, le faible contraste qui caractérise la cryo-EM combinée avec la très petite taille des minicercles d'ADN rendent nécessaire l'optimisation de plusieurs étapes, aussi bien dans la préparation des échantillons que dans le processus d'acquisition d'images afin d'obtenir deux clichés stéréo qui permettent la reconstruction 3-D des minicercles d'ADN. Dans la première partie de ma thèse, je décris l'optimisation de certains paramètres pour la cryoEM et des processus d'acquisition d'image utilisant comme objets de test des plasmides et d'autres molécules d'ADN. Dans la deuxième partie, je .décris comment j'ai construit les minicercles d'ADN de 94 bp et comment j'ai introduit des modifications structurelles comme des coupures ou des lacunes. Dans la troisième partie, je décris l'analyse des reconstructions des rninicercles d'ADN. Cette analyse, appuyée par des tests biochimiques, indique fortement que des molécules d'ADN sont capables de former de petites molécules circulaires de 94 bp sans dépasser les limites d'élasticité, indiquant que les minicercles adoptent une forme circulaire régulière où la flexion est redistribuée le long la molécule. ABSTRACT : Although physical properties of DNA structure have been intensively studied for over 50 years there are still many important questions that need to be answered. For example, what happens to protein-free double-stranded DNA when it is strongly bent, as in DNA forming nucleosomes? Is such protein-free DNA smoothly bent (i.e. it remains within elastic limits of DNA rigidity) or does it release its bending stress by forming sharp kinks (i.e. it exits the elastic regime and breaks the stacking between neighbouring base-pairs in localized regions)? Electron microscopy can provide an answer to this question by directly visualizing DNA minicircles that have the size of nucleosome gyres (ca 90 bp). For the answer to be scientifically valid, one needs to observe DNA molecules while they are still suspended in the solution of interest and no staining chemicals or fixatives have been added since these can change the properties of the DNA. CryoEM techniques developed by Jacques Dubochet's group beginning in the 1980's permit direct visualization of DNA molecules suspended in cryo-vitrified layers of aqueous solutions. However, a relatively weak contrast of cryo-EM preparations combined with the very small size of the DNA minicircles made it necessary to optimize many of the steps and parameters of the cryo-EM specimen preparation and image acquisition processes in order to obtain stereo-pairs of images that permit the 3-D reconstruction of the observed DNA minicircles. In the first part of my thesis I describe the optimization of the cryo-EM preparation and the image acquisition processes using plasmid size DNA molecules as a test object. In the second part, I describe how I formed the 94 by DNA minicircles and how I introduced structural modifications like nicks or gaps. In the third part, I describe the cryo-EM analysis of the constructed DNA minicircles. That analysis, supported by biochemical tests, strongly indicates that DNA minicircles as small as 94 by remain within the elastic limits of DNA structure, i.e. the minicircles adopt a regular circular shape where bending is redistributed along the molecules.