28 resultados para Paramètre de pénalisation
em Université de Lausanne, Switzerland
Resumo:
L'hypertrophie ventriculaire pathologique chez les nouveau-nés des mères diabétiques une étude rétrospective RESUME Objectif L'incidence du diabète chez les femmes enceintes ne cesse de croître, de même que les complications chez leurs nouveau-nés. C'est pourquoi, nous avons étudié la population de mères diabétiques suivies dans notre établissement entre les années 2003-2005 dans le but d'analyser spécifiquement le problème d'hypertrophie ventriculaire pathologique (HVP) chez les nouveau-nés de cette population. Méthode et résultats Dans notre étude rétrospective comprenant 87 grossesses de femmes diabétiques (92 nouveau-nés), 16 présentaient un diabète de type 1, 17 de type 2 et 54 ont développé un diabète gestationnel (DG). Le médian des hémoglobines glycquées (HbAlc) pour cette population est de 5.8% (5.3-6.5) : 17 avaient une HbAlc au-dessus de la norme, dont 2 souffrant d'une cardiomyopathie congénitale (CMC) et six d'une HVP. Un total de 75 nouveaux-nés étaient normaux, cinq avaient une CMC et 12 une HVP (1/12 décédé post-natalement, 1/12 mort-né, 2/12 nécessitant un accouchement prématuré, 8/12 normaux). Les 16 mères avec un diabète de type 1 accouchèrent de trois nouveau-nés avec une CMC et de 50% avec une HVP, comprenant un enfant décédé et un prématuré né par césarienne à cause d'une HVP. Dans le groupe des 17 nouveau-nés issus d'une mère connue pour un diabète de type 2, un cas présentait une CMC et 25% des cas une HVP. Parmi les 54 grossesses avec un DG, on dénombre un cas de CMC et un cas de HVP. Conclusion Les grossesses de mères souffrant d'un diabète de type 1 et de type 2 comportent toutes deux un risque augmenté de développement d'une HVP comparées à celles de mères ayant développé un diabète gestationnel. Les contrôles glycémiques sont insuffisants pour éviter la survenue d'une HVP. Comme aucun autre paramètre prédictif n'a pu été défini jusqu'alors, nous concluons qu'un suivi échographique rapproché de ces grossesses peut prévenir des complications périnatales sévères.
Resumo:
Contexte¦- Les métastases hépatiques hypovasculaires sont parfois difficile à détecter car très polymorphiques et fréquemment irrégulières. Leurs contrastes sur CT scan hépatique sont souvent faibles.¦- Lors d'un diagnostic, le radiologue ne fixe pas sa vision fovéale sur chaque pixel de l'image. Les expériences de psychophysique avec eye-tracker montrent en effet que le radiologue se concentre sur quelques points spécifiques de l'image appelés fixations. Dans ce travail, nous nous intéresserons aux capacités de détection de l'oeil lorsque l'observateur effectue une saccade entre deux points de fixation. Plus particulièrement, nous nous intéresserons à caractériser les capacités de l'oeil à détecter les signaux se trouvant en dehors de sa vision fovéale, dans ce qu'on appelle, la vision périphérique.¦Objectifs¦- Caractériser l'effet de l'excentricité de la vision sur la détectabilité des contrastes dans le cas de métastases hépatiques hypovasculaires.¦- Récolter des données expérimentales en vue de créer un modèle mathématique qui permettra, à terme, de qualifier le système d'imagerie.¦- → objectifs du TM en soit :¦o prendre en main l'eyetracker¦o traduire une problématique médicale en une expérience scientifique reproductible, quantifiable et qualifiable.¦Méthode¦Nous effectuons une expérience 2AFC (2 Alternative Forced-Choice experiment) afin d'estimer la détectabilité du signal. Pour cela, nous forcerons l'observateur à maintenir son point de fixation à un endroit défini et vérifié par l'eye-tracker. La position del'excentricité du signal tumoral généré sur une coupe de CT hépatique sera le paramètre varié. L'observateur se verra présenté tour à tour deux coupes de CT hépatique, l'une comportant le signal tumoral standardisé et l'autre ne comportant pas le signal. L'observateur devra déterminer quelle image contient la pathologie avec la plus grande probabilité.¦- Cette expérience est un modèle simplifié de la réalité. En effet, le radiologue ne fixe pas un seul point lors de sa recherche mais effectue un "scanpath". Une seconde expérience, dite en free search sera effectuée dans la mesure du temps à disposition. Lors de cette expérience, le signal standardisé sera connu de l'observateur et il n'y aura plus de point de fixation forcée. L'eyetracker suivra le scanpath effectué par l'oeil de l'observateur lors de la recherche du signal sur une coupe de CT scan hépatique. L'intérêt de cette expérience réside dans l'observation de la corrélation entre les saccades et la découverte du signal. Elle permet aussi de vérifier les résultats obtenus lors de la première expérience.¦Résultats escomptés¦- Exp1 : Quantifier l'importance de l'excentricité en radiologie et aider à améliorer la performance de recherche.¦- Exp 2 : tester la validité des résultats obtenus par la première expérience.¦Plus value escomptée¦- Récolte de données pour créer un modèle mathématique capable de déterminer la qualité de l'image radiologique.¦- Possibilité d'extension à la recherche dans les trois dimensions du CT scan hépatique.
Resumo:
Summary: Lipophilicity plays an important role in the determination and the comprehension of the pharmacokinetic behavior of drugs. It is usually expressed by the partition coefficient (log P) in the n-octanol/water system. The use of an additional solvent system (1,2-dichlorethane/water) is necessary to obtain complementary information, as the log Poct values alone are not sufficient to explain ail biological properties. The aim of this thesis is to develop tools allowing to predict lipophilicity of new drugs and to analyze the information yielded by those log P values. Part I presents the development of theoretical models used to predict lipophilicity. Chapter 2 shows the necessity to extend the existing solvatochromic analyses in order to predict correctly the lipophilicity of new and complex neutral compounds. In Chapter 3, solvatochromic analyses are used to develop a model for the prediction of the lipophilicity of ions. A global model was obtained allowing to estimate the lipophilicity of neutral, anionic and cationic solutes. Part II presents the detailed study of two physicochemical filters. Chapter 4 shows that the Discovery RP Amide C16 stationary phase allows to estimate lipophilicity of the neutral form of basic and acidic solutes, except of lipophilic acidic solutes. Those solutes present additional interactions with this particular stationary phase. In Chapter 5, 4 different IANI stationary phases are investigated. For neutral solutes, linear data are obtained whatever the IANI column used. For the ionized solutes, their retention is due to a balance of electrostatic and hydrophobie interactions. Thus no discrimination is observed between different series of solutes bearing the same charge, from one column to an other. Part III presents two examples illustrating the information obtained thanks to Structure-Properties Relationships (SPR). Comparing graphically lipophilicity values obtained in two different solvent systems allows to reveal the presence of intramolecular effects .such as internai H-bond (Chapter 6). SPR is used to study the partitioning of ionizable groups encountered in Medicinal Chemistry (Chapter7). Résumé La lipophilie joue un .rôle important dans la détermination et la compréhension du comportement pharmacocinétique des médicaments. Elle est généralement exprimée par le coefficient de partage (log P) d'un composé dans le système de solvants n-octanol/eau. L'utilisation d'un deuxième système de solvants (1,2-dichloroéthane/eau) s'est avérée nécessaire afin d'obtenir des informations complémentaires, les valeurs de log Poct seules n'étant pas suffisantes pour expliquer toutes les propriétés biologiques. Le but de cette thèse est de développer des outils permettant de prédire la lipophilie de nouveaux candidats médicaments et d'analyser l'information fournie par les valeurs de log P. La Partie I présente le développement de modèles théoriques utilisés pour prédire la lipophilie. Le chapitre 2 montre la nécessité de mettre à jour les analyses solvatochromiques existantes mais inadaptées à la prédiction de la lipophilie de nouveaux composés neutres. Dans le chapitre 3, la même méthodologie des analyses solvatochromiques est utilisée pour développer un modèle permettant de prédire la lipophilie des ions. Le modèle global obtenu permet la prédiction de la lipophilie de composés neutres, anioniques et cationiques. La Partie II présente l'étude approfondie de deux filtres physicochimiques. Le Chapitre 4 montre que la phase stationnaire Discovery RP Amide C16 permet la détermination de la lipophilie de la forme neutre de composés basiques et acides, à l'exception des acides très lipophiles. Ces derniers présentent des interactions supplémentaires avec cette phase stationnaire. Dans le Chapitre 5, 4 phases stationnaires IAM sont étudiées. Pour les composés neutres étudiés, des valeurs de rétention linéaires sont obtenues, quelque que soit la colonne IAM utilisée. Pour les composés ionisables, leur rétention est due à une balance entre des interactions électrostatiques et hydrophobes. Donc aucune discrimination n'est observée entre les différentes séries de composés portant la même charge d'une colonne à l'autre. La Partie III présente deux exemples illustrant les informations obtenues par l'utilisation des relations structures-propriétés. Comparer graphiquement la lipophilie mesurée dans deux différents systèmes de solvants permet de mettre en évidence la présence d'effets intramoléculaires tels que les liaisons hydrogène intramoléculaires (Chapitre 6). Cette approche des relations structures-propriétés est aussi appliquée à l'étude du partage de fonctions ionisables rencontrées en Chimie Thérapeutique (Chapitre 7) Résumé large public Pour exercer son effet thérapeutique, un médicament doit atteindre son site d'action en quantité suffisante. La quantité effective de médicament atteignant le site d'action dépend du nombre d'interactions entre le médicament et de nombreux constituants de l'organisme comme, par exemple, les enzymes du métabolisme ou les membranes biologiques. Le passage du médicament à travers ces membranes, appelé perméation, est un paramètre important à optimiser pour développer des médicaments plus puissants. La lipophilie joue un rôle clé dans la compréhension de la perméation passive des médicaments. La lipophilie est généralement exprimée par le coefficient de partage (log P) dans le système de solvants (non miscibles) n-octanol/eau. Les valeurs de log Poct seules se sont avérées insuffisantes pour expliquer la perméation à travers toutes les différentes membranes biologiques du corps humain. L'utilisation d'un système de solvants additionnel (le système 1,2-dichloroéthane/eau) a permis d'obtenir les informations complémentaires indispensables à une bonne compréhension du processus de perméation. Un grand nombre d'outils expérimentaux et théoriques sont à disposition pour étudier la lipophilie. Ce travail de thèse se focalise principalement sur le développement ou l'amélioration de certains de ces outils pour permettre leur application à un champ plus large de composés. Voici une brève description de deux de ces outils: 1)La factorisation de la lipophilie en fonction de certaines propriétés structurelles (telle que le volume) propres aux composés permet de développer des modèles théoriques utilisables pour la prédiction de la lipophilie de nouveaux composés ou médicaments. Cette approche est appliquée à l'analyse de la lipophilie de composés neutres ainsi qu'à la lipophilie de composés chargés. 2)La chromatographie liquide à haute pression sur phase inverse (RP-HPLC) est une méthode couramment utilisée pour la détermination expérimentale des valeurs de log Poct.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
La maladie de Parkinson (MP) est une maladie neurodégénérative atteignant 1-2% des¦personnes de plus de 60 ans (1). Ses signes cliniques ont été décrits par James Parkinson¦en 1817 dans : « An essay on the Shaking palsy» (2). Les signes cardinaux sont le¦tremblement de repos, la rigidité et la bradykinésie. Certaines définitions y ajoutent l'instabilité¦posturale. D'autres manifestations, non motrices, telles qu'une dysfonction autonome et¦sensitive, des troubles de l'humeur, des troubles du sommeil et des démences peuvent¦apparaître en cours d'évolution. Le traitement actuel de la MP est principalement¦pharmacologique. Il consiste en l'administration du précurseur de la dopamine, la levodopa¦(L-dopa). Pourtant, l'utilisation à long terme de la L-dopa induit des fluctuations motrices telles¦que dyskinésies et dystonies. Au cours du siècle dernier, de nombreux traitements¦chirurgicaux ont été tentés, en particulier des procédures ablatives (thalamotomie,¦pallidotomie, subthalamotomie). Elles ont le désavantage d'induire des séquelles non¦négligeables telles que des parésies et des troubles neurocognitifs. La chirurgie ablative a¦été abandonnée avec l'arrivée de la L-dopa dans les années 1960. Les limitations de la¦thérapie par la L-dopa associées aux améliorations de la neuro-imagerie, de la sécurité des¦procédures neurochirurgicales ainsi que des techniques d'implantation ont permis le¦développement de procédures stimulatrices dans les années 1990. La stimulation cérébrale¦profonde des noyaux sous-thalamiques est devenue une stratégie thérapeutique bien établie¦chez les patients atteints d'une MP avancée. Malgré une excellente réponse motrice des¦membres, l'impact de la stimulation cérébrale profonde sur la parole est controversé (2).¦Le but de cette étude est de déterminer l'influence aigüe des stimulateurs sous-thalamiques¦sur des paramètres objectifs et quantitatifs, ainsi que sur un paramètre subjectif de la¦dysarthrie parkinsonienne. Nous allons comparer dans notre groupe de patients deux¦conditions successives: patient avec stimulateurs éteints et sans médication (OFF/nm)¦versus avec stimulateurs allumés et sans médication (ON/nm). Nous allons ensuite effectuer¦des analyses statistiques afin de déterminer si les stimulateurs sous-thalamiques ont un effet¦aigu bénéfique ou non sur certains paramètres vocaux, puis sur l'intelligibilité globale de la¦parole. En effet, l'intelligibilité nous informe sur la capacité de communication du patient avec¦son entourage.
Resumo:
Cette thèse s'intéresse à étudier les propriétés extrémales de certains modèles de risque d'intérêt dans diverses applications de l'assurance, de la finance et des statistiques. Cette thèse se développe selon deux axes principaux, à savoir: Dans la première partie, nous nous concentrons sur deux modèles de risques univariés, c'est-à- dire, un modèle de risque de déflation et un modèle de risque de réassurance. Nous étudions le développement des queues de distribution sous certaines conditions des risques commun¬s. Les principaux résultats sont ainsi illustrés par des exemples typiques et des simulations numériques. Enfin, les résultats sont appliqués aux domaines des assurances, par exemple, les approximations de Value-at-Risk, d'espérance conditionnelle unilatérale etc. La deuxième partie de cette thèse est consacrée à trois modèles à deux variables: Le premier modèle concerne la censure à deux variables des événements extrême. Pour ce modèle, nous proposons tout d'abord une classe d'estimateurs pour les coefficients de dépendance et la probabilité des queues de distributions. Ces estimateurs sont flexibles en raison d'un paramètre de réglage. Leurs distributions asymptotiques sont obtenues sous certaines condi¬tions lentes bivariées de second ordre. Ensuite, nous donnons quelques exemples et présentons une petite étude de simulations de Monte Carlo, suivie par une application sur un ensemble de données réelles d'assurance. L'objectif de notre deuxième modèle de risque à deux variables est l'étude de coefficients de dépendance des queues de distributions obliques et asymétriques à deux variables. Ces distri¬butions obliques et asymétriques sont largement utiles dans les applications statistiques. Elles sont générées principalement par le mélange moyenne-variance de lois normales et le mélange de lois normales asymétriques d'échelles, qui distinguent la structure de dépendance de queue comme indiqué par nos principaux résultats. Le troisième modèle de risque à deux variables concerne le rapprochement des maxima de séries triangulaires elliptiques obliques. Les résultats théoriques sont fondés sur certaines hypothèses concernant le périmètre aléatoire sous-jacent des queues de distributions. -- This thesis aims to investigate the extremal properties of certain risk models of interest in vari¬ous applications from insurance, finance and statistics. This thesis develops along two principal lines, namely: In the first part, we focus on two univariate risk models, i.e., deflated risk and reinsurance risk models. Therein we investigate their tail expansions under certain tail conditions of the common risks. Our main results are illustrated by some typical examples and numerical simu¬lations as well. Finally, the findings are formulated into some applications in insurance fields, for instance, the approximations of Value-at-Risk, conditional tail expectations etc. The second part of this thesis is devoted to the following three bivariate models: The first model is concerned with bivariate censoring of extreme events. For this model, we first propose a class of estimators for both tail dependence coefficient and tail probability. These estimators are flexible due to a tuning parameter and their asymptotic distributions are obtained under some second order bivariate slowly varying conditions of the model. Then, we give some examples and present a small Monte Carlo simulation study followed by an application on a real-data set from insurance. The objective of our second bivariate risk model is the investigation of tail dependence coefficient of bivariate skew slash distributions. Such skew slash distributions are extensively useful in statistical applications and they are generated mainly by normal mean-variance mixture and scaled skew-normal mixture, which distinguish the tail dependence structure as shown by our principle results. The third bivariate risk model is concerned with the approximation of the component-wise maxima of skew elliptical triangular arrays. The theoretical results are based on certain tail assumptions on the underlying random radius.
Resumo:
Rapport de synthèse : Objectifs : évaluer la survie intra-hospitalière des patients présentant un infarctus du myocarde avec sus-décalage du segment ST admis dans les hôpitaux suisses entre 2000 et 2007, et identifier les paramètres prédictifs de mortalité intra-hospitalière et d'événements cardio-vasculaires majeurs (infarctus, réinfarctus, attaque cérébrale). Méthode : utilisation des données du registre national suisse AMIS Plus (Acute Myocardial lnfarction and Unstable Angina in Switzerland). Tous les patients admis pour un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau dans un hôpital suisse participant au registre entre janvier 2000 et décembre 2007 ont été inclus. Résultats: nous avons étudié 12 026 patients présentant un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau admis dans 54 hôpitaux suisses différents. L'âge moyen est de 64+-13 ans et 73% des patients inclus sont des hommes. L'incidence de mortalité intra-hospitalière est de 7.6% en 2000 et de 6% en 2007. Le taux de réinfarctus diminue de 3.7% en 2000 à 0.9% en 2007. L'utilisation de médicaments thrombolytiques chute de 40.2% à 2% entre 2000 et 2007. Les paramètres prédictifs cliniques de mortalité sont : un âge> 65-ans, une classe Killips Ill ou IV, un diabète et un infarctus du myocarde avec onde Q (au moment de la présentation). Les patients traités par revascularisation coronarienne percutanée ont un taux inférieur de mortalité et de réinfarctus (3.9% versus 11.2% et 1.1% versus 3.1%, respectivement, p<0.001) sur la période de temps étudiée. Le nombre de patients traités par revascularisation coronarienne percutanée augmente de 43% en 2000 à 85% en 2007. Les patients admis dans les hôpitaux bénéficiant d'une salle de cathétérisme cardiaque ont un taux de mortalité plus bas que les patients hopitalisés dans les centres sans salle de cathétérisme cardiaque. Mais les caractéristiques démographiques de ces deux populations sont très différentes. La mortalité intra-hospitalière ainsi que le taux de réinfarctus diminuent significativement au cours y de la période étudiée, parallèlement à l'augmentation de |'utilisation de la revascularisation coronarienne percutanée. La revascularisation coronarienne percutanée est le paramètre prédictif de survie le plus important. Conclusion: la mortalité intra-hospitalière et le taux de réinfarctus du myocarde ont diminué de manière significative chez les patients souffrant d'un infarctus du myocarde avec sus-décalage du segment ST au cours de ces sept dernières années, parallèlement à l'augmentation significative de la revascularisation coronarienne percutanée en plus de la thérapie médicamenteuse. La survie n'est È pas liée au lieu d'hospitalisation mais à l'accès à une revascularisation coronarienne percutanée.
Resumo:
RESUME Introduction : Dans le coeur adulte, l'ischémie et la reperfusion entraînent des perturbations électriques, mécaniques, biochimiques et structurales qui peuvent causer des dommages réversibles ou irréversibles selon la sévérité de l'ischémie. Malgré les récents progrès en cardiologie et en chirurgie foetales, la connaissance des mécanismes impliqués dans la réponse du myocarde embryonnaire à un stress hypoxique transitoire demeure lacunaire. Le but de ce travail a donc été de caractériser les effets chrono-, dromo- et inotropes de l'anoxie et de la réoxygénation sur un modèle de coeur embryonnaire isolé. D'autre part, les effets du monoxyde d'azote (NO) et de la modulation des canaux KATP mitochondriaux (mito KATP) sur la récupération fonctionnelle postanoxique ont été étudiés. La production myocardique de radicaux d'oxygène (ROS) et l'activité de MAP Kinases (ERK et JNK) impliquées dans la signalisation cellulaire ont également été déterminées. Méthodes : Des coeurs d'embryons de poulet âgés de 4 jours battant spontanément ont été placés dans une chambre de culture puis soumis à une anoxie de 30 min suivie d'une réoxygénation de 60 min. L'activité électrique (ECG), les contractions de l'oreillette, du ventricule et du conotroncus (détectées par photométrie), la production de ROS (mesure de la fluorescence du DCFH) et l'activité kinase de ERK et JNK dans le ventricule ont été déterminées au cours de l'anoxie et de la réoxygénation. Les coeurs ont été traités avec un bloqueur des NO synthases (L-NAME), un donneur de NO (DETA-NONOate), un activateur (diazoxide) ou un inhibiteur (5-HD) des canaux mitoKATP un inhibiteur non-spécifique des PKC (chélérythrine) ou un piégeur de ROS (MPG). Résultats : L'anoxie et la réoxygénation entraînaient des arythmies (essentiellement d'origine auriculaire) semblables à celles observées chez l'adulte, des troubles de la conduction (blocs auriculo-ventriculaires de 1er, 2ème et 3ème degré) et un ralentissement marqué du couplage excitation-contraction (E-C) ventriculaire. En plus de ces arythmies, la réoxygénation déclenchait le phénomène de Wenckelbach, de rares échappements ventriculaires et une sidération myocardique. Aucune fibrillation, conduction rétrograde ou activité ectopique n'ont été observées. Le NO exogène améliorait la récupération postanoxique du couplage E-C ventriculaire alors que L'inhibition des NOS la ralentissait. L'activation des canaux mito KATP augmentait la production mitochondriale de ROS à la réoxygénation et accélérait la récupération de la conduction (intervalle PR) et du couplage E-C ventriculaire. La protection de ce couplage était abolie par le MPG, la chélérythrine ou le L-NAME. Les fonctions électrique et contractile de tous les coeurs récupéraient après 30-40 min de réoxygénation. L'activité de ERK et de JNK n'était pas modifiée par L'anoxie, mais doublait et quadruplait, respectivement, après 30 min de réoxygénation. Seule l'activité de JNK était diminuée (-60%) par l'activation des canaux mitoKATP. Cet effet inhibiteur était partiellement abolit par le 5-HD. Conclusion: Dans le coeur immature, le couplage E-C ventriculaire semble être un paramètre particulièrement sensible aux conditions d'oxygénation. Sa récupération postanoxique est améliorée par l'ouverture des canaux mitoKATP via une signalisation impliquant les ROS Ies PKC et le NO. Une réduction de l'activité de JNK semble également participer à cette protection. Nos résultats suggèrent que les mitochondries jouent un rôle central dans la modulation des voies de signalisation cellulaire, en particulier lorsque les conditions métaboliques deviennent défavorables. Le coeur embryonnaire isolé représente donc un modèle expérimental utile pour mieux comprendre les mécanismes associés à une hypoxie in utero et pour améliorer les stratégies thérapeutiques en cardiologie et chirurgie foetales. ABSTRACT Physiopathology of the anoxic-reoxygenated embryonic heart: Protective role of NO and KATP channel Aim: In the adult heart, the electrical, mechanical, biochemical and structural disturbances induced by ischemia and reperfusion lead to reversible or irreversible damages depending on the severity and duration of ischemia. In spite of recent advances in fetal cardiology and surgery, little is known regarding the cellular mechanisms involved in hypoxia-induced dysfunction in the developing heart. The aim of this study was to precisely characterize the chrono-, dromo- and inotropic disturbances associated with anoxia-reoxygenation in an embryonic heart model. Furthermore, the roles that nitric oxide (NO), reactive oxygen species (ROS), mitochondrial KATP, (mito KATP) channel and MAP Kinases could play in the stressed developing heart have been investigated. Methods: Embryonic chick hearts (4-day-old) were isolated and submitted in vitro to 30 min anoxia followed by 60 min reoxygenation. Electrical (ECG) and contractile activities of atria, ventricle and conotruncus (photometric detection), ROS production (DCFH fluorescence) and ERK and JNK activity were determined in the ventricle throughout anoxia-reoxygenation. Hearts were treated with NO synthase inhibitor (L-NAME), NO donor (DETA-NONOate), mitoKATP channel opener (diazoxide) or blocket (5-HD), PKC inhibitor (chelerythrine) and ROS scavenger (MPG). Results: Anoxia and reoxygenation provoked arrhythxnias (mainly originating from atrial region), troubles of conduction (st, 2nd, and 3rd degree atrio-ventricular blocks) and disturbances of excitation-contraction (E-C) coupling. In addition to these types of arrhythmias, reoxygenation triggered Wenckebach phenomenon and rare ventricular escape beats. No fibrillations, no ventricular ectopic beats and no electromechanical dissociation were observed. Myocardial stunning was observed during the first 30 min of reoxygenation. All hearts fully recovered their electrical and mechanical functions after 30-40 min of reoxygenation. Exogenous NO improved while NOS inhibition delayed E-C coupling recovery. Mito KATP, channel opening increased reoxygenation-induced ROS production and improved E-C coupling and conduction (PR) recovery. MPG, chelerythrine or L-NAME reversed this effect. Reoxygenation increased ERK and JNK activities land 4-fold, respectively, while anoxia had no effect. MitoKATP channel opening abolished the reoxygenation-induced activation of JNK but had no effect on ERK activity. This inhibitory effect was partly reversed by mitoKATP channel blocker but not by MPG. Conclusion: In the developing heart, ventricular E-C coupling was found to be specially sensitive to hypoxia-reoxygenation and its postanoxic recovery was improved by mitoKATP channel activation via a ROS-, PKC- and NO-dependent pathway. JNK inhibition appears to be involved in this protection. Thus, mitochondria can play a pivotal role in the cellular signalling pathways, notably under critical metabolic conditions. The model of isolated embryonic heart appears to be useful to better understand the mechanisms underlying the myocardial dysfunction induced by an in utero hypoxia and to improve therapeutic strategies in fetal cardiology and surgery.
Resumo:
Résumé Interaction entre les lipides alimentaires et l'inactivité physique sur la sensibilité à l'insuline et les lipides intramyocellulaires chez le sujet masculin en bonne santé Ces deux dernières décennies, l'incidence de la résistance à l'insuline n'a cessé de progresser dans les pays industrialisés. Un grand nombre de travaux suggèrent que ce trouble métabolique joue un rôle important dans la pathogenèse de maladies propres au monde industrialisé, telles que le diabète, l'hypertension et les maladies cardiovasculaires. Malgré de nombreuses études, les mécanismes à l'origine de la résistance à l'insuline restent encore incomplètement élucidés. En plus d'une composante génétique, de nombreux facteurs environnementaux semblent impliqués parmi ces derniers, nous nous sommes intéressés à l'effet d'une alimentation riche en graisses associée à une période d'inactivité physique de courte durée. Nous nous sommes également penchés sur la corrélation décrite entre la résistance à l'insuline et la concentration de graisses présentes à l'intérieur des cellules musculaires squelettiques, appelées lipides intramyocellulaires. Pour ce faire, 8 volontaires masculins ont été étudiés à deux occasions. Après deux jours de diète équilibrée associée à une activité physique, les participants étaient confinés au lit strict pour 60 heures et devaient manger une alimentation soit riche en graisses saturées soit riche en hydrates de carbones. Pour évaluer l'effet de l'alimentation seule, 6 des 8 volontaires ont été réétudiés après deux jours de diète équilibrée suivie par 60 heures d'alimentation riche en graisses saturées associées à une activité physique contrôlée. Nous avons estimé la sensibilité à l'insuline par la technique du clamp hyperinsulinémique euglycémique alors que la concentration de lipides intramyocellulaires a été déterminée par spectroscopie par résonance magnétique. Après 60 heures d'inactivité physique associée à une alimentation riche en lipides, nous avons observé une diminution de l'utilisation de glucose dépendante de l'insuline (-24±6%; p<0.05), alors qu'aucune modification significative de ce même paramètre n'a été constatée lorsque l'inactivité physique était associée à une alimentation riche en hydrates de carbones (+19±10%). Ces deux conditions se sont accompagnées d'une augmentation des lipides intramyocellulaires (+32±7% et +17±8% respectivement). Bien que l'augmentation des lipides intramyocellulaires observée après 60 heures d'une alimentation riche en graisses saturées associée à une activité physique modérée fût d'une ampleur similaire à celle de la condition associant une alimentation riche en graisses et inactivité physique, l'utilisation de glucose induite par l'insuline n'a pas été modifiée de manière significative (-7±9%) Ces résultats indiquent que l'inactivité physique et une alimentation riche en graisses saturées semblent interagir, induisant une diminution de la sensibilité à l'insuline globale. La concentration de lipides intramyocellulaires a été influencée par les lipides issus de l'alimentation et l'inactivité physique, sans être toutefois corrélée à la résistance à l'insuline. Abstract OBJECTIVE - To assess the effect of a possible interaction between dietary fat and physical inactivity on whole-body insulin sensitivity and intramyocellular lipids (IMCLs). RESEARCH DESIGN AND METHODS - Eight healthy male volunteers were studied on two occasions. After 2 days of an equilibrated diet and moderate physical activity, participants remained inactive (bed rest) for 60 h and consumed either a high-saturated fat (45% fat, of which ~60% was saturated fat [BR-HF]) or a high-carbohydrate (70% carbohydrate [BR-HCHO]) diet. To evaluate the effect of a high-fat diet alone, six of the eight volunteers were restudied after a 2-day equilibrated diet followed by 60 h on a high-saturated fat diet and controlled physical activity (PA-HF). Insulin sensitivity was measured by hyperinsulinemic-euglycemic clamp and IMCL concentrations by H-magnetic resonance spectroscopy. RESULTS - Insulin-mediated glucose disposal was decreased by BR-HF condition (-24 ± 6%, P < 0.05) but did not change with BR-HCHO ( + 19 ± 10%, NS). BR-HF and BR-HCHO increased IMCL levels (+32 ± 7%, P < 0.05 and +17 ± 8%, P < 0.0011, respectively). Although the increase in IMCL levels with PA-HF (+31 ± 19%, P = 0.12) was similar to that during BR-HF, insulin-mediated glucose disposal ( -7 ± 9%, NS) was not decreased. CONCLUSIONS - These data indicate that physical inactivity and a high-saturated fat diet may interact to reduce whole-body insulin sensitivity. IMCL content was influenced by dietary lipid and physical inactivity but was not directly associated with insulin resistance.
Resumo:
Introduction: La disposition de l'imatinib (Glivec®) implique des systèmes connus pour de grandes différences inter-individuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. L'alpha-1-glycoprotéine acide (AAG), une protéine circulante liant fortement l'imatinib, représente l'un de ces systèmes. Objectif: Cette étude observationnelle visait à explorer l'influence de l'AAG plasmatique sur la pharmacocinétique de l'imatinib. Méthode: Une analyse de population a été effectuée avec le programme NONMEM sur 278 échantillons plasmatiques issus de 51 patients oncologiques. L'influence des taux d'AAG sur la clairance (CL) et le volume de distribution (Vd) a ainsi été étudiée. Résultats: Un modèle à un compartiment avec absorption de premier ordre a permis de décrire les données. Une relation hyperbolique entre taux d'AAG et CL ou Vd a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre, et intégrant la constante de dissociation comme paramètre du modèle. Cette approche a permis de déterminer une CLlibre moyenne de 1310 l/h et un Vd de 301 l. Par comparaison, la CLtotale déterminée initialement était de 14 l/h. La CLlibre est affectée par le poids corporel et le type de pathologie. Qui plus est, ce modèle a permis d'estimer in vivo la constante d'association entre imatinib et AAG (5.5?106 l/mol), ainsi que la fraction libre moyenne de l'imatinib (1.1%). La variabilité inter-individuelle estimée pour la disposition de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. Discussion-conclusion: De tels résultats clarifient l'impact de la liaison protéinique sur le devenir de l'imatinib. Des taux élevés d'AAG ont été présumés représenter un facteur de résistance à l'imatinib. Toutefois, cela est peu probable, notre modèle prédisant que la concentration libre reste inchangée. D'un autre côté, s'il est un jour démontré que l'imatinib requiert un programme de suivi thérapeutique (TDM), la mesure des concentrations libres, ou la correction des concentrations totales en fonction des taux d'AAG, devraient être envisagées pour une interprétation précise des résultats.
Resumo:
Introduction. - « Ostéo-Mobile Vaud » est un projet pilote visant àinformer et promouvoir les mesures générales de prévention del'ostéoporose chez les femmes vaudoises de 60 ans et plus. Son butest également d'évaluer le risque de fracture dans cette populationen associant les facteurs de risque cliniques, la mesure de la DMOpar DXA de la colonne lombaire et du fémur proximal (Hologic Discovery),la recherche des fractures vertébrales préexistantes parVFA et une appréciation de la « qualité osseuse » par TBS. Une phaseprospective de 5 ans est prévue. Le Trabecular Bone Score (TBS) estun procédé qui consiste à appliquer un traitement informatique àl'image 2D de projection de la DXA basé sur la quantification desvariations locales de niveaux de gris. Un modèle mathématiquerelie le paramètre TBS avec des paramètres de microarchitecture 3Dtels la connectivité 3D, le nombre de travées et l'espace inter-trabéculaire.Ce modèle fait de TBS une mesure indirecte de microarchitectureosseuse.Résultats. - Fin juillet 2011, 510 femmes de ± 67 ans, IMC ± 26 kg/m2,ont été évaluées. Une ou plusieurs fractures de fragilité ont été rapportéeschez 72 femmes, parmi lesquelles 39 avec fractures vertébrales.TBS diminue avec l'âge (-0.005 par année, p < 0,001) etdiminue en fonction de l'IMC (- 0,011 par kg/m2, p < 0,001). La corrélationentre TBS et la DMO de la colonne lombaire est faible(r = 0,4, p < 0,001) et un grand pourcentage de la variabilité du TBSest indépendant de la DMO (> 84%). TBS discrimine les femmes avecfractures vertébrales des femmes sans fracture vertébrale et lesfemmes avec OP clinique (fractures de fragilité) de celles sans OPclinique. Ce pouvoir discriminatif est indépendant de la DMO de lacolonne lombaire ou du T-score le plus bas, après ajustement pourl'âge et l'IMC.Odd ratio (OR, 95 % IC) pour une diminution d'une déviation standarddu TBS, ajusté pour l'âge, l'IMC et la mesure de DMO :Conclusion. - TBS représente une plus-value par rapport à la DMOdans l'appréciation du risque de fracture chez les femmes vaudoisesde 60 ans et plus.
Resumo:
Introduction : Il essentiel pour les patients, mais aussi pour l'utilisation appropriée des ressources médicales et financières, que les centres pédiatriques oncologiques de moindre envergure répondent de manière adéquate aux normes de soins et atteignent des résultats comparables à ceux des grands centres. Étant donné que l'impact économique des soins de santé est devenu un important modulateur des décisions politiques, il est urgent que les institutions abordent le sujet de la qualité en chirurgie pédiatrique oncologique, et fournissent des éléments pour appuyer ou modifier les lignes directrices existantes Patients et méthode : Par cette étude monocentrique rétrospective de 13 ans, nous avons analysé la qualité de la chirurgie pédiatrique de tumeurs abdominales ou thoraciques du Département Médico-Chirurgical du CHUV pratiquée sur 48 enfants. Afin d'y parvenir, nous avons choisi et analysé deux indicateurs de la qualité de ces soins. Le premier est la conformité de la pratique de ce service, avec les directives des protocoles de traitements internationaux. Le second paramètre étudié est la mesure du taux d'événements indésirables liés à la chirurgie du cancer observés dans notre population de patients. Résultats : La conformité avec les protocoles de traitement est très élevée avec un taux de 96%. L'incidence des événements indésirables liés à la chirurgie est de 34 patients sur 48 (66%). Les complications graves sont rares, avec 85% ne nécessitant pas plus qu'un traitement médical simple. Aucune mortalité chirurgicale n'a été identifiée. Conclusion : Nos données suggèrent que la planification méticuleuse de la chirurgie et l'exécution de celle-ci par des chirurgiens dédiés à l'oncologie pédiatrique, ainsi qu'une étroite collaboration avec des oncologues pédiatres sont des conditions essentielles à la qualité des soins apportés à ces patients. Dans ces conditions, même un centre d'oncologie pédiatrique de moindre envergure peut répondre aux normes établies par les grands centres internationaux.
Resumo:
1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.