150 resultados para Paramètre de pénalisation
Resumo:
Summary: Lipophilicity plays an important role in the determination and the comprehension of the pharmacokinetic behavior of drugs. It is usually expressed by the partition coefficient (log P) in the n-octanol/water system. The use of an additional solvent system (1,2-dichlorethane/water) is necessary to obtain complementary information, as the log Poct values alone are not sufficient to explain ail biological properties. The aim of this thesis is to develop tools allowing to predict lipophilicity of new drugs and to analyze the information yielded by those log P values. Part I presents the development of theoretical models used to predict lipophilicity. Chapter 2 shows the necessity to extend the existing solvatochromic analyses in order to predict correctly the lipophilicity of new and complex neutral compounds. In Chapter 3, solvatochromic analyses are used to develop a model for the prediction of the lipophilicity of ions. A global model was obtained allowing to estimate the lipophilicity of neutral, anionic and cationic solutes. Part II presents the detailed study of two physicochemical filters. Chapter 4 shows that the Discovery RP Amide C16 stationary phase allows to estimate lipophilicity of the neutral form of basic and acidic solutes, except of lipophilic acidic solutes. Those solutes present additional interactions with this particular stationary phase. In Chapter 5, 4 different IANI stationary phases are investigated. For neutral solutes, linear data are obtained whatever the IANI column used. For the ionized solutes, their retention is due to a balance of electrostatic and hydrophobie interactions. Thus no discrimination is observed between different series of solutes bearing the same charge, from one column to an other. Part III presents two examples illustrating the information obtained thanks to Structure-Properties Relationships (SPR). Comparing graphically lipophilicity values obtained in two different solvent systems allows to reveal the presence of intramolecular effects .such as internai H-bond (Chapter 6). SPR is used to study the partitioning of ionizable groups encountered in Medicinal Chemistry (Chapter7). Résumé La lipophilie joue un .rôle important dans la détermination et la compréhension du comportement pharmacocinétique des médicaments. Elle est généralement exprimée par le coefficient de partage (log P) d'un composé dans le système de solvants n-octanol/eau. L'utilisation d'un deuxième système de solvants (1,2-dichloroéthane/eau) s'est avérée nécessaire afin d'obtenir des informations complémentaires, les valeurs de log Poct seules n'étant pas suffisantes pour expliquer toutes les propriétés biologiques. Le but de cette thèse est de développer des outils permettant de prédire la lipophilie de nouveaux candidats médicaments et d'analyser l'information fournie par les valeurs de log P. La Partie I présente le développement de modèles théoriques utilisés pour prédire la lipophilie. Le chapitre 2 montre la nécessité de mettre à jour les analyses solvatochromiques existantes mais inadaptées à la prédiction de la lipophilie de nouveaux composés neutres. Dans le chapitre 3, la même méthodologie des analyses solvatochromiques est utilisée pour développer un modèle permettant de prédire la lipophilie des ions. Le modèle global obtenu permet la prédiction de la lipophilie de composés neutres, anioniques et cationiques. La Partie II présente l'étude approfondie de deux filtres physicochimiques. Le Chapitre 4 montre que la phase stationnaire Discovery RP Amide C16 permet la détermination de la lipophilie de la forme neutre de composés basiques et acides, à l'exception des acides très lipophiles. Ces derniers présentent des interactions supplémentaires avec cette phase stationnaire. Dans le Chapitre 5, 4 phases stationnaires IAM sont étudiées. Pour les composés neutres étudiés, des valeurs de rétention linéaires sont obtenues, quelque que soit la colonne IAM utilisée. Pour les composés ionisables, leur rétention est due à une balance entre des interactions électrostatiques et hydrophobes. Donc aucune discrimination n'est observée entre les différentes séries de composés portant la même charge d'une colonne à l'autre. La Partie III présente deux exemples illustrant les informations obtenues par l'utilisation des relations structures-propriétés. Comparer graphiquement la lipophilie mesurée dans deux différents systèmes de solvants permet de mettre en évidence la présence d'effets intramoléculaires tels que les liaisons hydrogène intramoléculaires (Chapitre 6). Cette approche des relations structures-propriétés est aussi appliquée à l'étude du partage de fonctions ionisables rencontrées en Chimie Thérapeutique (Chapitre 7) Résumé large public Pour exercer son effet thérapeutique, un médicament doit atteindre son site d'action en quantité suffisante. La quantité effective de médicament atteignant le site d'action dépend du nombre d'interactions entre le médicament et de nombreux constituants de l'organisme comme, par exemple, les enzymes du métabolisme ou les membranes biologiques. Le passage du médicament à travers ces membranes, appelé perméation, est un paramètre important à optimiser pour développer des médicaments plus puissants. La lipophilie joue un rôle clé dans la compréhension de la perméation passive des médicaments. La lipophilie est généralement exprimée par le coefficient de partage (log P) dans le système de solvants (non miscibles) n-octanol/eau. Les valeurs de log Poct seules se sont avérées insuffisantes pour expliquer la perméation à travers toutes les différentes membranes biologiques du corps humain. L'utilisation d'un système de solvants additionnel (le système 1,2-dichloroéthane/eau) a permis d'obtenir les informations complémentaires indispensables à une bonne compréhension du processus de perméation. Un grand nombre d'outils expérimentaux et théoriques sont à disposition pour étudier la lipophilie. Ce travail de thèse se focalise principalement sur le développement ou l'amélioration de certains de ces outils pour permettre leur application à un champ plus large de composés. Voici une brève description de deux de ces outils: 1)La factorisation de la lipophilie en fonction de certaines propriétés structurelles (telle que le volume) propres aux composés permet de développer des modèles théoriques utilisables pour la prédiction de la lipophilie de nouveaux composés ou médicaments. Cette approche est appliquée à l'analyse de la lipophilie de composés neutres ainsi qu'à la lipophilie de composés chargés. 2)La chromatographie liquide à haute pression sur phase inverse (RP-HPLC) est une méthode couramment utilisée pour la détermination expérimentale des valeurs de log Poct.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
La maladie de Parkinson (MP) est une maladie neurodégénérative atteignant 1-2% des¦personnes de plus de 60 ans (1). Ses signes cliniques ont été décrits par James Parkinson¦en 1817 dans : « An essay on the Shaking palsy» (2). Les signes cardinaux sont le¦tremblement de repos, la rigidité et la bradykinésie. Certaines définitions y ajoutent l'instabilité¦posturale. D'autres manifestations, non motrices, telles qu'une dysfonction autonome et¦sensitive, des troubles de l'humeur, des troubles du sommeil et des démences peuvent¦apparaître en cours d'évolution. Le traitement actuel de la MP est principalement¦pharmacologique. Il consiste en l'administration du précurseur de la dopamine, la levodopa¦(L-dopa). Pourtant, l'utilisation à long terme de la L-dopa induit des fluctuations motrices telles¦que dyskinésies et dystonies. Au cours du siècle dernier, de nombreux traitements¦chirurgicaux ont été tentés, en particulier des procédures ablatives (thalamotomie,¦pallidotomie, subthalamotomie). Elles ont le désavantage d'induire des séquelles non¦négligeables telles que des parésies et des troubles neurocognitifs. La chirurgie ablative a¦été abandonnée avec l'arrivée de la L-dopa dans les années 1960. Les limitations de la¦thérapie par la L-dopa associées aux améliorations de la neuro-imagerie, de la sécurité des¦procédures neurochirurgicales ainsi que des techniques d'implantation ont permis le¦développement de procédures stimulatrices dans les années 1990. La stimulation cérébrale¦profonde des noyaux sous-thalamiques est devenue une stratégie thérapeutique bien établie¦chez les patients atteints d'une MP avancée. Malgré une excellente réponse motrice des¦membres, l'impact de la stimulation cérébrale profonde sur la parole est controversé (2).¦Le but de cette étude est de déterminer l'influence aigüe des stimulateurs sous-thalamiques¦sur des paramètres objectifs et quantitatifs, ainsi que sur un paramètre subjectif de la¦dysarthrie parkinsonienne. Nous allons comparer dans notre groupe de patients deux¦conditions successives: patient avec stimulateurs éteints et sans médication (OFF/nm)¦versus avec stimulateurs allumés et sans médication (ON/nm). Nous allons ensuite effectuer¦des analyses statistiques afin de déterminer si les stimulateurs sous-thalamiques ont un effet¦aigu bénéfique ou non sur certains paramètres vocaux, puis sur l'intelligibilité globale de la¦parole. En effet, l'intelligibilité nous informe sur la capacité de communication du patient avec¦son entourage.
Resumo:
Cette thèse s'intéresse à étudier les propriétés extrémales de certains modèles de risque d'intérêt dans diverses applications de l'assurance, de la finance et des statistiques. Cette thèse se développe selon deux axes principaux, à savoir: Dans la première partie, nous nous concentrons sur deux modèles de risques univariés, c'est-à- dire, un modèle de risque de déflation et un modèle de risque de réassurance. Nous étudions le développement des queues de distribution sous certaines conditions des risques commun¬s. Les principaux résultats sont ainsi illustrés par des exemples typiques et des simulations numériques. Enfin, les résultats sont appliqués aux domaines des assurances, par exemple, les approximations de Value-at-Risk, d'espérance conditionnelle unilatérale etc. La deuxième partie de cette thèse est consacrée à trois modèles à deux variables: Le premier modèle concerne la censure à deux variables des événements extrême. Pour ce modèle, nous proposons tout d'abord une classe d'estimateurs pour les coefficients de dépendance et la probabilité des queues de distributions. Ces estimateurs sont flexibles en raison d'un paramètre de réglage. Leurs distributions asymptotiques sont obtenues sous certaines condi¬tions lentes bivariées de second ordre. Ensuite, nous donnons quelques exemples et présentons une petite étude de simulations de Monte Carlo, suivie par une application sur un ensemble de données réelles d'assurance. L'objectif de notre deuxième modèle de risque à deux variables est l'étude de coefficients de dépendance des queues de distributions obliques et asymétriques à deux variables. Ces distri¬butions obliques et asymétriques sont largement utiles dans les applications statistiques. Elles sont générées principalement par le mélange moyenne-variance de lois normales et le mélange de lois normales asymétriques d'échelles, qui distinguent la structure de dépendance de queue comme indiqué par nos principaux résultats. Le troisième modèle de risque à deux variables concerne le rapprochement des maxima de séries triangulaires elliptiques obliques. Les résultats théoriques sont fondés sur certaines hypothèses concernant le périmètre aléatoire sous-jacent des queues de distributions. -- This thesis aims to investigate the extremal properties of certain risk models of interest in vari¬ous applications from insurance, finance and statistics. This thesis develops along two principal lines, namely: In the first part, we focus on two univariate risk models, i.e., deflated risk and reinsurance risk models. Therein we investigate their tail expansions under certain tail conditions of the common risks. Our main results are illustrated by some typical examples and numerical simu¬lations as well. Finally, the findings are formulated into some applications in insurance fields, for instance, the approximations of Value-at-Risk, conditional tail expectations etc. The second part of this thesis is devoted to the following three bivariate models: The first model is concerned with bivariate censoring of extreme events. For this model, we first propose a class of estimators for both tail dependence coefficient and tail probability. These estimators are flexible due to a tuning parameter and their asymptotic distributions are obtained under some second order bivariate slowly varying conditions of the model. Then, we give some examples and present a small Monte Carlo simulation study followed by an application on a real-data set from insurance. The objective of our second bivariate risk model is the investigation of tail dependence coefficient of bivariate skew slash distributions. Such skew slash distributions are extensively useful in statistical applications and they are generated mainly by normal mean-variance mixture and scaled skew-normal mixture, which distinguish the tail dependence structure as shown by our principle results. The third bivariate risk model is concerned with the approximation of the component-wise maxima of skew elliptical triangular arrays. The theoretical results are based on certain tail assumptions on the underlying random radius.
Resumo:
Rapport de synthèse : Objectifs : évaluer la survie intra-hospitalière des patients présentant un infarctus du myocarde avec sus-décalage du segment ST admis dans les hôpitaux suisses entre 2000 et 2007, et identifier les paramètres prédictifs de mortalité intra-hospitalière et d'événements cardio-vasculaires majeurs (infarctus, réinfarctus, attaque cérébrale). Méthode : utilisation des données du registre national suisse AMIS Plus (Acute Myocardial lnfarction and Unstable Angina in Switzerland). Tous les patients admis pour un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau dans un hôpital suisse participant au registre entre janvier 2000 et décembre 2007 ont été inclus. Résultats: nous avons étudié 12 026 patients présentant un infarctus du myocarde avec sus-décalage du segment ST ou bloc de branche gauche nouveau admis dans 54 hôpitaux suisses différents. L'âge moyen est de 64+-13 ans et 73% des patients inclus sont des hommes. L'incidence de mortalité intra-hospitalière est de 7.6% en 2000 et de 6% en 2007. Le taux de réinfarctus diminue de 3.7% en 2000 à 0.9% en 2007. L'utilisation de médicaments thrombolytiques chute de 40.2% à 2% entre 2000 et 2007. Les paramètres prédictifs cliniques de mortalité sont : un âge> 65-ans, une classe Killips Ill ou IV, un diabète et un infarctus du myocarde avec onde Q (au moment de la présentation). Les patients traités par revascularisation coronarienne percutanée ont un taux inférieur de mortalité et de réinfarctus (3.9% versus 11.2% et 1.1% versus 3.1%, respectivement, p<0.001) sur la période de temps étudiée. Le nombre de patients traités par revascularisation coronarienne percutanée augmente de 43% en 2000 à 85% en 2007. Les patients admis dans les hôpitaux bénéficiant d'une salle de cathétérisme cardiaque ont un taux de mortalité plus bas que les patients hopitalisés dans les centres sans salle de cathétérisme cardiaque. Mais les caractéristiques démographiques de ces deux populations sont très différentes. La mortalité intra-hospitalière ainsi que le taux de réinfarctus diminuent significativement au cours y de la période étudiée, parallèlement à l'augmentation de |'utilisation de la revascularisation coronarienne percutanée. La revascularisation coronarienne percutanée est le paramètre prédictif de survie le plus important. Conclusion: la mortalité intra-hospitalière et le taux de réinfarctus du myocarde ont diminué de manière significative chez les patients souffrant d'un infarctus du myocarde avec sus-décalage du segment ST au cours de ces sept dernières années, parallèlement à l'augmentation significative de la revascularisation coronarienne percutanée en plus de la thérapie médicamenteuse. La survie n'est È pas liée au lieu d'hospitalisation mais à l'accès à une revascularisation coronarienne percutanée.
Resumo:
RESUME Introduction : Dans le coeur adulte, l'ischémie et la reperfusion entraînent des perturbations électriques, mécaniques, biochimiques et structurales qui peuvent causer des dommages réversibles ou irréversibles selon la sévérité de l'ischémie. Malgré les récents progrès en cardiologie et en chirurgie foetales, la connaissance des mécanismes impliqués dans la réponse du myocarde embryonnaire à un stress hypoxique transitoire demeure lacunaire. Le but de ce travail a donc été de caractériser les effets chrono-, dromo- et inotropes de l'anoxie et de la réoxygénation sur un modèle de coeur embryonnaire isolé. D'autre part, les effets du monoxyde d'azote (NO) et de la modulation des canaux KATP mitochondriaux (mito KATP) sur la récupération fonctionnelle postanoxique ont été étudiés. La production myocardique de radicaux d'oxygène (ROS) et l'activité de MAP Kinases (ERK et JNK) impliquées dans la signalisation cellulaire ont également été déterminées. Méthodes : Des coeurs d'embryons de poulet âgés de 4 jours battant spontanément ont été placés dans une chambre de culture puis soumis à une anoxie de 30 min suivie d'une réoxygénation de 60 min. L'activité électrique (ECG), les contractions de l'oreillette, du ventricule et du conotroncus (détectées par photométrie), la production de ROS (mesure de la fluorescence du DCFH) et l'activité kinase de ERK et JNK dans le ventricule ont été déterminées au cours de l'anoxie et de la réoxygénation. Les coeurs ont été traités avec un bloqueur des NO synthases (L-NAME), un donneur de NO (DETA-NONOate), un activateur (diazoxide) ou un inhibiteur (5-HD) des canaux mitoKATP un inhibiteur non-spécifique des PKC (chélérythrine) ou un piégeur de ROS (MPG). Résultats : L'anoxie et la réoxygénation entraînaient des arythmies (essentiellement d'origine auriculaire) semblables à celles observées chez l'adulte, des troubles de la conduction (blocs auriculo-ventriculaires de 1er, 2ème et 3ème degré) et un ralentissement marqué du couplage excitation-contraction (E-C) ventriculaire. En plus de ces arythmies, la réoxygénation déclenchait le phénomène de Wenckelbach, de rares échappements ventriculaires et une sidération myocardique. Aucune fibrillation, conduction rétrograde ou activité ectopique n'ont été observées. Le NO exogène améliorait la récupération postanoxique du couplage E-C ventriculaire alors que L'inhibition des NOS la ralentissait. L'activation des canaux mito KATP augmentait la production mitochondriale de ROS à la réoxygénation et accélérait la récupération de la conduction (intervalle PR) et du couplage E-C ventriculaire. La protection de ce couplage était abolie par le MPG, la chélérythrine ou le L-NAME. Les fonctions électrique et contractile de tous les coeurs récupéraient après 30-40 min de réoxygénation. L'activité de ERK et de JNK n'était pas modifiée par L'anoxie, mais doublait et quadruplait, respectivement, après 30 min de réoxygénation. Seule l'activité de JNK était diminuée (-60%) par l'activation des canaux mitoKATP. Cet effet inhibiteur était partiellement abolit par le 5-HD. Conclusion: Dans le coeur immature, le couplage E-C ventriculaire semble être un paramètre particulièrement sensible aux conditions d'oxygénation. Sa récupération postanoxique est améliorée par l'ouverture des canaux mitoKATP via une signalisation impliquant les ROS Ies PKC et le NO. Une réduction de l'activité de JNK semble également participer à cette protection. Nos résultats suggèrent que les mitochondries jouent un rôle central dans la modulation des voies de signalisation cellulaire, en particulier lorsque les conditions métaboliques deviennent défavorables. Le coeur embryonnaire isolé représente donc un modèle expérimental utile pour mieux comprendre les mécanismes associés à une hypoxie in utero et pour améliorer les stratégies thérapeutiques en cardiologie et chirurgie foetales. ABSTRACT Physiopathology of the anoxic-reoxygenated embryonic heart: Protective role of NO and KATP channel Aim: In the adult heart, the electrical, mechanical, biochemical and structural disturbances induced by ischemia and reperfusion lead to reversible or irreversible damages depending on the severity and duration of ischemia. In spite of recent advances in fetal cardiology and surgery, little is known regarding the cellular mechanisms involved in hypoxia-induced dysfunction in the developing heart. The aim of this study was to precisely characterize the chrono-, dromo- and inotropic disturbances associated with anoxia-reoxygenation in an embryonic heart model. Furthermore, the roles that nitric oxide (NO), reactive oxygen species (ROS), mitochondrial KATP, (mito KATP) channel and MAP Kinases could play in the stressed developing heart have been investigated. Methods: Embryonic chick hearts (4-day-old) were isolated and submitted in vitro to 30 min anoxia followed by 60 min reoxygenation. Electrical (ECG) and contractile activities of atria, ventricle and conotruncus (photometric detection), ROS production (DCFH fluorescence) and ERK and JNK activity were determined in the ventricle throughout anoxia-reoxygenation. Hearts were treated with NO synthase inhibitor (L-NAME), NO donor (DETA-NONOate), mitoKATP channel opener (diazoxide) or blocket (5-HD), PKC inhibitor (chelerythrine) and ROS scavenger (MPG). Results: Anoxia and reoxygenation provoked arrhythxnias (mainly originating from atrial region), troubles of conduction (st, 2nd, and 3rd degree atrio-ventricular blocks) and disturbances of excitation-contraction (E-C) coupling. In addition to these types of arrhythmias, reoxygenation triggered Wenckebach phenomenon and rare ventricular escape beats. No fibrillations, no ventricular ectopic beats and no electromechanical dissociation were observed. Myocardial stunning was observed during the first 30 min of reoxygenation. All hearts fully recovered their electrical and mechanical functions after 30-40 min of reoxygenation. Exogenous NO improved while NOS inhibition delayed E-C coupling recovery. Mito KATP, channel opening increased reoxygenation-induced ROS production and improved E-C coupling and conduction (PR) recovery. MPG, chelerythrine or L-NAME reversed this effect. Reoxygenation increased ERK and JNK activities land 4-fold, respectively, while anoxia had no effect. MitoKATP channel opening abolished the reoxygenation-induced activation of JNK but had no effect on ERK activity. This inhibitory effect was partly reversed by mitoKATP channel blocker but not by MPG. Conclusion: In the developing heart, ventricular E-C coupling was found to be specially sensitive to hypoxia-reoxygenation and its postanoxic recovery was improved by mitoKATP channel activation via a ROS-, PKC- and NO-dependent pathway. JNK inhibition appears to be involved in this protection. Thus, mitochondria can play a pivotal role in the cellular signalling pathways, notably under critical metabolic conditions. The model of isolated embryonic heart appears to be useful to better understand the mechanisms underlying the myocardial dysfunction induced by an in utero hypoxia and to improve therapeutic strategies in fetal cardiology and surgery.
Resumo:
Résumé Interaction entre les lipides alimentaires et l'inactivité physique sur la sensibilité à l'insuline et les lipides intramyocellulaires chez le sujet masculin en bonne santé Ces deux dernières décennies, l'incidence de la résistance à l'insuline n'a cessé de progresser dans les pays industrialisés. Un grand nombre de travaux suggèrent que ce trouble métabolique joue un rôle important dans la pathogenèse de maladies propres au monde industrialisé, telles que le diabète, l'hypertension et les maladies cardiovasculaires. Malgré de nombreuses études, les mécanismes à l'origine de la résistance à l'insuline restent encore incomplètement élucidés. En plus d'une composante génétique, de nombreux facteurs environnementaux semblent impliqués parmi ces derniers, nous nous sommes intéressés à l'effet d'une alimentation riche en graisses associée à une période d'inactivité physique de courte durée. Nous nous sommes également penchés sur la corrélation décrite entre la résistance à l'insuline et la concentration de graisses présentes à l'intérieur des cellules musculaires squelettiques, appelées lipides intramyocellulaires. Pour ce faire, 8 volontaires masculins ont été étudiés à deux occasions. Après deux jours de diète équilibrée associée à une activité physique, les participants étaient confinés au lit strict pour 60 heures et devaient manger une alimentation soit riche en graisses saturées soit riche en hydrates de carbones. Pour évaluer l'effet de l'alimentation seule, 6 des 8 volontaires ont été réétudiés après deux jours de diète équilibrée suivie par 60 heures d'alimentation riche en graisses saturées associées à une activité physique contrôlée. Nous avons estimé la sensibilité à l'insuline par la technique du clamp hyperinsulinémique euglycémique alors que la concentration de lipides intramyocellulaires a été déterminée par spectroscopie par résonance magnétique. Après 60 heures d'inactivité physique associée à une alimentation riche en lipides, nous avons observé une diminution de l'utilisation de glucose dépendante de l'insuline (-24±6%; p<0.05), alors qu'aucune modification significative de ce même paramètre n'a été constatée lorsque l'inactivité physique était associée à une alimentation riche en hydrates de carbones (+19±10%). Ces deux conditions se sont accompagnées d'une augmentation des lipides intramyocellulaires (+32±7% et +17±8% respectivement). Bien que l'augmentation des lipides intramyocellulaires observée après 60 heures d'une alimentation riche en graisses saturées associée à une activité physique modérée fût d'une ampleur similaire à celle de la condition associant une alimentation riche en graisses et inactivité physique, l'utilisation de glucose induite par l'insuline n'a pas été modifiée de manière significative (-7±9%) Ces résultats indiquent que l'inactivité physique et une alimentation riche en graisses saturées semblent interagir, induisant une diminution de la sensibilité à l'insuline globale. La concentration de lipides intramyocellulaires a été influencée par les lipides issus de l'alimentation et l'inactivité physique, sans être toutefois corrélée à la résistance à l'insuline. Abstract OBJECTIVE - To assess the effect of a possible interaction between dietary fat and physical inactivity on whole-body insulin sensitivity and intramyocellular lipids (IMCLs). RESEARCH DESIGN AND METHODS - Eight healthy male volunteers were studied on two occasions. After 2 days of an equilibrated diet and moderate physical activity, participants remained inactive (bed rest) for 60 h and consumed either a high-saturated fat (45% fat, of which ~60% was saturated fat [BR-HF]) or a high-carbohydrate (70% carbohydrate [BR-HCHO]) diet. To evaluate the effect of a high-fat diet alone, six of the eight volunteers were restudied after a 2-day equilibrated diet followed by 60 h on a high-saturated fat diet and controlled physical activity (PA-HF). Insulin sensitivity was measured by hyperinsulinemic-euglycemic clamp and IMCL concentrations by H-magnetic resonance spectroscopy. RESULTS - Insulin-mediated glucose disposal was decreased by BR-HF condition (-24 ± 6%, P < 0.05) but did not change with BR-HCHO ( + 19 ± 10%, NS). BR-HF and BR-HCHO increased IMCL levels (+32 ± 7%, P < 0.05 and +17 ± 8%, P < 0.0011, respectively). Although the increase in IMCL levels with PA-HF (+31 ± 19%, P = 0.12) was similar to that during BR-HF, insulin-mediated glucose disposal ( -7 ± 9%, NS) was not decreased. CONCLUSIONS - These data indicate that physical inactivity and a high-saturated fat diet may interact to reduce whole-body insulin sensitivity. IMCL content was influenced by dietary lipid and physical inactivity but was not directly associated with insulin resistance.
Technologies de procédé et de contrôle pour réduire la teneur en sel du jambon sec et des saucissons
Resumo:
Dans certains pays européens, les produits carnés élaborés peuvent représenter près de 20% de la consommation journalière de sodium. De ce fait, les industries de la viande tentent de réduire la teneur en sel dans les produits carnés pour répondre, d’une part aux attentes des consommateurs et d’autre part aux demandes des autorités sanitaires. Le système Quick‐Dry‐Slice process (QDS®), couplé avec l’utilisation de sels substituant le chlorure de sodium (NaCl), a permis de fabriquer, avec succès, des saucisses fermentées à basse teneur en sel en réduisant le cycle de fabrication et sans ajout de NaCl supplémentaire. Les technologies de mesure en ligne non destructives, comme les rayons X et l’induction électromagnétique, permettent de classifier les jambons frais suivant leur teneur en gras, un paramètre crucial pour adapter la durée de l’étape de salaison. La technologie des rayons X peut aussi être utilisée pour estimer la quantité de sel incorporée pendant la salaison. L’information relative aux teneurs en sel et en gras est importante pour optimiser le processus d’élaboration du jambon sec en réduisant la variabilité de la teneur en sel entre les lots et dans un même lot, mais aussi pour réduire la teneur en sel du produit final. D’autres technologies comme la spectroscopie en proche infrarouge (NIRS) ou spectroscopie microondes sont aussi utiles pour contrôler le processus d’élaboration et pour caractériser et classifier les produits carnés élaborés, selon leur teneur en sel. La plupart de ces technologies peuvent être facilement appliquées en ligne dans l’industrie afin de contrôler le processus de fabrication et d’obtenir ainsi des produits carnés présentant les caractéristiques recherchées.
Resumo:
Introduction: La disposition de l'imatinib (Glivec®) implique des systèmes connus pour de grandes différences inter-individuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. L'alpha-1-glycoprotéine acide (AAG), une protéine circulante liant fortement l'imatinib, représente l'un de ces systèmes. Objectif: Cette étude observationnelle visait à explorer l'influence de l'AAG plasmatique sur la pharmacocinétique de l'imatinib. Méthode: Une analyse de population a été effectuée avec le programme NONMEM sur 278 échantillons plasmatiques issus de 51 patients oncologiques. L'influence des taux d'AAG sur la clairance (CL) et le volume de distribution (Vd) a ainsi été étudiée. Résultats: Un modèle à un compartiment avec absorption de premier ordre a permis de décrire les données. Une relation hyperbolique entre taux d'AAG et CL ou Vd a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre, et intégrant la constante de dissociation comme paramètre du modèle. Cette approche a permis de déterminer une CLlibre moyenne de 1310 l/h et un Vd de 301 l. Par comparaison, la CLtotale déterminée initialement était de 14 l/h. La CLlibre est affectée par le poids corporel et le type de pathologie. Qui plus est, ce modèle a permis d'estimer in vivo la constante d'association entre imatinib et AAG (5.5?106 l/mol), ainsi que la fraction libre moyenne de l'imatinib (1.1%). La variabilité inter-individuelle estimée pour la disposition de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. Discussion-conclusion: De tels résultats clarifient l'impact de la liaison protéinique sur le devenir de l'imatinib. Des taux élevés d'AAG ont été présumés représenter un facteur de résistance à l'imatinib. Toutefois, cela est peu probable, notre modèle prédisant que la concentration libre reste inchangée. D'un autre côté, s'il est un jour démontré que l'imatinib requiert un programme de suivi thérapeutique (TDM), la mesure des concentrations libres, ou la correction des concentrations totales en fonction des taux d'AAG, devraient être envisagées pour une interprétation précise des résultats.
Resumo:
Introduction. - « Ostéo-Mobile Vaud » est un projet pilote visant àinformer et promouvoir les mesures générales de prévention del'ostéoporose chez les femmes vaudoises de 60 ans et plus. Son butest également d'évaluer le risque de fracture dans cette populationen associant les facteurs de risque cliniques, la mesure de la DMOpar DXA de la colonne lombaire et du fémur proximal (Hologic Discovery),la recherche des fractures vertébrales préexistantes parVFA et une appréciation de la « qualité osseuse » par TBS. Une phaseprospective de 5 ans est prévue. Le Trabecular Bone Score (TBS) estun procédé qui consiste à appliquer un traitement informatique àl'image 2D de projection de la DXA basé sur la quantification desvariations locales de niveaux de gris. Un modèle mathématiquerelie le paramètre TBS avec des paramètres de microarchitecture 3Dtels la connectivité 3D, le nombre de travées et l'espace inter-trabéculaire.Ce modèle fait de TBS une mesure indirecte de microarchitectureosseuse.Résultats. - Fin juillet 2011, 510 femmes de ± 67 ans, IMC ± 26 kg/m2,ont été évaluées. Une ou plusieurs fractures de fragilité ont été rapportéeschez 72 femmes, parmi lesquelles 39 avec fractures vertébrales.TBS diminue avec l'âge (-0.005 par année, p < 0,001) etdiminue en fonction de l'IMC (- 0,011 par kg/m2, p < 0,001). La corrélationentre TBS et la DMO de la colonne lombaire est faible(r = 0,4, p < 0,001) et un grand pourcentage de la variabilité du TBSest indépendant de la DMO (> 84%). TBS discrimine les femmes avecfractures vertébrales des femmes sans fracture vertébrale et lesfemmes avec OP clinique (fractures de fragilité) de celles sans OPclinique. Ce pouvoir discriminatif est indépendant de la DMO de lacolonne lombaire ou du T-score le plus bas, après ajustement pourl'âge et l'IMC.Odd ratio (OR, 95 % IC) pour une diminution d'une déviation standarddu TBS, ajusté pour l'âge, l'IMC et la mesure de DMO :Conclusion. - TBS représente une plus-value par rapport à la DMOdans l'appréciation du risque de fracture chez les femmes vaudoisesde 60 ans et plus.
Resumo:
Introduction : Il essentiel pour les patients, mais aussi pour l'utilisation appropriée des ressources médicales et financières, que les centres pédiatriques oncologiques de moindre envergure répondent de manière adéquate aux normes de soins et atteignent des résultats comparables à ceux des grands centres. Étant donné que l'impact économique des soins de santé est devenu un important modulateur des décisions politiques, il est urgent que les institutions abordent le sujet de la qualité en chirurgie pédiatrique oncologique, et fournissent des éléments pour appuyer ou modifier les lignes directrices existantes Patients et méthode : Par cette étude monocentrique rétrospective de 13 ans, nous avons analysé la qualité de la chirurgie pédiatrique de tumeurs abdominales ou thoraciques du Département Médico-Chirurgical du CHUV pratiquée sur 48 enfants. Afin d'y parvenir, nous avons choisi et analysé deux indicateurs de la qualité de ces soins. Le premier est la conformité de la pratique de ce service, avec les directives des protocoles de traitements internationaux. Le second paramètre étudié est la mesure du taux d'événements indésirables liés à la chirurgie du cancer observés dans notre population de patients. Résultats : La conformité avec les protocoles de traitement est très élevée avec un taux de 96%. L'incidence des événements indésirables liés à la chirurgie est de 34 patients sur 48 (66%). Les complications graves sont rares, avec 85% ne nécessitant pas plus qu'un traitement médical simple. Aucune mortalité chirurgicale n'a été identifiée. Conclusion : Nos données suggèrent que la planification méticuleuse de la chirurgie et l'exécution de celle-ci par des chirurgiens dédiés à l'oncologie pédiatrique, ainsi qu'une étroite collaboration avec des oncologues pédiatres sont des conditions essentielles à la qualité des soins apportés à ces patients. Dans ces conditions, même un centre d'oncologie pédiatrique de moindre envergure peut répondre aux normes établies par les grands centres internationaux.
Resumo:
1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.
Resumo:
Les températures moyennes mensuelles et annuelles mesurées à 177 endroits de la Suisse ont été ramenées à une même altitude à l'aide d'une formule empirique afin de détecter les influences de la topographie locale sur ce paramètre. Ces calculs ont montré que des accumulations d'air froid influencent fortement les températures moyennes en saison froide au fond de certaines vallées alpines larges et dépressions du Jura sur une épaisseur d'environ 100 mètres. Le déficit thermique dans ces vallées peut atteindre 2 à 3°C à l'échelle annuelle et 5 à 7°C en hiver comparativement aux versants et sommets environnants. Ces accumulations d'air froid n'influencent que peu les températures moyennes dans les vallées étroites et bien ventilées.
Resumo:
Rapport de synthèse Ce travail de thèse s'articule autour de l'importance de l'évaluation de la fonction vasculaire et des répercussions au niveau central, cardiaque, des perturbations du réseau vasculaire. Les maladies cardiovasculaires sont prédominantes dans notre société et causes de morbidité et mortalité importante. La mesure de la pression artérielle classique reste le moyen le plus utilisé pour suivre la santé des vaisseaux, mais ne reflète pas directement ce qui se passe au niveau du coeur. La tonométrie d'aplanation permet depuis quelques années de mesurer l'onde de pouls radial, et par le biais d'une fonction mathématique de transfert validée, il est possible d'en déduire la forme et Γ amplitude de l'onde de pouls central, donc de la pression aortique centrale. Cette dernière est un reflet bien plus direct de la post-charge cardiaque, et de nombreuses études cliniques actuelles s'intéressent à cette mesure pour stratifier le risque ou évaluer l'effet d'un traitement vasculaire. Toutefois, bien que cet outil soit de plus en plus utilisé, il est rarement précisé si la latéralité de la mesure joue un rôle, sachant que certaines propriétés des membres supérieurs peuvent être affectées par un usage préférentiel (masse musculaire, densité osseuse, diamètre des artères, capillarisation musculaire, et même fonction endothéliale). On a en effet observé que ces divers paramètre étaient tous augmentés sur un bras entraîné. Dès lors on peut se poser la question de l'influence de ces adaptations physiologiques sur la mesure indirecte effectuée par le biais du pouls radial. Nous avons investigué les deux membres supérieurs de sujets jeunes et sédentaires (SED), ainsi que ceux de sujets sportifs avec un développement fortement asymétrique des bras, soit des joueurs de tennis de haut niveau (TEN). Des mesures anthropométriques incluant la composition corporelle et la circonférence des bras et avant-bras ont montré que TEN présente une asymétrie hautement significative aux deux mesures entre le bras dominant (entraîné) et l'autre, ce qui est aussi présent pour la force de serrage (mesurée au dynamomètre de Jamar). L'analyse des courbes centrales de pouls ne montre aucune différence entre les deux membres dans chaque groupe, par contre on peut observer une différence entre SED et TEN, avec un index d'augmentation diastolique qui est 50 % plus élevé chez TEN. Les index d'augmentation systolique sont identiques dans les deux groupes. On peut retenir de cette étude la validité de la méthode de tonométrie d'aplanation quel que soit le bras utilisé (dominant ou non-dominant) et ce même si une asymétrie conséquente est présente. Ces données sont clairement nouvelles et permettent de s'affranchir de cette variable dans la mesure d'un paramètre cardiovasculaire dont l'importance est actuellement grandissante. Les différences d'index diastolique sont expliquées par la fréquence cardiaque et la vitesse de conduction de l'onde de pouls plus basses chez TEN, causant un retard diastolique du retour de l'onde au niveau central, phénomène précédemment bien décrit dans la littérature.
Resumo:
Introduction Le rythmes circadiens influencent différents paramètres de la physiologie et de la physiopathologie cardiovasculaire. Récemment, une relation entre la taille d'un infarctus et l'heure du jour à laquelle il se produit a été suggérée dans des modèles expérimentaux d'infarctus du myocarde. Le but de cette étude a été de déterminer si les rythmes circadiens pouvaient influencer la gravité d'un infarctus en terme de taille et de mortalité chez les patients hospitalisés pour un infarctus du myocarde avec sus-décalage du segment ST (STEMI) ayant bénéficié d'une intervention coronarienne percutanée primaire (ICPP). Méthode Chez 353 patients consécutifs admis avec un STEMI et traités par ICPP, l'heure à la survenue des symptômes, le pic de créatine kinase (reflet de la taille d'un infarctus) et le suivi à 30 jours ont été collectés. Les patients ont été répartis en 4 groupes en fonction de l'heure de survenue de leurs symptômes (00 :00 - 05h59, 06:00 - 11 59 12 00-17h59 et 18h00-23h59). Résultats Aucune différence statistiquement significative n'a été retrouvée entre les différents groupes en ce qui concerne les caractéristiques des patients ou de leur prise en charge. Après analyse multivariée, nous avons mis en évidence une différence statistiquement significative entre les pics de créatine kinase chez les patients avec survenue des symptômes entre 00 :00 et 05:59, qui étaient plus élevés que les pics de créatine kinase chez les patients avec survenue des symptômes à tout autre moment de la journée (augmentation moyenne de 38,4%, ρ <0.05). A 30 jours, la mortalité des patients avec survenue des symptômes entre 00 :00 et 05:59 était également significativement plus élevé que celle des patients avec survenue à tout autre moment de la journée (p <0.05). Conclusion Notre étude démontre une corrélation indépendante entre la taille d'un infarctus STEMI traité par ICPP et le moment de la journée où les symptômes apparaissent. Ces résultats suggèrent que ce moment devrait être un paramètre important à prendre en compte pour évaluer le pronostic des patients.