985 resultados para Courbe dose-réponse non linéaire


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'exposition aux mélanges de contaminants (environnementaux, alimentaires ou thérapeutiques) soulève de nombreuses interrogations et inquiétudes vis-à-vis des probabilités d'interactions toxicocinétiques et toxicodynamiques. Une telle coexposition peut influencer le mode d’action des composants du cocktail et donc de leur toxicité, suite à un accroissement de leurs concentrations internes. Le bisphénol A (4 dihydroxy-2,2-diphenylpropane) est un contaminant chimique répandu de manière ubiquitaire dans notre environnement, largement utilisé dans la fabrication des plastiques avec l’un des plus grands volumes de production à l’échelle mondiale. Il est un perturbateur endocrinien par excellence de type œstrogèno-mimétique. Cette molécule est biotransformée en métabolites non toxiques par un processus de glucuronidation. L'exposition concomitante à plusieurs xénobiotiques peut induire à la baisse le taux de glucuronidation du polluant chimique d'intérêt, entre autres la co-exposition avec des médicaments. Puisque la consommation de produits thérapeutiques est un phénomène grandissant dans la population, la possibilité d’une exposition simultanée est d’autant plus grande et forte. Sachant que l'inhibition métabolique est le mécanisme d'interaction le plus plausible pouvant aboutir à une hausse des niveaux internes ainsi qu’à une modulation de la toxicité prévue, la présente étude visait d'abord à confirmer et caractériser ce type d'interactions métaboliques entre le bisphénol A et le naproxène, qui est un anti-inflammatoire non stéroïdiennes (AINS), sur l'ensemble d'un organe intact en utilisant le système de foie de rat isolé et perfusé (IPRL). Elle visait ensuite à déterminer la cinétique enzymatique de chacune de ces deux substances, seule puis en mélange binaire. Dans un second temps, nous avons évalué aussi l’influence de la présence d'albumine sur la cinétique métabolique et le comportement de ces deux substances étudiées en suivant le même modèle de perfusion in vivo au niveau du foie de rat. Les constantes métaboliques ont été déterminées par régression non linéaire. Les métabolismes du BPA et du NAP seuls ont montré une cinétique saturable avec une vélocité maximale (Vmax) de 8.9 nmol/min/ mg prot de foie et une constante d'affinité de l'enzyme pour le substrat (Km) de 51.6 μM pour le BPA et de 3 nmol/min/mg prot de foie et 149.2 μM pour le NAP. L'analyse des expositions combinées suggère une inhibition compétitive partielle du métabolisme du BPA par le NAP avec une valeur de Ki estimée à 0.3542 μM. Les résultats obtenus montrent que l’analyse de risque pour les polluants environnementaux doit donc prendre en considération la consommation des produits pharmaceutiques comme facteur pouvant accroitre le niveau interne lors d’une exposition donnée. Ces données in vivo sur les interactions métaboliques pourraient être intégrées dans un modèle pharmacocinétique à base physiologique (PBPK) pour prédire les conséquences toxicococinétique (TK) de l'exposition d'un individu à ces mélanges chimiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

* This work was completed while the author was visiting the University of Limoges. Support from the laboratoire “Analyse non-linéaire et Optimisation” is gratefully acknowledged.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En exploitant une modulation de phase sinusoïdale temporelle additionnelle, nous montrons qu’il est possible d’améliorer significativement les performances d’une compression spectrale réalisée en régime de propagation hautement non-linéaire. Les simulations numériques indiquent ainsi une amélioration des facteurs de compression ainsi que du rapport de Strehl.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le système nerveux central, la dopamine joue un rôle crucial dans de nombreuses fonctions physiologiques telles que : l’apprentissage, le mouvement volontaire, la motivation, la cognition et la production hormonale. Il a été aussi démontré que le système de signalisation dopaminergique est altéré dans plusieurs maladies neurologiques et psychiatriques comme la maladie de Parkinson et la schizophrénie. Des études, effectuées dans le laboratoire du Dr.Daniel Lévesque (laboratoire d’accueil), ont montré que les récepteurs nucléaires Nur77 (NR4A1, NGFI-B) et RXRγ (retinoid X receptors γ) sont impliqués dans la régulation des effets de la dopamine dans le système nerveux central. De plus, ces données suggèrent que le complexe Nur77 et RXR joueraient un rôle crucial dans l’effet des médicaments antipsychotiques et antiparkinsoniens. Toutefois, très peu de médicaments ciblant Nur77 ont été identifiés à ce jour et les médicaments agissant sur RXRγ restent mal caractérisés. En outre, les analyses actuellement disponibles ne peuvent pas résumer la complexité des activités des NRs et génèrent des mesures indirectes des activités des drogues. Afin de mieux comprendre comment est régulée l’interaction Nur77/RXRγ dans ces processus, mon projet a été de mettre au point un essai BRET (Bioluminescence Resonance Energy Transfer) et PCA-BRET (Protein Complementation Assay-BRET) basé sur le recrutement d'un motif mimant un co-activateur fusionné avec la YFP. Nos différents essais ont été validés par courbes dose-réponse en utilisant différents composés RXR . Les EC50 (concentration efficace médiane, qui permet de mesurer l'efficacité d'un composé) obtenues étaient très semblables aux valeurs précédemment rapportées dans la littérature. Nous avons aussi pu identifier un composé le SR11237 (BMS649) qui semble posséder une sélectivité pour le complexe Nur77/RXRγ par rapport aux complexes Nurr1/RXRγ et RXRγ /RXRγ. Nos résultats indiquent que ces essais de BRET peuvent être utilisés pour évaluer la sélectivité de nouveaux composés pour les complexes Nur77/RXRγ, Nurr1/RXRγ et RXRγ /RXRγ. Un autre aspect de mon projet de doctorat a été de mettre en évidence par BRET l’importance de la SUMOylation dans la régulation de l'activité de Nur77 dans sa forme monomèrique, homodimèrique et hétérodimèrique. Nous avons ainsi identifié que Nur77 recrute principalement SUMO2 sur sa lysine 577. Il est intéressant de noté que le recrutement de la SUMO2 à Nur77 est potentialisé en présence de la SUMO E3 Ligase PIASγ. Aussi, la perte de la SUMOylation sur la lysine 577 entraîne l'incapacité de Nur77 de recruter divers motifs de co-activation mais pas pour ses formes homo- et hétérodimèrique. Cependant, la présence de PIASγ ne potentialise pas le recrutement du co-activateur, suggérant que cette SUMO E3 Ligase est seulement impliqué dans le processus de recrutement de la SUMO mais pas dans celui du co-activateur. Nous avons ainsi déterminé une nouvelle modification post-traductionnelle sur Nur77 régulant spécifiquement son activité monomérique Ces projets pourraient donc apporter de nouvelles données cruciales pour l’amélioration du traitement de la maladie de Parkinson ou de la schizophrénie, ainsi que d'obtenir une meilleure compréhension sur les mécanismes permettant la régulation de la fonction de Nur77

Relevância:

100.00% 100.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’effet du climat sur la croissance de la végétation est depuis longtemps un fait acquis. Les changements climatiques globaux ont entrainé une augmentation des efforts de recherche sur l’impact de ces changements en milieux naturels, à la fois en termes de distribution et d’abondance des espèces, mais également à travers l’étude des rendements des espèces commerciales. La présente étude vise à déterminer, à travers l’utilisation de relevés dendrochronologiques, les effets de variables climatiques sur la croissance de l’épinette noire et du sapin baumier à l’échelle de la forêt boréale du Québec. Le but est d’identifier les principaux modificateurs climatiques responsables de la croissance des peuplements boréaux en fonction de leur âge et de leur localisation. Se focalisant sur un modèle non-linéaire des moindres carrés incorporant les modificateurs climatiques et un modificateur d’âge, la modélisation de la croissance en surface terrière en fonction de ces critères a permis de détecter des différences entre le sapin baumier et l’épinette noire. Les résultats montrent que les deux espèces réagissent surtout à la longueur de la saison de croissance et aux températures estivales maximales. L’épinette noire semble également plus sensible aux conditions de sécheresse. Les modèles basés sur l’âge ainsi que sur la localisation le long d’un gradient nord-sud révèlent quelques différences, notamment concernant la réaction plus prononcée des jeunes peuplements au climat, en particulier aux températures, tandis que les vieux peuplements sont sensibles au rayonnement solaire. L’étude démontre tout de même une relative indépendance de l’épinette vis-à-vis du gradient latitudinal, à l’inverse du sapin. Les résultats permettent de discuter des modifications de productivité de ces espèces liées à l’allongement de la saison de croissance (gain pour les deux essences) et aux températures croissantes en conjonction avec les précipitations (perte due à la sécheresse pour l’épinette), dans un contexte de changements climatiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La recherche a pour objet la réinsertion socioprofessionnelle des personnes présentant un trouble mental grave. Elle vise à apporter une compréhension de leur cheminement de réinsertion sur le marché de l’emploi régulier, et ce, à partir des perspectives des acteurs concernés et à travers une prise en compte des contextes sociaux dans lesquels ils évoluent. Notre étude est guidée par trois objectifs : (1) identifier certains éléments sur les plans individuel et environnemental pouvant faciliter la réinsertion professionnelle des personnes présentant un trouble mental; (2) identifier certains obstacles sur les plans individuel et environnemental susceptibles de nuire à leur réinsertion en emploi; (3) mieux comprendre l’impact de la réinsertion professionnelle sur les sphères individuelles et sociales de ces individus et leurs perceptions quant à la réinsertion professionnelle. Le cadre conceptuel adopté s’appuie sur la notion/paradigme du rétablissement en santé mentale, ce dernier étant compris comme un processus multidimensionnel et non-linéaire. Notre démarche est qualitative et fondée sur des collectes réalisées à ÉquiTravail, un organisme de la ville de Québec ayant pour mission de favoriser l’intégration, la réintégration et le maintien sur le marché du travail de personnes aux prises avec un trouble mental. Des entrevues semi-dirigées individuelles auprès de quatre usagers, ainsi qu’un groupe de discussion focalisé avec quatre intervenants, ont été réalisés. Le matériel a été soumis à une analyse thématique des contenus. Nos résultats illustrent le fait que tant les composantes individuelles que les éléments de l’environnement et ceux relevant de l’interaction entre l’environnement et l’individu sont cruciaux dans les processus de réinsertion socioprofessionnelle. La réussite du processus d’insertion socioprofessionnelle ne repose pas uniquement sur la responsabilité individuelle, mais aussi sur l’interaction entre les composantes individuelles et les aspects de l’environnement gravitant autour de l’individu. Les implications de ces conclusions pour la recherche et la pratique sont également discutées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Méthodologie: Modèle de régression quantile de variable instrumentale pour données de Panel utilisant la fonction de production partielle

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Enjeux et contexte La recherche de cette dernière décennie sur les acides gras n-3 PUFA contenus dans l'huile de poisson a montré que ceux-ci, et particulièrement l'ΕΡΑ et le DHA, avaient des propriétés anti¬inflammatoires et anti arythmiques puissantes, potentiellement utiles chez les septiques et « cardiaques ». Les mécanismes sous-jacents sont nombreux, incluant l'incorporation des acides gras dans les membranes de phopholipides, la réduction de la production de médiateurs pro-inflammatoires (prostaglandines, leukotrienes, thromboxane), l'augmentation de la production de résolvines et protectines dérivées du DHA, et la régulation de voies de signalisation cellulaire. Cependant, les doses de n-3 PUFA utilisées dans les études cliniques et chez le sujet sain avant le travail de Yann-Karim Pittet étaient nettement supérieures aux doses nutritionnelles de l'ordre de 5-8 g/j par voie orale ou 1 g/kg par voie intraveineuse. De plus, la voie entérale avait la réputation de nécessiter plusieurs jours à semaines de traitement avant d'aboutir à une incorporation d'acides gras membranaire suffisante pour avoir un impact clinique; quant au temps minimal requis pour obtenir cet effet par voie IV, il était inconnu. Depuis, le développement d'émulsions lipidiques intraveineuses destinées à la nutrition parentérale a permis d'imaginer l'administration de prétraitements IV rapides. Pour les étudier, notre laboratoire a développé un modèle d'endotoxine (LPS d'E.Coli) qui mime les réponses physiologique, endocrinienne et biologique du sepsis chez le sujet sain, utilisant des doses de 2 ng/kg IV. Les réponses sont totalement réversibles en 8 heures. Dans le but de réduire à la fois la dose de lipides et le temps de perfusion, ce travail a étudié l'influence de 3 doses dégressives de n-3 PUFA sur les réponses à l'endotoxine, et sur l'incorporation membranaire de ces acides gras. Méthodes Etude prospective chez 3 groupes consécutifs de sujets sains soumis à un challenge d'endotoxine. Intervention : perfusions d'huile de poisson (0.5 et 0.2 g/kg de n-3 PUFA, Omegaven® 10%) ou placebo, administrées en 3 heures ou en 1 heure, soit le jour avant ou le jour-même du test d'endotoxine. Mesures : variables physiologiques (T°, fc, tension artérielle, calorimétrie indirecte) Laboratoire - prises de sang à T0, 60, 120 et 360 min après l'injection de LPS: TNF-α, hs-CRP, hormones de stress, composition en acides gras des membranes plaquettaires. Statistiques Les résultats ont été rapportés en moyennes et écarts types. Des aires sous la courbe (AUC) ont été calculées avec la méthode des parallélépipèdes pour toutes les variables déterminées de manière répétée. L'effet du temps a été exploré par des two-way ANOVA pour mesures répétées. Les comparaisons post-hoc ont été réalisées avec des tests de Dunnett's ou de Scheffe. Les modifications de composition membranaires ainsi que les AUC ont été analysées par des tests non-paramétriques (Kruskal-Wallis). Résultats Après LPS, la température, les concentrations d'ACTH et TNF-α ont augmenté dans les 3 groupes. Ces réponse ont été significativement atténuées (p<0.0001) par l'huile de poisson comparé à ce que nous avions observé dans le groupe contrôle de Pluess et al (ICM 2007). Les concentrations les plus faibles d'ACTH, de TNF-α, et les AUC les plus basses des températures, ont été observées après une dose unique de 0.2 g/kg de n-3 PUFA administrée 1 heure avant le LPS. Par contre, l'incorporation membranaire d'EPA est dose-dépendante. Conclusions Sachant que la réponse à l'endotoxine est reproductible, cette étude montre que 3 doses différentes d'huile de poisson atténuent de manière différente cette réponse. La perfusion de 0.2 g/kg administrée juste avant l'endotoxine s'est avérée la plus efficace à atténuer la réponse fébrile, les cytokines et les hormones de stress, suggérant une capture de l'endotoxine par l'émulsion lipidique qui se surajoute aux effets systémiques et membranaires.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Le travail de modélisation a été réalisé à travers EGSnrc, un logiciel développé par le Conseil National de Recherche Canada.