17 resultados para volatile

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La contribution de l’inhalation et de la voie percutanée à l’exposition totale à des composés organiques volatils (COV) présents dans l’eau potable est une problématique qui suscite un intérêt grandissant en santé publique et au niveau réglementaire. Jusqu’à tout récemment, seule l’ingestion était considérée dans l’évaluation du risque des contaminants de l’eau. L’objectif de ce projet était de caractériser l’impact de l’exposition multivoie sur la pharmacocinétique et la dose interne de trois COV : le toluène (TOL), le n-hexane (HEX) et le cyclohexane (CYCLO). À cette fin, un modèle expérimental animal a été utilisé et un modèle toxicocinétique à base physiologique (TCBP) a été adapté pour le TOL. Des rats Sprague-Dawley ont été exposés par voies uniques (inhalation, orale et percutanée) ou simultanées (multivoie) aux solvants. Pour le TOL, les trois voies ont été expérimentées, alors que la voie percutanée n’a pas été retenue pour le HEX et le CYCLO. Des prélèvements sanguins ont permis de caractériser les cinétiques sanguines. Les niveaux sanguins, obtenus lors des expositions multivoies, étaient généralement plus élevés que la somme des niveaux associés aux expositions par voies uniques, fait illustré par le rapport des surfaces sous la courbe expérimentale versus les prédictions (TOL : 1,30 et 2,19 ; HEX : 1,55 ; CYCLO : 0,98 et 0,99). Le modèle TCBP prédit bien la cinétique du TOL lors d’expositions par voies uniques et par multivoies. Les données expérimentales obtenues suggèrent que la dose interne résultant d’une exposition multivoie ne peut pas toujours être prédite par la somme des doses internes obtenues lors d’expositions par voies uniques. Ce phénomène serait explicable par la saturation du métabolisme. La modélisation TCBP est un outil efficace pour l’estimation du risque relatif à l’exposition multivoie aux COV présents dans l’eau potable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effort physique a été reconnu comme l’un des déterminants majeurs qui affecte l’absorption pulmonaire et la cinétique des solvants industriels, composés volatils très répandus dans le milieu de travail. L’objectif global de ce projet était de caractériser la relation entre divers niveaux de charge de travail et les concentrations biologiques de l’acétone et du styrène ou de ses métabolites utilisés comme des indicateurs biologiques de l’exposition (IBEs) à ces solvants. Des modèles pharmacocinétiques à base physiologique ont été développés et validés afin de reproduire une exposition professionnelle à l’acétone et au styrène, individuellement et en combinaison, durant une semaine complète de travail (8h/jour, 5 jours). Les simulations ont été effectuées suivant une exposition aux valeurs limite d’exposition (500 ppm et 20 ppm, respectivement) et à des charges de travail de 12,5 W (repos), 25 W et 50 W. Les valeurs prédites par les modèles ont été comparées aux valeurs de référence des IBEs actuels. Le niveau d’acétone dans l’urine obtenu à la fin du dernier quart de travail était 3,5 fois supérieur à la valeur au repos (28 mg/L) pour un effort de 50 W, tandis que les niveaux de styrène dans le sang veineux et de ses métabolites dans l’urine ont augmenté d’un facteur d’environ 3,0 en comparaison avec les valeurs au repos, respectivement de 0,17 mg/L et 144 mg/g créatinine. Pour une co-exposition à des concentrations de 20 ppm de styrène et 200 ppm d’acétone et à une activité physique de 50 W, les simulations ont montré une augmentation de 10% du styrène sanguin et une faible diminution de ses métabolites dans l’urine. Les valeurs simulées par les modèles pour l’acétone ou le styrène montrent que des travailleurs dont la charge de travail équivaut à plus de 25 W sont susceptibles d’avoir des concentrations internes pouvant dépasser les valeurs de référence des IBEs respectifs de ces solvants et peuvent être à risque. Les résultats soulignent ainsi l’importance de tenir compte de la charge de travail dans la détermination d’une valeur de référence pour la surveillance biologique de l’acétone et du styrène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We estimate firm–level idiosyncratic risk in the U.S. manufacturing sector. Our proxy for risk is the volatility of the portion of growth in sales or TFP which is not explained by either industry– or economy–wide factors, or firm characteristics systematically associated with growth itself. We find that idiosyncratic risk accounts for about 90% of the overall uncertainty faced by firms. The extent of cross–sectoral variation in idiosyncratic risk is remarkable. Firms in the most volatile sector are subject to at least three times as much uncertainty as firms in the least volatile. Our evidence indicates that idiosyncratic risk is higher in industries where the extent of creative destruction is likely to be greater.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme la représentation théâtrale est une forme d’art fugitive qui, en raison de son caractère performatif, possède son propre monde fictionnel, la question de l’oposition entre représentation et réalité occupe une place centrale dans les études théâtrales. Ainsi, les œuvres scèniques d’un metteur en scène comme Frank Castorf représentent des objets d’analyse particulièrement appropriés. Parce que Castorf met d’abord l’accent sur le moment présent et la réalité de la représentation théâtrale, il est légitime de se demander quelle est la part qu’occupe la représentation d’un monde fictionel dans ses spectacles. Ce travail vise précisément à identifier l’importance qu’accorde Castorf à la performativité dans deux adaptations théâtrales des romans de Dostoïevski Les démons et l’Idiot. Comme notre société donne une place grandissante aux médias reproductibles tels que la télévision et le cinéma, et que l’être humain tend toujours davantage à se méditiaser lui-même, le théâtre comme toutes les autres formes d’art s’en trouve transformé. C’est dans cette optique que ces deux adaptations théâtrales ont donné lieu à d’autres manifestations artistiques, soit deux films et deux livres. Cet ouvrage retrace également le processus de re-représentation, c’est-à-dire du passage d’un média à un autre, dans le but d’analyser l’interrelation entre ces œuvres ainsi que de comprendre les raisons qui ont poussé le metteur en scène et son théâtre, la Volksbühne Berlin, à transposer d’abord des romans en spectacle de théâtre pour ensuite en faire des films et des livres. De plus, malgré son utilisation croissante au théâtre, la vidéo représente encore pour certains puristes un envahisseur à bannir. Elle introduirait la perte de l’essence du théâtre : le caractère performatif, qui consiste en une rencontre du public et des acteurs dans un même espace-temps. Par contre, les images vidéo-projetées en direct peuvent conserver une part de performativité puisqu’elles sont susceptibles d’influer sur le spectateur, et inversement. En prenant comme exemple l’Idiot de Frank Castorf, ce travail montre comment les caméras et leur dispositif de transmission en direct ont la capacité de se substituer aux principaux objets du spectacle théâtral : les acteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La désinfection de l’eau de consommation et des piscines induit la formation de sous-produits (SPD) potentiellement nocifs pour la santé, parmi lesquels les trihalométhanes (THM), les acides haloacétiques (HAA) et les chloramines (CAM). La difficulté d’estimer l’exposition humaine à ces SPD empêche de cerner précisément les risques sanitaires possiblement associés (i.e., cancérigènes, reprotoxiques, irritatifs). Nos travaux s’articulent autour d’une méthodologie consistant à intégrer des données d’occurrence environnementales à des modèles toxicocinétiques à base physiologique (TCBP) pour améliorer les mesures de l’exposition aux SPD. Cette approche multidisciplinaire veut prendre en compte de manière aussi appropriée que possible les deux composantes majeures des variations de cette exposition : les variations spatio-temporelles des niveaux de contamination environnementale et l’impact des différences inter- et intra-individuelles sur les niveaux biologiques. Cette thèse, organisée en deux volets qui explorent chacun successivement des aspects environnemental et biologique de la problématique, vise à contribuer au développement de cette stratégie innovante d’estimation de l’exposition et, plus généralement, à des meilleures pratiques en la matière. Le premier volet de la thèse s’intéresse à l’exposition en milieu domestique (i.e., résultant de l’utilisation de l’eau potable au domicile) et est consacré au cas complexe des THM, les plus abondants et volatils des SPD, absorbables par ingestion mais aussi par inhalation et voie percutanée. Les articles I et II, constitutifs de ce volet, documentent spécifiquement la question des variations inter- et intra- journalières de présence des SPD en réseau et de leurs impacts sur les estimateurs de l’exposition biologique. Ils décrivent l’amplitude et la diversité des variations à court terme des niveaux environnementaux, présentent les difficultés à proposer une façon systématique et « épidémiologiquement » pratique de les modéliser et proposent, de manière originale, une évaluation des mésestimations, somme toute modestes, des mesures biologiques de l’exposition résultant de leurs non-prise en compte. Le deuxième volet de la thèse se penche sur l’exposition aux SPD en piscine, d’un intérêt grandissant au niveau international, et se restreint au cas jugé prioritaire des piscines publiques intérieures. Ce volet envisage, pour quantifier l’exposition dans ce contexte particulier, l’extension de l’approche méthodologique préconisée, élaborée originellement pour application dans un contexte domestique : d’abord, à travers une analyse approfondie des variations des niveaux de contamination (eau, air) des SPD en piscine en vue de les modéliser (article III); puis en examinant, dans le cas particulier du chloroforme, le THM le plus abondant, la possibilité d’utiliser la modélisation TCBP pour simuler des expositions en piscine (article IV). Les résultats mettent notamment en évidence la difficulté d’appréhender précisément la contamination environnementale autrement que par un échantillonnage in situ tandis que la modélisation TCBP apparait, sur le plan toxicologique, comme l’outil le plus pertinent à ce jour, notamment au regard des autres approches existantes, mais qu’il convient d’améliorer pour mieux prédire les niveaux d’exposition biologique. Finalement, ces travaux illustrent la pertinence et la nécessité d’une approche multidisciplinaire et intégratrice et suggère, sur cette base, les pistes à explorer en priorité pour mieux évaluer l’exposition aux SPD et, in fine, cerner véritablement les risques sanitaires qui en résultent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évaluation des risques de l'exposition aux mélanges de produits chimiques par voies multiples peut être améliorée par une compréhension de la variation de la dose interne due à l’interaction entre les produits. Les modèles pharmacocinétiques à base physiologique (PBPK) sont des outils éprouvés pour prédire l'ampleur de ces variations dans différents scénarios. Dans cette étude, quatre composés organiques volatils (COV) (toluène, nhexane, cyclohexane et isooctane) ont été choisis pour représenter des produits pétroliers (essence) pouvant contaminer l'eau potable. Premièrement, les modèles PBPK ont simulé l'exposition à un seul COV par une voie (inhalation ou gavage). Ensuite, ces modèles ont été interconnectés pour simuler l'exposition à un mélange par voies multiples. Les modèles ont été validés avec des données in vivo chez des rats Sprague-Dawley (n=5) exposés par inhalation (50 ppm ; toluène, hexane, et 300 ppm ; cyclohexane, isooctane; 2-h) ou par gavage (8,3; 5,5; 27,9 et 41,27 mg/kg pour le toluène, l’hexane, le cyclohexane et l’isooctane, respectivement). Des doses similaires ont été utilisées pour l'exposition au mélange par voies multiples. Les AUC (mg/L x min) pour le toluène, l'hexane, le cyclohexane et l'isooctane étaient respectivement de 157,25; 18,77; 159,58 et 176,54 pour les données expérimentales, et 121,73; 21,91; 19,55 et 170,54 pour les modèles PBPK. Les résultats des modèles PBPK et les données in vivo (simple COV par voies multiples vs. mélange par voies multiples) ont montré des interactions entre les COVs dans le cas de l'exposition au mélange par voies multiples. Cette étude démontre l'efficacité des modèles PBPK pour simuler l'exposition aux mélanges de COV par voies multiples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une étape cruciale dans la fabrication des MEMS de haute fréquence est la gravure par plasma de la couche mince d’AlN de structure colonnaire agissant comme matériau piézoélectrique. Réalisé en collaboration étroite avec les chercheurs de Teledyne Dalsa, ce mémoire de maîtrise vise à mieux comprendre les mécanismes physico-chimiques gouvernant la cinétique ainsi que la formation de dommages lors de la gravure de l’AlN dans des plasmas Ar/Cl2/BCl3. Dans un premier temps, nous avons effectué une étude de l’influence des conditions opératoires d’un plasma à couplage inductif sur la densité des principales espèces actives de la gravure, à savoir, les ions positifs et les atomes de Cl. Ces mesures ont ensuite été corrélées aux caractéristiques de gravure, en particulier la vitesse de gravure, la rugosité de surface et les propriétés chimiques de la couche mince. Dans les plasmas Ar/Cl2, nos travaux ont notamment mis en évidence l’effet inhibiteur de l’AlO, un composé formé au cours de la croissance de l’AlN par pulvérisation magnétron réactive et non issu des interactions plasmas-parois ou encore de l’incorporation d’humidité dans la structure colonnaire de l’AlN. En présence de faibles traces de BCl3 dans le plasma Ar/Cl2, nous avons observé une amélioration significative du rendement de gravure de l’AlN dû à la formation de composés volatils BOCl. Par ailleurs, selon nos travaux, il y aurait deux niveaux de rugosité post-gravure : une plus faible rugosité produite par la présence d’AlO dans les plasmas Ar/Cl2 et indépendante de la vitesse de gravure ainsi qu’une plus importante rugosité due à la désorption préférentielle de l’Al dans les plasmas Ar/Cl2/BCl3 et augmentant linéairement avec la vitesse de gravure.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Le premier article de la thèse se veut une revue systématique des données empiriques mettant en lumière les antécédents à la base de l’émergence du leadership narcissique dans les organisations, ses composantes psychologiques ainsi que ses incidences tant pour les organisations que pour leurs membres. Conséquemment, cette étude brosse initialement une recension détaillée des principaux facteurs idiosyncrasiques, culturels, environnementaux et structurels participant à la manifestation du leadership narcissique dans les organisations. Par la suite, elle en sonde la teneur en isolant l’existence de cinq composantes psychologiques, soit le charisme, l’influence intéressée, la motivation fallacieuse, l’inhibition intellectuelle et la considération simulée. Enfin, elle souligne les conséquences négatives de son actualisation dont les principales sont : la production de prises de décisions volatiles et risquées; la création d’un climat organisationnel toxique; la destruction de la confiance des subordonnés; la détérioration de l’efficacité organisationnelle; l’émergence d’une gestion dysfonctionnelle; et la manifestation de comportements non-éthiques. Le deuxième article s’avère une analyse comparative de deux types de leadership se révélant, de prime abord, trompeusement analogues. Ces deux types sont le leadership transformationnel et le leadership narcissique. Quoique se situant aux antipodes en matière de satisfaction de besoins (influence idéalisée versus influence intéressée), de promotion de visions (motivation inspirationnelle versus motivation fallacieuse), de réceptivité à la rétroaction d’autrui (stimulation intellectuelle versus inhibition intellectuelle) et de traitement des relations interpersonnelles (considération individualisée versus considération simulée), les leaderships transformationnel et narcissique partagent entre eux un élément commun : le charisme du leader. C’est précisément cette dernière caractéristique, conférant à son détenteur un puissant halo magnétisant, qui se révèle le creuset de la spéciosité du leadership narcissique opérant essentiellement lors des tout premiers contacts avec le leader. En fait, le charisme du leader narcissique sert en quelque sorte de fard, composé de charme et de fascination, masquant une décevante réalité psychologique et dont les propriétés captieuses s’étiolent rapidement. Le troisième article de la thèse est une étude conceptuelle examinant la structuration idiosyncrasique des criminels en col blanc ayant commis des fraudes financières se chiffrant à plusieurs dizaines de millions de dollars. Exploitant le croisement des deux dimensions fondamentales de l’agression, soit sa fonction (proactive ou réactive) et sa forme (directe ou indirecte), cette étude propose une taxonomie archétypique de différents types de psychopathie susceptible de mieux cerner la psychologie du criminel en col blanc d’envergure. L’agression est dite proactive lorsqu’elle est motivée par des impératifs de prédation indépendants de l’état émotionnel de l’individu. L’action de l’individu prédateur est intentionnelle et instrumentale. Elle vise l’atteinte d’objectifs préétablis avant l’actualisation de l’agression. Par contre, elle est considérée réactive lorsque la préservation de l’intégrité physique ou psychologique de l’individu est l’objet d’une menace émergeant de son environnement externe immédiat. Dans ce cas, la réaction agressive de l’individu est émotionnellement conditionnée. Par ailleurs, nonobstant la nature de sa fonction, l’agression peut s’exprimer directement ou indirectement. Elle est considérée directe lorsqu’elle a pour cible l’agressé en tant que tel. La forme physique d’agression peut être physique (sévices corporels) ou verbale (menaces et insultes). Par contre, lorsqu’elle emprunte des modes d’expression plus subtils, tels les rumeurs, l’humour malicieux et la tromperie, l’agression est dite indirecte. Le pairage des deux dimensions fondamentales de l’agression permet la construction d’un modèle d’analyse bidimensionnelle englobant quatre types de psychopathie, à savoir les psychopathies parasitique (préservation indirecte), colérique (préservation directe), cynégétique (prédation directe) et sympathique (prédation indirecte). C’est précisément cette dernière forme de psychopathie, le type sympathique caractérisé par un étaiement idiosyncrasique narcissico-machiavélique, qui traduit le mieux la psychologie des criminels en col blanc d’envergure. Enfin, le quatrième et dernier article de la présente thèse se propose d’explorer une problématique de recherche n’ayant reçu que très peu d’attention de la part des membres de la communauté scientifique, à savoir l’examen de l’adéquation d’un modèle dimensionnel du narcissisme pathologique inspiré du modèle développé par Roche, Pincus, Lukowitsky, Ménard et Conroy (2013). Au moyen d’une étude de cas exploratoire, il a été possible d’associer la vulnérabilité narcissique au segment décompensatoire (échec des stratégies inadaptées d’agrandissement de soi) du modèle théorique inspiré de celui de Roche et al. (2013) et ce, conformément à ses prescriptions. En effet, la comparaison des résultats de l’un des deux participants de l’étude, madame H, obtenus lors des deux saisies de données espacées d’un intervalle d’une année, indique une diminution de la vulnérabilité narcissique lors de la période de re-compensation. En outre, cette diminution est accompagnée de celle de la grandiosité narcissique. En somme, la relation positive entre les deux dimensions du narcissisme pathologique se révèle, sur un plan longitudinal, constante dans les deux segments – compensatoire (recours à des stratégies inadaptées d’agrandissement de soi) et décompensatoire – du modèle théorique inspiré de celui de Roche et al. (2013). Par ailleurs, les résultats obtenus auprès des deux participants à l’étude de cas, monsieur B et de madame H, s’avèrent éclairants eu égard à la prépondérance respective de chacune des dimensions (grandiosité et vulnérabilité) narcissiques en fonction des segments compensatoire et décompensatoire du modèle théorique inspiré de celui de Roche et al. (2013). Se trouvant en mode de compensation narcissique lors des deux saisies de données, monsieur B affiche une grandiosité narcissique supérieure à sa vulnérabilité narcissique. Cette constatation respecte en tous points les prescriptions théoriques du modèle. Quant à madame H, qu’elle soit en mode de compensation ou de décompensation narcissique (postulat non démontré eu égard aux prescriptions du modèle théorique utilisé), sa vulnérabilité narcissique demeure constamment plus élevée que sa grandiosité narcissique. Théoriquement, selon les prescriptions du modèle, la prépondérance devrait être observée chez la dimension « grandiosité narcissique » en période de compensation. De toute évidence, les données obtenues auprès de madame H s’écartent de ces prescriptions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce projet était de développer une formulation liquisolide (LS) de clozapine ayant des propriétés de dissolution améliorées et évaluer sa stabilité et ainsi que sa robustesse à la modification d’excipients. Le propylène glycol (PG), la cellulose microcrystalline (MCC) et le glycolate d’amidon sodique (SSG) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse et agent désintégrant pour la préparation de comprimés LS. Le dioxyde de silicium colloïdal (CSD), le silicate de calcium (CS) et l'aluminométasilicate de magnésium (MAMS) ont été choisis comme agents d’enrobage sec. La caractérisation complète des mélanges et des comprimés a été effectuée. Le taux de libération des comprimés LS était statistiquement supérieur à celui des comprimés réguliers. La surface spécifique des matériaux d’enrobage avait un effet sur les propriétés d’écoulement des mélanges et la taille des particules des matériaux d’enrobage a eu un effet sur la vitesse de dissolution. Le ratio support/enrobage du mélange de poudres (valeur de R) était un paramètre important pour les systèmes LS et devait être plus grand que 20 afin d’obtenir une meilleure libération du médicament. La formulation choisie a démontré une stabilité pour une période d’au moins 12 mois. La technique LS s’est avéré une approche efficace pour le développement de comprimés de clozapine ayant des propriétés de dissolution améliorées. Les comprimés oro-dispersibles (ODT) sont une formulation innovante qui permettent de surmonter les problèmes de déglutition et de fournir un début d'action plus rapide. Dans l’optique d’améliorer les propriétés de dissolution, un essai a été effectué pour étudier la technique LS dans la formulation des ODT de clozapine. Le PG, la MCC, le CSD et la crospovidone (CP) ont été utilisés respectivement en tant que véhicule liquide non volatile, agent de masse, agent d’enrobage sec et agent superdésintégrant pour la préparation de comprimés oro-dispersibles liquisolides (OD-LST). Le mannitol a été choisi comme agent de masse et agent édulcorant. La saccharine de sodium a été utilisée comme agent édulcorant. La caractérisation complète des comprimés a été effectuée. Le taux de libération des OD-LSTs était statisquement supérieur comparativement aux comprimés ODTs. La formulation choisie a démontré une stabilité pour une période d’au moins 6 mois. Il a été conclu que des ODT de clozapine peuvent être préparés avec succès en utilisant la technologie LS dans le but d’améliorer la désintégration et le taux de dissolution de la clozapine dans la cavité orale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation de l’exposition aux composés organiques volatils (COV) recourt couramment à l’analyse des métabolites urinaires en assumant qu’aucune interaction ne survient entre les composés. Or, des études antérieures ont démontré qu’une inhibition de type compétitive survient entre le toluène (TOL), l’éthylbenzène (EBZ) et le m-xylène (XYL). Le chloroforme, qui est également un solvant métabolisé par le CYP2E1, se retrouve souvent en présence des autres COV dans les échantillons de biosurveillance. La présente étude visait donc à évaluer si le chloroforme (CHL) peut lui aussi interagir avec ces COV et évaluer ces interactions au niveau de l’excrétion des biomarqueurs urinaires associés, soit l’o-crésol, l’acide mandélique et l’acide m-méthylhippurique pour TOL, EBZ et XYL respectivement. Afin d’obtenir des données humaines, cinq volontaires ont été exposés par inhalation à différentes combinaisons de COV (seuls et mélanges binaires ou quaternaires) où la concentration de chacun des composés était égale à 1/4 ou 1/8 de la valeur limite d’exposition (VLE) pour une durée de 6h. Des échantillons d’air exhalé, de sang et d’urine ont été récoltés. Ces données ont ensuite été comparées aux modèles pharmacocinétiques à base physiologique (PCBP) existants afin de les ajuster pour l’excrétion urinaire. Certaines différences ont été observées entre les expositions aux solvants seuls et les coexpositions, mais celles-ci semblent majoritairement attribuables aux remplacements de participants à travers les différentes expositions. Les valeurs de Vmax pour EBZ et CHL ont été optimisées afin de mieux prédire les niveaux sanguins de ces COV. À l’exception du modèle pour EBZ, tous les paramètres pour l’excrétion urinaire ont été obtenus à partir de la littérature. Les modèles adaptés dans cette étude ont permis de simuler adéquatement les données expérimentales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We estimate the volatility of plant–level idiosyncratic shocks in the U.S. manufacturing sector. Our measure of volatility is the variation in Revenue Total Factor Productivity which is not explained by either industry– or economy–wide factors, or by establishments’ characteristics. Consistent with previous studies, we find that idiosyncratic shocks are much larger than aggregate random disturbances, accounting for about 80% of the overall uncertainty faced by plants. The extent of cross–sectoral variation in the volatility of shocks is remarkable. Plants in the most volatile sector are subject to about six times as much idiosyncratic uncertainty as plants in the least volatile. We provide evidence suggesting that idiosyncratic risk is higher in industries where the extent of creative destruction is likely to be greater.