34 resultados para Jet lag
Resumo:
Le vétérinaire aide le producteur laitier à garder son troupeau en santé. Lorsqu’une vache est malade, il peut prescrire des antibiotiques. Le cas échéant, le lait de la vache traitée aux antibiotiques est jeté. Il n’est donc pas vendu pour consommation. Tout le lait produit est analysé avant d’être pasteurisé et transformé afin de s’assurer que les produits laitiers ne contiennent pas de résidus d’antibiotiques. Si les analyses indiquent que le lait renferme des traces d’antibiotiques, il est jeté et le producteur en cause doit assumer la perte. Les épreuves de dépistage actuelles de ces résidus médicamenteux sont onéreuses et inapplicables sur le terrain. Pour résoudre cette problématique aux pieds de la vache, la solution proposée dans ce projet est la fabrication d’un kit de détection basé sur les polymères à empreinte moléculaire. Il s’agit de polymères dont la conformation moléculaire est complémentaire à celle des antibiotiques. Dans ce projet, il est question d’améliorer l’efficacité des épreuves de dépistages des résidus de tétracyclines en augmentant le nombre de sites d’interaction entre l’antibiotique et des polyesters. Trois polymères sont utilisés portant respectivement des groupements aromatiques, carboxyliques et hydroxyles. Une étude antérieure dans notre laboratoire avait déjà donné un pourcentage de rétention de tétracycline de 50% pour une composition de 1/3 PLAOH- 1/3 PLACOOH- 1/3 PLAOBn. Avec des ajustements, le pourcentage passe à 38.93 % pour une composition de 1/4 PLAOH- 1/2 PLACOOH- 1/4 PLAOPh, de 44.81 % pour une composition de 1/4 PLACOOH- 1/2 PLAOH- 1/4 PLAOPh, de 66.34 %pour une composition de 1/4 PLAOH- 1/4 PLACOOH- 1/2 PLAOPh et de 78.07 % pour une composition de 1/6 PLAOH- 1/6 PLACOOH- 2/3 PLAOPh. Notre hypothèse était que la présence accrue du groupement phényle augmenterait le nombre de sites d’interaction spécifique avec l’antibiotique augmentant ainsi le pourcentage de rétention de l’antibiotique à travers les MIP. Les résultats ont confirmé cette hypothèse.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
En 2003, la Commission de vérité et de réconciliation du Pérou (CVR) publie un rapport sur la période de guerre interne et de violence qui a déchiré le pays entre 1980 et 2000. Ce rapport étudie ces deux décennies pour faire la lumière sur les événements et évaluer la position de divers secteurs de la société afin que les Péruviens puissent se réconcilier avec un pan de leur histoire. Dans son rapport, la CVR consacre une section aux médias, notamment la presse écrite, et salue le rôle « important » qu’ils ont joué, tout en notant au passage que leur couverture du conflit n’a pas favorisé la pacification du pays et a même pu la compromettre par moments. Ce mémoire vise à étudier la couverture de la guerre interne par les trois quotidiens péruviens les plus importants pour le tirage, Expreso, El Comercio, et La República. Il porte surtout sur la période comprise entre le début des hostilités, le 17 mai 1980, et le massacre de huit journalistes dans le village andin d’Uchuraccay, le 26 janvier 1983. Un regard est également jeté sur l’évolution du journalisme au Pérou depuis les années 1960, marquées par l’élection d’un gouvernement démocratique et aussi par l’instauration d’un régime militaire qui se maintiendra au pouvoir pendant 12 ans. Les bouleversements au cours de cette période difficile expliquent, au moins en partie, le désintérêt initialement manifesté par ces quotidiens, au-delà des différences idéologiques manifestes, à l’endroit des premiers pas du Sentier Lumineux et de sa « guerre populaire ».
Resumo:
Les incorporations des mémoires épisodiques dans les rêves apparaissent en formes fragmentées et suivent un modèle temporel distinct qui suit une courbe sinusoïdale. Ce modèle est caractérisé par les incorporations immédiates, qui apparaissent 1-2 jours après l’événement (effet de résidus diurnes), et les incorporations tardives, qui apparaissent 5-7 jours après l’événement (effet de délai). Ces deux effets sont considérés comme des liens entre les processus de consolidation de la mémoire et la formation du rêve. Cette courbe temporelle a été observée pour une variété de stimuli expérimentaux. Cependant, aucune étude à date n’a démontré que le contenu des rêves réagit aux événements diurnes d’une manière plus générale et non-spécifique. Le but de notre étude était d’examiner si deux événements qualitativement distincts, un séjour nocturne au laboratoire (LAB), considéré comme un événement interpersonnel, et une tâche de réalité virtuelle (RV), considérée comme un événement non-interpersonnel, sont intégrés de façon différente dans le contenu onirique. Selon nos hypothèses, 1) les éléments spécifiques liés au LAB et à RV seraient incorporés dans les rêves avec des patrons tendances temporels différents, et 2) les incorporations spécifiques seraient associées à des changements plus généraux dans le locus de contrôle (LoC) du rêve. Vingt-six participants ont passé une nuit dans le laboratoire, ont été exposé à une tâche de RV, et ont rempli un journal de rêve pendant 10 jours. Les rapports de rêve ont été cotés pour les éléments spécifiques portant sur LAB et sur RV, et pour l'évolution générale de LoC du rêve. Nos deux hypothèses ont été confirmées: 1) les incorporations de LAB et RV sont négativement corrélées et apparaissent dans le rêve selon des modèles temporels différents. Les incorporations du LAB ont suivi une courbe sinusoïdale en forme de U, avec un effet de résidu diurne et un effet de délai. Les incorporations de RV ont suivi un patron différent, et ont eu un maximum d’incorporations au jour 4. 2) les scores du LoC du rêve étaient plus externes pour le jour 1 (max incorporations du LAB) et plus internes pour le jour 4 (max incorporations de RV). Ces modèles d'incorporation distincts peuvent refléter des différences dans la façon dont les deux événements ont été traités par les processus de consolidation de la mémoire. Dans ce cas, une expérience interpersonnelle (LAB) était incorporée plus tôt dans le temps. Les résultats suggèrent que LoC du rêve reflète les processus de mémoire plus généraux, qui affectent le contenu du rêve entier, et qui sont partiellement indépendants des incorporations spécifiques.
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
La circulation extracorporelle (CEC) déclenche une réaction inflammatoire systémique, un dommage d’ischémie-reperfusion (I-R) et une dysfonction de l’endothélium dans la circulation pulmonaire. L’hypertension pulmonaire (HTP) est la conséquence de cette cascade de réactions. Cette HTP augmente le travail du ventricule droit et peut causer sa dysfonction, un sevrage difficile de la CEC et une augmentation des besoins de vasopresseurs après la chirurgie cardiaque. L’administration de milrinone et d’époprosténol inhalés a démontré une réduction de la dysfonction endothéliale dans l’artère pulmonaire. Le but de ce travail est d’évaluer différents types de nébulisateur pour l’administration de la milrinone et d’évaluer l’effet du traitement préventif de la combinaison de milrinone et époprosténol inhalés sur les résultats postopératoires en chirurgie cardiaque. Deux études ont été conduites. Dans la première, trois groupes de porcelets ont été comparés : (1) groupe milrinone avec nébulisateur ultrasonique ; CEC et reperfusion précédées par 2,5 mg de milrinone inhalée, (2) goupe milrinone avec nébulisateur à simple jet ; CEC et reperfusion précédées par 2,5 mg de milrinone inhalée et (3) groupe contrôle ; CEC et reperfusion sans traitement. Durant la procédure, les paramètres hémodynamiques, biochimiques et hématologiques ont été mesurés. Après sacrifice, la relaxation endothélium dépendante de l’artère pulmonaire à l’acétylcholine et à la bradykinine a été étudiée en chambres d’organe. Nous avons noté une amélioration de la relaxation de l’endothélium à la bradykinine et à l’acétylcholine dans le groupe avec inhalation de milrinone avec le nébulisateur ultrasonique. Dans la deuxième étude, une analyse rétrospective de 60 patients à haut risque chirurgical atteints d’HTP et opérés à l’Institut de Cardiologie de Montréal à été effectuée. Deux groupes ont été comparés : (1) 40 patients ayant reçu la combinaison de milrinone et d’époprosténol inhalés avant la CEC (groupe traitement) et (2) 20 patients avec des caractéristiques préopératoires n’ayant reçu aucun traitement inhalé avant la CEC (groupe contrôle). Nous avons observé que les besoins en support pharmacologique vasoactif était réduit à 12 heures et à 24 heures postopératoires dans le groupe traitement. L’utilisation de la nébulisation ultrasonique a un impact favorable sur l’endothélium de l’artère pulmonaire après la CEC lorsque comparée à la nébulisation standard à simple jet. Le traitement préventif des patients atteints d’HTP avec la combinaison de milrinone et d’époprosténol inhalés avant la CEC est associé avec une diminution importante des besoins de support vasoactif aux soins intensifs dans les 24 premières heures après la chirurgie.
Resumo:
Nous avons observé une augmentation ‘’transient’’du taux de cristallisation interfacique de l’a-Si lorsqu’on réimplante du Si à proximité de l’interface amorphe/cristal. Après amorphisation et traitement thermique à 650°C pendant 5s de la couche a-Si crée par implantation ionique, une partie a été réimplantée. Les défauts produits par auto-réimplantation à 0.7MeV se trouvent à (302±9) nm de l’interface initiale. Cela nous a permis d’étudier d’avantage la variation initiale de la vitesse SPE (Épitaxie en phase solide). Avec des recuit identiques de 4h à 500°C, nous avons déterminé les positions successives des interfaces et en déduit les taux de cristallisation SPE. La cristallisation débute à l’interface et continue graduellement vers la surface. Après le premier recuit, (252±11) nm s’est recristallisé dans la zone réimplantée soit un avancement SPE de 1.26x10^18at./cm2. Cette valeur est environ 1.50 fois plus importante que celle dans l’état relaxé. Nous suggérons que la présence de défauts à proximité de l’interface a stimulé la vitesse initiale. Avec le nombre de recuit, l’écart entre les vitesses diminue, les deux régions se cristallisent presque à la même vitesse. Les mesures Raman prises avant le SPE et après chaque recuit ont permis de quantifier l’état de relaxation de l’a-Si et le transfert de l’état dé-relaxé à relaxé.
Resumo:
Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs. Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel.
Resumo:
Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.
Resumo:
Introduction & Objectifs : Pour assurer l’analgésie postopératoire, l’anesthésiste dispose, en plus des différentes classes de médicaments administrés par voie orale ou intraveineuse, de diverses techniques pour bloquer l’influx nerveux douloureux en administrant les anesthésiques locaux (AL) de manière centrale ou périphérique. La ropivacaïne (ROP), un AL à longue durée d’action, est un médicament de première intention partout dans le monde, en raison de sa grande efficacité et de son faible risque de toxicité. Contrairement à certains pays, la ROP n'est toujours pas indiquée au Canada pour la rachianesthésie (bloc central) en raison d'un manque de données probantes. Jusqu'à présent, les efforts de recherche ont essentiellement porté sur la sécurité ainsi que sur la durée d’action du médicament lorsqu’administré par voie spinale. De plus, les doses optimales de ROP pour l’anesthésie régionale périphérique ne sont pas encore précisément connues. La posologie devrait être adaptée au site d’administration ainsi qu’à l’intensité et la durée du stimulus produit par la chirurgie. Ultimement, cela permettrait aux cliniciens d’identifier le régime optimal en fonction des facteurs démographiques qui pourraient affecter la pharmacocinétique (PK) et la pharmacodynamie (PD) de l’AL (objectif global de ces travaux). Validation de la Méthode Analytique Manuscrit 1 : Une méthode analytique spécifique et sensible permettant de déterminer les concentrations plasmatiques de ROP a d’abord été optimisée et validée. Validation du Biomarqueur Manuscrit 2 : Nous avons ensuite mis au point et évalué la fiabilité d’une méthode quantitative basée sur la mesure du seuil de perception sensorielle (CPT) chez le volontaire sain. Ce test nécessite l’application d’un courant électrique transcutané qui augmente graduellement et qui, selon la fréquence choisie, est capable de stimuler spécifiquement les fibres nerveuses impliquées dans le cheminement de l’influx nerveux douloureux. Les résultats obtenus chez les volontaires sains indiquent que la mesure CPT est fiable, reproductible et permet de suivre l’évolution temporelle du bloc sensitif. Études cliniques Manuscrit 3 : Nous avons ensuite caractérisé, pendant plus de 72 h, l’absorption systémique de la ROP lorsqu’administrée pour un bloc du nerf fémoral chez 19 patients subissant une chirurgie du genou. Le modèle PK populationnel utilisé pour analyser nos résultats comporte une absorption biphasique durant laquelle une fraction de la dose administrée pénètre rapidement (temps d’absorption moyen : 27 min, IC % 19 – 38 min) dans le flux sanguin systémique pendant que l’autre partie, en provenance du site de dépôt, est redistribuée beaucoup plus lentement (demi-vie (T1/2) : 2.6 h, IC % 1.6 – 4.3 h) vers la circulation systémique. Une relation statistiquement significative entre l’âge de nos patients et la redistribution de l’AL suggère que la perméabilité tissulaire est augmentée avec l’âge. Manuscrit 4 : Une analyse PK-PD du comportement sensitif du bloc fémoral (CPT) a été effectuée. Le modèle développé a estimé à 20.2 ± 10.1 mg la quantité de ROP nécessaire au site d’action pour produire 90 % de l’effet maximal (AE90). À 2 X la AE90, le modèle prédit un début d’action de 23.4 ± 12.5 min et une durée de 22.9 ± 5.3 h. Il s’agit de la première étude ayant caractérisé le comportement sensitif d’un bloc nerveux périphérique. Manuscrit 5 : La troisième et dernière étude clinique a été conduite chez les patients qui devaient subir une chirurgie du genou sous rachianesthésie. Tout comme pour le bloc du nerf fémoral, le modèle PK le plus approprié pour nos données suggère que l’absorption systémique de la ROP à partir du liquide céphalo-rachidien est biphasique; c.à.d. une phase initiale (T1/2 : 49 min, IC %: 24 – 77 min) suivie (délai: 18 ± 2 min) d'une phase légèrement plus lente (T1/2 : 66 min, IC %: 36 – 97 min). L’effet maximal a été observé beaucoup plus rapidement, soit aux environs de 12.6 ± 4.9 min, avant de revenir aux valeurs de base 210 ± 55 min suivant l’administration de l’agent. Ces données ont permis d’estimer une AE50 de 7.3 ± 2.3 mg pour l'administration spinale. Conclusion : En somme, ces modèles peuvent être utilisés pour prédire l’évolution temporelle du bloc sensitif de l’anesthésie rachidienne et périphérique (fémorale), et par conséquent, optimiser l’utilisation clinique de la ROP en fonction des besoins des cliniciens, notamment en ce qui a trait à l’âge du patient.
Resumo:
Utilisant les plus récentes données recueillies par le détecteur ATLAS lors de collisions pp à 7 et 8 TeV au LHC, cette thèse établira des contraintes sévères sur une multitude de modèles allant au-delà du modèle standard (MS) de la physique des particules. Plus particulièrement, deux types de particules hypothétiques, existant dans divers modèles théoriques et qui ne sont pas présentes dans le MS, seront étudiés et sondés. Le premier type étudié sera les quarks-vectoriels (QV) produits lors de collisions pp par l’entremise de couplages électrofaibles avec les quarks légers u et d. On recherchera ces QV lorsqu’ils se désintègrent en un boson W ou Z, et un quark léger. Des arguments théoriques établissent que sous certaines conditions raisonnables la production simple dominerait la production en paires des QV. La topologie particulière des évènements en production simple des QV permettra alors la mise en oeuvre de techniques d’optimisation efficaces pour leur extraction des bruits de fond électrofaibles. Le deuxième type de particules recherché sera celles qui se désintègrent en WZ lorsque ces bosons de jauges W, et Z se désintègrent leptoniquement. Les états finaux détectés par ATLAS seront par conséquent des évènements ayant trois leptons et de l’énergie transverse manquante. La distribution de la masse invariante de ces objets sera alors examinée pour déterminer la présence ou non de nouvelles résonances qui se manifesterait par un excès localisé. Malgré le fait qu’à première vue ces deux nouveaux types de particules n’ont que très peu en commun, ils ont en réalité tous deux un lien étroit avec la brisure de symétrie électrofaible. Dans plusieurs modèles théoriques, l’existence hypothétique des QV est proposé pour annuler les contributions du quark top aux corrections radiatives de la masse du Higgs du MS. Parallèlement, d’autres modèles prédisent quant à eux des résonances en WZ tout en suggérant que le Higgs est une particule composite, chambardant ainsi tout le sector Higgs du MS. Ainsi, les deux analyses présentées dans cette thèse ont un lien fondamental avec la nature même du Higgs, élargissant par le fait même nos connaissances sur l’origine de la masse intrinsèque des particules. En fin de compte, les deux analyses n’ont pas observé d’excès significatif dans leurs régions de signal respectives, ce qui permet d’établir des limites sur la section efficace de production en fonction de la masse des résonances.
Resumo:
Plusieurs interventions visant à améliorer la santé psychologique au travail reposent sur une conceptualisation pathogénique où celle-ci est représentée par une absence d’états psychologiques négatifs (Randall & Nielsen, 2010). Or, elle représenterait à la fois l’absence d’états négatifs de détresse psychologique au travail et la présence d’états positifs de bien-être psychologique au travail (Gilbert, Dagenais-Desmarais, & Savoie, 2011). Ceci suggère qu’afin de maximiser l’impact des interventions, il serait pertinent d’indiquer aux intervenants des leviers pouvant influencer les volets positifs et négatifs de la santé psychologique au travail. Parmi ces leviers, Gilbert (2009) a identifié les demandes et les ressources au travail. Cependant, les modèles théoriques traitant de l’impact de demandes et de ressources sur des états positifs et négatifs tendent à traiter de ces effets de manière indépendante et aucun ne formule de propositions concernant l’impact potentiel de ces leviers sur un état complet et unifié de santé psychologique au travail (e.g., Job Demand-Control(-Support) de Karasek & Theorell, 1990; Job Demands-Resources de Bakker & Demerouti, 2007). En considérant l’aspect interrelié et distinct de la facette positive et négative de la santé psychologique au travail, la présente thèse vise donc à explorer la dynamique entre les demandes, les ressources et un état complet et unifié de santé psychologique au travail. Pour ce faire, un article théorique et un article empirique sont présentés. L’article théorique intègre différentes théories afin d’apporter un éclairage sur l’incidence des demandes et ressources au travail sur un état complet et unifié de santé psychologique au travail, et d’expliquer simultanément l’influence de ces aspects du travail sur les facettes de bien-être et de détresse au travail. Il avance ainsi que, telles que définies par le modèle Job Demand-Resources (Bakker & Demerouti, 2007), les demandes tendraient a davantage représenter des menaces que des défis et auraient alors des effets néfastes sur un état complet de santé psychologique au travail et ses facettes positifs et négatifs. D’autre part, il est suggéré que lorsque les demandes sont élevées, avoir suffisamment de ressources pour se sentir capable de répondre avec succès aux demandes pourrait amener celles-ci à moins représenter des menaces et davantage représenter des défis. Comparativement à une situation où les ressources sont insuffisantes, cette première situation accroîtrait un état complet de santé psychologique au travail, de même que l’intensité de son volet positif, tandis que l’intensité de son volet négatif serait amoindrie. Enfin, il est suggéré que les ressources au travail faciliteraient la satisfaction des besoins psychologiques fondamentaux, ce qui aurait un effet bénéfique sur un état complet de santé psychologique au travail, de même que sur ses facettes. Pour sa part, l’article empirique vise à explorer empiriquement la dynamique entre les demandes, ressources et un état unifié et complet de santé psychologique au travail. Pour ce faire, deux études utilisant des modélisations par équations structurelles sont effectuées. La première utilise un devis transversal et deux échantillons de 302 et 384 enseignants. Elle montre que les demandes et ressources au travail ont une incidence directe respectivement nocive et bénéfique sur la santé psychologique au travail. Cependant, contrairement à ce qui était attendu, les ressources au travail n’auraient pas d’effet modérateur. Ces résultats sont similaires d’un échantillon à l’autre. La seconde étude utilise un devis longitudinal, deux temps de mesure avec une année d’intervalle et un échantillon de 158 enseignants. Suite à une comparaison des relations de causalité normale, inverse et réciproque; elle démontre que la causalité normale serait le type de relation qui expliquerait le mieux les données. Ce constat vient donc renforcer les résultats de l’étude précédente et suggère qu’une diminution des demandes et une augmentation des ressources s’accompagneraient d’une augmentation de la santé psychologique au travail. En explorant théoriquement et empiriquement la dynamique entre les demandes, les ressources et la santé psychologique au travail, la présente thèse offre des bases théoriques novatrices et des bases empiriques solides pour les recherches traitant de demandes et de ressources au travail qui désire étudier un état complet et unifié de santé psychologique au travail, et considérer l’aspect distinct et interdépendant de ses facettes positives et négatives. En pratique, une telle approche permettrait aux décideurs de plus facilement identifier les leviers sur lesquels il importe d’investir pour maximiser la santé psychologique, car cette dernière serait représentée par un critère unique plutôt que plusieurs critères séparés (Mihalopoulos, Carter, Pirkis, & Vos, 2013).
Resumo:
Au cours des 30 dernières années, l’embonpoint et l’obésité infantile sont devenus de véritables défis pour la santé publique. Bien que l’obésité soit, à la base, un problème physiologique (i.e. balance calorique positive) une série de facteurs psychosociaux sont reliés à son développement. Dans cette thèse, nous avons étudié le rôle des facteurs périnataux et de la petite enfance dans le développement du surpoids, ainsi que la relation entre le surpoids et les troubles internalisés au cours de l’enfance et au début de l’adolescence. Nous avions trois objectifs généraux: 1) Modéliser le développement de l’indice de masse corporelle (IMC) ou du statut pondéral (le fait d’être en surpoids ou non) durant l’enfance, ainsi qu’estimer l’hétérogénéité dans la population au cours du temps (i.e. identification de trajectoires développementales de l’IMC). 2) Identifier les facteurs périnataux et de la petite enfance pouvant accroitre le risque qu’un enfant suive une trajectoire menant au surpoids adolescente. 3) Tester la possibilité que le surpoids durant l’enfance soit associé avec des problèmes de santé mentale internalisés à l’adolescence, et vérifier la possibilité qu’une telle association soit médiatisée par l’expérience de victimisation par les pairs et l’insatisfaction corporelle. Ce travail est mené dans une perspective de développement au cours de la vie (life span perspective), considérant l’accumulation des facteurs de risques au cours du temps ainsi que les facteurs qui se manifestent durant certaines périodes critiques de développement.1,2 Nous avons utilisé les données provenant de l’Étude Longitudinale du Développement des Enfants du Québec (ELDEQ), une cohorte de naissances de la province de Québec, Canada. L’échantillon initial était composé de 2120 familles avec un bébé de 5 mois nés au Québec en 1997. Ces familles ont été suivies annuellement ou à tous les deux ans jusqu’à ce que les enfants atteignent l’âge de 13 ans. En ce qui concerne le premier objectif de recherche, nous avons utilisé la méthode des trajectoires développementales fondée sur des groupes pour modéliser l’IMC en continu et en catégories (surpoids vs poids normal). Pour notre deuxième objectif, nous avons effectué des modèles de régression multinomiale afin d’identifier les facteurs périnataux et de la petite enfance associés aux différents groupes développementaux du statut pondéral. Les facteurs de risques putatifs ont été choisis parmi les facteurs identifiés dans la littérature et représentent l’environnement périnatal, les caractéristiques de l’enfant, ainsi que l’environnement familial. Ces facteurs ont été analysés longitudinalement dans la mesure du possible, et les facteurs pouvant servir de levier potentiel d’intervention, tels que l’usage de tabac chez la mère durant la grossesse, le sommeil de l’enfant ou le temps d’écoute de télévision, ont été sélectionnés pour l’analyse. Pour notre troisième objectif, nous avons examiné les associations longitudinales (de 6 à 12 ans) entre les scores-z d’IMC (selon la référence CDC 2000) et les problèmes internalisés avec les modèles d’équations structurales de type « cross-lagged ». Nous avons ensuite examiné comment la victimisation par les pairs et l’insatisfaction corporelle durant l’enfance peuvent médiatiser un lien potentiel entre le surpoids et les troubles internalisés au début de l’adolescence. Les contributions scientifiques de la présente thèse incluent l’identification de trajectoires distinctes du statut pondérale durant l’enfance (précoce, tardive, jamais en surpoids), ainsi que les facteurs de risques précoces et les profils de santé mentale pouvant différer selon la trajectoire d’un enfant. De plus, nous avons identifié des mécanismes importants qui expliquent une partie de l’association entre les trajectoires de surpoids et les troubles internalisés: la victimisation par les pairs et l’insatisfaction corporelle.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
La voie de signalisation Notch est conservée au cours de l'évolution. Elle joue un rôle clé dans le développement, et elle est impliquée dans de nombreuses décisions de destin cellulaire, dans le maintien des cellules souches, et dans le contrôle de la prolifération et de la différenciation cellulaires. Une dérégulation de la signalisation Notch est impliquée dans diverses maladies et cancers, y compris les tumeurs solides, comme les cancers du sein et du col de l'utérus, et les leucémies, comme la Leucémie Aiguë Lymphoblastique des cellules T (LAL-T). Notch est un récepteur transmembranaire activé par des ligands transmembranaires de la famille DSL (Delta/Serrate/Lag-2). Bien que plusieurs mutations oncogéniques ont été identifiées au niveau du récepteur Notch, de nombreux cancers modulés par Notch demeurent ligand-dépendants. Étonnamment, les mécanismes moléculaires régulant l'activation du ligand sont encore relativement peu caractérisés par rapport à ceux qui régissent le récepteur Notch lui-même. Utilisant un essai de co-culture avec un rapporteur luciférase de Notch, nous avons effectué le premier crible d'ARNi pan-génomique visant spécifiquement à identifier des régulateurs des ligands de Notch dans la cellule émettrice du signal. Nous avons ainsi pu découvrir de nouvelles classes de régulateurs communs pour les ligands Delta-like1 et 4. Ces régulateurs comprennent des inhibiteurs de protéases, des facteurs de transcription, et des gènes divers à fonction inconnue, tels que Tmem128 « Transmembrane protein 128 », ou à fonction préalablement caractérisée tels que la co-chaperonne moléculaire Cdc37 « Cell division cycle 37 homolog ». Par la suite, nous avons développé des cribles secondaires fonctionnels où nous avons démontré l'importance de ces régulateurs pour des événements Notch-dépendants, comme la différenciation des cellules T normales, et la survie des cellules souches pré-leucémiques isolées à partir d'un modèle murin de LAL-T. En outre, nous avons prouvé que les régulateurs les plus forts du crible de survie sont également nécessaires pour l'activité d'auto-renouvellement des cellules souches pré-leucémiques. Finalement, nous avons entamé une caractérisation moléculaire préliminaire de deux régulateurs nouvellement identifiés; Tmem128 et Cdc37 afin d'étudier leur mécanisme d'action sur les ligands. En conclusion, cette étude nous a permis d'identifier de nouveaux régulateurs de la voie Notch qui pourraient servir de cibles thérapeutiques potentielles dans les cancers; tel qu'illustré par le modèle LAL-T. La compréhension des détails moléculaires sous-jacents aux fonctions de ces régulateurs sera essentielle afin de développer des inhibiteurs pharmacologiques pour bloquer leur action et entraver la signalisation Notch dans le cancer.