990 resultados para Passive Air Sampling
Resumo:
Cette thèse se propose d’étudier les façons dont la pensée et l’imaginaire grec de l’époque archaïque se représentaient quelques pans du réel qui ne se laissaient jamais voir ni atteindre: l’éther, l’air et l’abîme marin. Vu le caractère insondable de ces espaces, l’imagination et l’abstraction se sont ingéniées à les appréhender par un discours spécifique et à les intégrer dans le système de connaissances et de croyances propre à l’époque en leur assignant une place dans le système de l’univers, en les rattachant à une hiérarchie de l’ordre cosmologique, en leur donnant une forme, en classant leurs objets et en les rapportant aux modèles du monde connu, en les aménageant par les moyens les plus divers. Une étude des formes d’expression de la pensée grecque archaïque, autant littéraires qu’iconographiques, permet de cerner les diverses formes de représentation des domaines inaccessibles et les modèles d’organisation spatiale issus de ce type de pensée. Grâce à la dialectique particulière qui ressort du rapport entre espace et mouvement, cette thèse se propose également d’interroger le corpus des sources grecques archaïques sous des angles jusqu’ici peu explorés: comment maîtrise-t-on l’espace par les déplacements physiques en dehors des parcours terrestres? Comment les schémas du mouvement dans l’espace se sont-ils forgés? Comment les dichotomies issues de la logique spatiale archaïque (haut/bas, droite/gauche, est/ouest, en deça/au-delà, etc.) influent-elles sur la structuration spatiale? Quelles espèces d’espace révèlent les déplacements à travers les différents niveaux du monde, que ce soit ceux des dieux, ceux des mortels et d’autres entités, forces physiques et substances privilégiées dans le commerce avec le divin et le monde d’en haut? Ces analyses mettent en valeur les façons dont l’imagination et l’abstraction plutôt que l’expérience vécue ont contribué, à leur façon, à structurer l’espace et à forger l’image du monde comme κόσμος, monde mis en ordre et soumis autant aux lois physiques qu’aux lois divines.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
Une compréhension approfondie et un meilleur contrôle de l'auto-assemblage des copolymères diblocs (séquencés) et de leurs complexes à l'interface air/eau permettent la formation contrôlée de nanostructures dont les propriétés sont connues comme alternative à la nanolithographie. Dans cette thèse, des monocouches obtenues par les techniques de Langmuir et de Langmuir-Blodgett (LB) avec le copolymère dibloc polystyrène-poly(4-vinyl pyridine) (PS-PVP), seul ou complexé avec de petites molécules par liaison hydrogène [en particulier, le 3-n-pentadécylphénol (PDP)], ont été étudiées. Une partie importante de notre recherche a été consacrée à l'étude d'une monocouche assemblée atypique baptisée réseau de nanostries. Des monocouches LB composées de nanostries ont déjà été rapportées dans la littérature mais elles coexistent souvent avec d'autres morphologies, ce qui les rend inutilisables pour des applications potentielles. Nous avons déterminé les paramètres moléculaires et les conditions expérimentales qui contrôlent cette morphologie, la rendant très reproductible. Nous avons aussi proposé un mécanisme original pour la formation de cette morphologie. De plus, nous avons montré que l'utilisation de solvants à haut point d’ébullition, non couramment utilisés pour la préparation des films Langmuir, peut améliorer l'ordre des nanostries. En étudiant une large gamme de PS-PVP avec des rapports PS/PVP et des masses molaires différents, avec ou sans la présence de PDP, nous avons établi la dépendance des types principaux de morphologie (planaire, stries, nodules) en fonction de la composition et de la concentration des solutions. Ces observations ont mené à une discussion sur les mécanismes de formation des morphologies, incluant la cinétique, l’assemblage moléculaire et l’effet du démouillage. Nous avons aussi démontré pour la première fois que le plateau dans l'isotherme des PS-PVP/PDP avec morphologie de type nodules est relié à une transition ordre-ordre des nodules (héxagonal-tétragonal) qui se produit simultanément avec la réorientation du PDP, les deux aspects étant clairement observés par AFM. Ces études ouvrent aussi la voie à l'utilisation de films PS-PVP/PDP ultraminces comme masque. La capacité de produire des films nanostructurés bien contrôlés sur différents substrats a été démontrée et la stabilité des films a été vérifiée. Le retrait de la petite molécule des nanostructures a fait apparaître une structure interne à explorer lors d’études futures.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La désinfection de l’eau de consommation et des piscines induit la formation de sous-produits (SPD) potentiellement nocifs pour la santé, parmi lesquels les trihalométhanes (THM), les acides haloacétiques (HAA) et les chloramines (CAM). La difficulté d’estimer l’exposition humaine à ces SPD empêche de cerner précisément les risques sanitaires possiblement associés (i.e., cancérigènes, reprotoxiques, irritatifs). Nos travaux s’articulent autour d’une méthodologie consistant à intégrer des données d’occurrence environnementales à des modèles toxicocinétiques à base physiologique (TCBP) pour améliorer les mesures de l’exposition aux SPD. Cette approche multidisciplinaire veut prendre en compte de manière aussi appropriée que possible les deux composantes majeures des variations de cette exposition : les variations spatio-temporelles des niveaux de contamination environnementale et l’impact des différences inter- et intra-individuelles sur les niveaux biologiques. Cette thèse, organisée en deux volets qui explorent chacun successivement des aspects environnemental et biologique de la problématique, vise à contribuer au développement de cette stratégie innovante d’estimation de l’exposition et, plus généralement, à des meilleures pratiques en la matière. Le premier volet de la thèse s’intéresse à l’exposition en milieu domestique (i.e., résultant de l’utilisation de l’eau potable au domicile) et est consacré au cas complexe des THM, les plus abondants et volatils des SPD, absorbables par ingestion mais aussi par inhalation et voie percutanée. Les articles I et II, constitutifs de ce volet, documentent spécifiquement la question des variations inter- et intra- journalières de présence des SPD en réseau et de leurs impacts sur les estimateurs de l’exposition biologique. Ils décrivent l’amplitude et la diversité des variations à court terme des niveaux environnementaux, présentent les difficultés à proposer une façon systématique et « épidémiologiquement » pratique de les modéliser et proposent, de manière originale, une évaluation des mésestimations, somme toute modestes, des mesures biologiques de l’exposition résultant de leurs non-prise en compte. Le deuxième volet de la thèse se penche sur l’exposition aux SPD en piscine, d’un intérêt grandissant au niveau international, et se restreint au cas jugé prioritaire des piscines publiques intérieures. Ce volet envisage, pour quantifier l’exposition dans ce contexte particulier, l’extension de l’approche méthodologique préconisée, élaborée originellement pour application dans un contexte domestique : d’abord, à travers une analyse approfondie des variations des niveaux de contamination (eau, air) des SPD en piscine en vue de les modéliser (article III); puis en examinant, dans le cas particulier du chloroforme, le THM le plus abondant, la possibilité d’utiliser la modélisation TCBP pour simuler des expositions en piscine (article IV). Les résultats mettent notamment en évidence la difficulté d’appréhender précisément la contamination environnementale autrement que par un échantillonnage in situ tandis que la modélisation TCBP apparait, sur le plan toxicologique, comme l’outil le plus pertinent à ce jour, notamment au regard des autres approches existantes, mais qu’il convient d’améliorer pour mieux prédire les niveaux d’exposition biologique. Finalement, ces travaux illustrent la pertinence et la nécessité d’une approche multidisciplinaire et intégratrice et suggère, sur cette base, les pistes à explorer en priorité pour mieux évaluer l’exposition aux SPD et, in fine, cerner véritablement les risques sanitaires qui en résultent.
Resumo:
Cette thèse porte sur les gestes et attitudes qui ont caractérisé la figure aristocratique dans l’art européen entre 1661 et 1789. Cet intervalle correspond à la durée de vie d’un paradigme corporel noble appelé « le bon air et la bonne grâce », de son élaboration à la cour de Louis XIV et de sa diffusion hégémonique en Europe, jusqu’à son rejet définitif à la Révolution française. La société d’Ancien Régime a déployé tout un arsenal de moyens (exercices, instruments orthopédiques,…) pour intérioriser une grâce qui devait paraître innée et prouver la noblesse. Le maître à danser détenait le monopole de l’inculcation de cette grâce et de son élaboration suivant des critères hautement esthétiques. Les gestes et positions inventoriés ici, sont décrits et associés à leurs connotations d’origine, montrant qu’une connaissance approfondie et minutieuse de la gestuelle peut affiner notre compréhension d’un large pan de l’art des XVIIe et XVIIIe siècles. L’auteur démontre que cette hexis corporelle contemporaine transcende tous les domaines concernés par le corps noble (éducation, théâtre, danse, opéra, arts martiaux, etc.) et en vient à infiltrer la majorité des genres picturaux, bousculant les traditions artistiques déjà en place et s’affichant comme une alternative moderne à la grâce des Anciens. Le portrait, la gravure de mode, les figurines de porcelaine, les vues de villes et de jardins sont les plus touchés par ce phénomène. La bonne grâce s’affirme ainsi dans une culture visuelle qui, par ricochet, en vient à renforcer les pratiques sociales dont elle était le reflet. Cet aller-retour des attitudes aristocratiques entre l’art et la vie occasionne la standardisation de la figure et du corps aristocratiques. Dans la pastorale, la peinture d’histoire et la scène de genre, l’idéal aristocratique se manifeste, tantôt en négatif dans la figure du paysan, du Pierrot et de l’Arlequin, tantôt de manière idéalisée dans celles du berger et du héros galants. La substitution de gestes emphatiques et d’expressions faciales explicites par une gestuelle fondée sur la retenue et la dissimulation des passions, fondera une nouvelle historia moins lisible que la traditionnelle, mais plus subtile et insinuée, répondant ainsi mieux au goût et à la sensibilité aristocratique.
Resumo:
Ce projet de recherche évalue la réponse à court terme de coléoptères phloeophages et xylophages (Cerambycidae et Scolytinae) à différentes intensités de coupes partielles (0, 25 et 40% de la surface terrière prélevée) afin de déterminer la viabilité de cette méthode sylvicole en forêt boréale. Disposant de 12 parcelles expérimentales (4 répétitions pour chaque intensité de coupe) dans une sapinière à bouleau blanc située au sud de la forêt boréale (Québec, Canada), nous avons évalué l’abondance, la diversité ainsi que l’établissement (taux d’attaque) de ces deux groupes d’insectes, et ce dès la première année suivant la coupe. L’échantillonnage a été réalisé à l’aide de pièges à interception multidirectionnelle et de l’écorçage de sections de 3 espèces d’arbres exposées dans l’ensemble des parcelles. Nos résultats montrent une plus grande activité/abondance des deux taxons (abondance 5 à 6 fois plus élevée) ainsi qu’une composition en espèces différente et plus diversifiée dans les peuplements partiellement coupés (25 et 40%). De plus, la présence et la distribution d’espèces colonisant habituellement des hôtes affaiblis (e.g., Trypodendron lineatum, Rhagium inquisitor) – et pouvant donc réduire la valeur économique d’arbres résiduels – a été recensée et semble être favorisée entres autres par l’ouverture de la canopée et des blessures physiques faites aux arbres pendant les opérations sylvicoles. Par ailleurs, l’approche combinant différentes techniques d’échantillonnage a permis une meilleure compréhension des mécanismes de localisation/sélection d’hôte (variant en fonction de l’espèce), un aspect important de la dynamique des insectes pour l’évaluation des risques suite aux coupes forestières. Sur la base de cette étude à court terme, il ne semblerait pas y avoir de différence significative sur les risques pour le milieu quant à l’augmentation d’activité des Cerambycidae et Scolytinae entre les deux traitements de coupe appliqués. Il reste cependant indispensable de vérifier la validité de ces résultats sur une plus longue période afin d’établir des plans d’aménagement forestier durables pour la forêt boréale.
Resumo:
La thérapie par le plein air représente une alternative aux programmes d’intervention conventionnels pour jeunes antisociaux. Elle donne à ses participants l’occasion de modifier leurs pensées et leurs comportements dans un contexte d’expédition, à travers la participation à diverses activités de plein air. Ce faisant, ils développent leur répertoire d’habiletés personnelles et sociales, ce qui pourrait faciliter le désistement d’une conduite antisociale. Un devis expérimental prospectif, avec pré-test et post-tests à trois et six mois, a été utilisé afin d’évaluer l’effet de la durée d’une intervention de thérapie par le plein air sur le niveau d’antisocialité et l’insertion socio-professionnelle de jeunes contrevenants. De plus, l’effet potentiellement médiateur des progrès réalisés au chapitre des habiletés interpersonnelles et de la motivation d’accomplissement a été examiné. Un échantillon de 220 jeunes contrevenants a été observé, divisé aléatoirement selon deux conditions expérimentales, soit un programme de 8 à 10 jours et un programme de 17 à 20 jours. Il apparaît que la durée n’a pas d’effet direct significatif sur le niveau d’antisocialité et l’insertion socio-professionnelle des participants. En revanche, la durée du programme a un effet positif indirect sur le niveau d’antisocialité subséquent des participants, à travers l’amélioration des habiletés interpersonnelles et la motivation d’accomplissement des sujets. Aucune des variables mises en jeu n’a eu un impact significatif sur les progrès observés au niveau de l’insertion socio-professionnelle des sujets. La thérapie par le plein air semble favoriser le désistement d’une conduite antisociale en encourageant le développement de certaines habiletés personnelles qui font habituellement défaut chez les jeunes antisociaux.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
De nos jours, l'utilisation accrue de combustibles à base de fossiles et l'électricité met en péril l'environnement naturel à cause des niveaux élevés de pollution. Il est donc plausible de prévoir des économies d'énergie significatives grâce à la climatisation dite «naturelle»». En accord avec les objectifs acceptés à l'échelle internationale d'une architecture «verte» et durable, l'utilisation de cours intérieures associées aux capteurs de vent, aux murs-Trombe et à d'autres systèmes de climatisation naturelle (aussi bien traditionnels que nouveaux), paraît prometteuse. Ce mémoire propose une analyse de nouvelles approches à la climatisation naturelle et à la production d'air frais avec une consommation minimale d'énergie, eu égard aux traditions et aux tendances, en particulier dans les zones climatiques chaudes et sèches comme l'Iran. Dans ce contexte, regarder l'architecture de l'Islam et la discipline du Qur'an paraissent offrir un guide pour comprendre l'approche musulmane aux processus de décision en design. Nous regardons donc les traditions et les tendances en ce qui concerne la climatisation naturelle à travers l'élément le plus important du contexte islamique, à savoir le Qur'an. C'est pourquoi, à l'intérieur du thème de la tradition, nous avons pris en compte quelques considérations concernant l'influence de l'Islam, et en particulier le respect de la nature associé à un équilibre entre l'harmonie et l'individualité. Ce sont autant de facteurs qui influencent la prise de décisions visant à résoudre des problèmes scientifiques majeurs selon la philosophie et les méthodes islamiques ; ils nous permettent de faire quelques recommandations. La description des principes sous-jacents aux capteurs à vent et des antécédents trouvés dans la nature tels que les colonies de termites, est présentée également. Sous la rubrique tendances, nous avons introduit l'utilisation de matériaux et de principes de design nouveaux. Regarder simultanément ces matériaux nouveaux et l'analogie des colonies de termites suggère de bonnes approches à la conception d'abris pour les victimes de tremblements de terre dans les régions sisimques. Bam, une ville iranienne, peut être considérée comme un exemple spécifique illustrant où les principes exposés dans ce mémoire peuvent s'appliquer le plus adéquatement.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Background: An important challenge in conducting social research of specific relevance to harm reduction programs is locating hidden populations of consumers of substances like cannabis who typically report few adverse or unwanted consequences of their use. Much of the deviant, pathologized perception of drug users is historically derived from, and empirically supported, by a research emphasis on gaining ready access to users in drug treatment or in prison populations with higher incidence of problems of dependence and misuse. Because they are less visible, responsible recreational users of illicit drugs have been more difficult to study. Methods: This article investigates Respondent Driven Sampling (RDS) as a method of recruiting experienced marijuana users representative of users in the general population. Based on sampling conducted in a multi-city study (Halifax, Montreal, Toronto, and Vancouver), and compared to samples gathered using other research methods, we assess the strengths and weaknesses of RDS recruitment as a means of gaining access to illicit substance users who experience few harmful consequences of their use. Demographic characteristics of the sample in Toronto are compared with those of users in a recent household survey and a pilot study of Toronto where the latter utilized nonrandom self-selection of respondents. Results: A modified approach to RDS was necessary to attain the target sample size in all four cities (i.e., 40 'users' from each site). The final sample in Toronto was largely similar, however, to marijuana users in a random household survey that was carried out in the same city. Whereas well-educated, married, whites and females in the survey were all somewhat overrepresented, the two samples, overall, were more alike than different with respect to economic status and employment. Furthermore, comparison with a self-selected sample suggests that (even modified) RDS recruitment is a cost-effective way of gathering respondents who are more representative of users in the general population than nonrandom methods of recruitment ordinarily produce. Conclusions: Research on marijuana use, and other forms of drug use hidden in the general population of adults, is important for informing and extending harm reduction beyond its current emphasis on 'at-risk' populations. Expanding harm reduction in a normalizing context, through innovative research on users often overlooked, further challenges assumptions about reducing harm through prohibition of drug use and urges consideration of alternative policies such as decriminalization and legal regulation.
Resumo:
Poor bioavailability and poor pharmacokinetic characteristics are some of the leading causes of drug development failure. Therefore, poorly-soluble drugs, fragile proteins or nucleic acid products may benefit from their encapsulation in nanosized vehicles, providing enhanced solubilisation, protection against degradation, and increased access to pathological compartments. A key element for the success of drug-loaded nanocarriers (NC) is their ability to either cross biological barriers themselves or allow loaded drugs to traverse them to achieve optimal pharmacological action at pathological sites. Depending on the mode of administration, NC may have to cross different physiological barriers in their journey towards their target. In this review, the crossing of biological barriers by passive targeting strategies will be presented for intravenous delivery (vascular endothelial lining, particularly for tumour vasculature and blood-brain barrier targeting), oral administration (gastrointestinal lining) and upper airway administration (pulmonary epithelium). For each specific barrier, background information will be provided on the structure and biology of the tissues involved as well as available pathways for nano-objects or loaded drugs (diffusion and convection through fenestration, transcytosis, tight junction crossing, etc.). The determinants of passive targeting − size, shape, surface chemistry, surface patterning of nanovectors − will be discussed in light of current results. Perspectives on each mode of administration will be presented. The focus will be on polymeric nanoparticles and dendrimers although advances in liposome technology will be also reported as they represent the largest body in the drug delivery literature.
Resumo:
La détection et la caractérisation des nanoparticules manufacturées (NPM) est l’une des premières étapes pour contrôler et diminuer leurs risques potentiels sur la santé humaine et l’environnement. Différents systèmes d’échantillonnage dans l’air existent pour l’évaluation d’une exposition aux NPM. Cependant, ils ne mesurent pas le risque potentiel de cette exposition à la santé humaine ni les mécanismes cellulaires qui en seraient responsables. Nos objectifs de recherche sont 1) Évaluer les effets de différents types de nanoparticules sur des cellules pulmonaires humaines et 2) Identifier de nouveaux mécanismes intracellulaires activés lors de l’exposition à divers types de NPM. Méthodologie: La lignée de cellules A549 a été utilisée. Trois types de NPM ont été étudiés (différentes concentrations et temps d’exposition): les nanoparticules de dioxyde de titane de type anatase (TiO2), les nanotubes de carbone simple paroi (NTCSP) et les nanoparticules de noir de carbone (NC). La viabilité cellulaire a été mesurée par le test MTS, le test PrestoBlue et le test d’exclusion du bleu de Trypan (uniquement pour les NTCSP). La mesure du stress oxydatif a été déterminée par la mesure des dérivés réactifs de l’oxygène (ROS) en utilisant l’essai DCFH-DA. L’activation d’une réponse anti-oxydative a été déterminée par la mesure de la forme réduite (GSH) et oxydée (GSSG) du glutathion, ainsi que du ratio GSH/GSSG (seulement avec NTCSP et TiO2). Résultats: Les trois nanoparticules ne semblent pas être toxiques pour les cellules A549 car il y a une diminution significative mais minime de la viabilité cellulaire. Cependant, elles induisent une augmentation du contenu intracellulaire en ROS qui est à la fois dépendante du temps et de la concentration. Aucun changement dans les concentrations de GSH et GSSG n’a été observé. En conclusion, nos données indiquent que la mesure de la viabilité n’est pas un critère suffisant pour conclure à la toxicité des NPM. La production de ROS est un critère intéressant, cependant il faudra démontrer l’activation de systèmes anti-oxydatifs pour expliquer l’absence de mortalité cellulaire suite à l’exposition aux NPM.
Resumo:
The objectives of the present study are to provide a systematic descriptive documentation of the nature of air pollution of the Cochin industrial agglomeration, estimate the willingness to pay for morbidity reduction due to air pollution in observed and hypothetical markets and to estimate the value of welfare loss in the purchase of property due to reduced air quality. This study is an attempt to examine economic impacts of air pollution on the human health and property values in the industrial capital of Kerala. The process of industrialization in Kerala and the increase in air pollution created damages to human, natural and economic resources in the state. The study documents the extent of air pollution and applied econometric approaches to estimate economic impacts of air pollution on human health and property values. The Important sources of air pollution identified in Cochin are emissions from industries and automobiles.