9 resultados para Biological Exposure Limits
em Université de Montréal, Canada
Resumo:
Le traitement du cancer à l’aide d’une exposition aux radiations ionisantes (RI) peut mener au développement de plusieurs effets secondaires importants, dont un retard de réparation et de régénération des tissus. Les mécanismes responsables de ces effets demeurent largement inconnus encore aujourd’hui, ce qui a pour effet de limiter le développement d’approches thérapeutiques. À l’aide d’un modèle de guérison de plaie cutanée chez la souris, nous avons cherché à déterminer les mécanismes par lesquels l’exposition aux RI limite la régénération de la peau. Nos résultats démontrent que l’induction de la "stromal-derived growth factor 1α" (SDF-1α), une cytokine normalement surexprimée dans les tissus hypoxiques, est sévèrement diminuée dans les plaies de souris irradiées versus non-irradiées. Ce défaut corrèle avec un retard de guérison des plaies et est encore évident plusieurs mois suivant l’exposition aux RI, suggérant qu’il y a une altération permanente de la capacité de la peau à se réparer. Parce que SDF-1α est secrété principalement par les fibroblastes du derme, nous avons évalué le potentiel des cellules stromales multipotentes (MSCs), qui sont reconnues pour secréter des niveaux élevés de SDF-1α, à accélérer la régénération de la peau chez les souris irradiées. L’injection de MSCs en périphéries des plaies a mené à une accélération remarquable de la guérison de la peau chez les souris exposées aux RI. Les actions des MSCs étaient principalement paracrines, dû au fait que les cellules n’ont pas migré à l’extérieur de leur site d’injection et ne se sont pas différentiées en kératinocytes. L’inhibition spécifique de l’expression de SDF-1α a mené à une réduction drastique de l’efficacité des MSCs à accélérer la fermeture de plaie indiquant que la sécrétion de SDF-1α par les MSCs est largement responsable de leur effet bénéfique. Nous avons découvert aussi qu’un des mécanismes par lequel SDF-1α accélère la guérison de plaie implique l’augmentation de la vascularisation au niveau de la peau blessée. Les résultats présentés dans ce mémoire démontrent collectivement que SDF-1α est une importante cytokine dérégulée au niveau des plaies cutanées irradiées, et que le déclin du potentiel de régénération des tissus qui est observé suivant une exposition au RI peut être renversé, s’il est possible de restaurer le microenvironnement de la blessure avec un support stromal adéquat.
Resumo:
L’effort physique a été reconnu comme l’un des déterminants majeurs qui affecte l’absorption pulmonaire et la cinétique des solvants industriels, composés volatils très répandus dans le milieu de travail. L’objectif global de ce projet était de caractériser la relation entre divers niveaux de charge de travail et les concentrations biologiques de l’acétone et du styrène ou de ses métabolites utilisés comme des indicateurs biologiques de l’exposition (IBEs) à ces solvants. Des modèles pharmacocinétiques à base physiologique ont été développés et validés afin de reproduire une exposition professionnelle à l’acétone et au styrène, individuellement et en combinaison, durant une semaine complète de travail (8h/jour, 5 jours). Les simulations ont été effectuées suivant une exposition aux valeurs limite d’exposition (500 ppm et 20 ppm, respectivement) et à des charges de travail de 12,5 W (repos), 25 W et 50 W. Les valeurs prédites par les modèles ont été comparées aux valeurs de référence des IBEs actuels. Le niveau d’acétone dans l’urine obtenu à la fin du dernier quart de travail était 3,5 fois supérieur à la valeur au repos (28 mg/L) pour un effort de 50 W, tandis que les niveaux de styrène dans le sang veineux et de ses métabolites dans l’urine ont augmenté d’un facteur d’environ 3,0 en comparaison avec les valeurs au repos, respectivement de 0,17 mg/L et 144 mg/g créatinine. Pour une co-exposition à des concentrations de 20 ppm de styrène et 200 ppm d’acétone et à une activité physique de 50 W, les simulations ont montré une augmentation de 10% du styrène sanguin et une faible diminution de ses métabolites dans l’urine. Les valeurs simulées par les modèles pour l’acétone ou le styrène montrent que des travailleurs dont la charge de travail équivaut à plus de 25 W sont susceptibles d’avoir des concentrations internes pouvant dépasser les valeurs de référence des IBEs respectifs de ces solvants et peuvent être à risque. Les résultats soulignent ainsi l’importance de tenir compte de la charge de travail dans la détermination d’une valeur de référence pour la surveillance biologique de l’acétone et du styrène.
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Cancer du poumon associé à l’exposition au nickel, au chrome VI et au cadmium dans le milieu de travail utilisant deux études populationnelles cas-témoins à Montréal. Au début des années 1990, le nickel, le chrome VI et le cadmium ont été classés en tant qu’agents cancérigènes de classe 1 par le CIRC (Centre International de Recherche sur le Cancer). Cependant, les résultats des études ayant permis la classification de ces métaux n’ont pas toujours été reproduits, et d’importantes questions demeurent quant aux effets de ces métaux à de faibles niveaux d’exposition. Un plus grand nombre de recherches empiriques est donc nécessaire afin de réaffirmer la cancérogénicité de ces agents, et d’identifier les circonstances dans lesquelles ils peuvent être néfastes. L'objectif de cette étude était d'explorer la relation entre l’exposition à un des métaux (soit le nickel, le chrome VI, ou le cadmium) et les risques subséquents de développer un cancer du poumon chez des travailleurs provenant de différents milieux de travail qui sont exposés à ces métaux à de différents degrés. Deux études cas-témoins de base populationnelle menées à Montréal ont fourni les données nécessaires pour examiner la cancérogénicité de ces métaux. La première étude était menée entre 1979 et 1986 chez des hommes âgés de 35 à 70 ans ayant un cancer dans l’un de 19 sites anatomiques de cancer sélectionnés. La seconde étude était menée entre 1996 et 2001 chez des hommes et des femmes âgés de 35 à 75 ans, avec un diagnostic de tumeur maligne au poumon. Dans ces deux études, les cas ont été recensés dans tous les hôpitaux de l'île de Montréal, tandis que les contrôles populationnels appariés par âge et stratifiés par sexe, ont été sélectionnés des listes électorales. Une entrevue avec chaque sujet a permis d'obtenir un historique d'emploi détaillé ainsi que des informations précises sur les facteurs de risques socio-économiques et personnels. Les descriptions de poste ont été évaluées par une équipe d'experts chimistes et hygiénistes afin de déterminer si le sujet a été exposé à chaque agent, et pour mesurer à la fois la concentration et la durée de chaque exposition, ainsi que l’exposition cumulative tout au long de la vie de chaque participant. Pour déterminer si une exposition à l’un des trois métaux en cause était associée à une augmentation de l'incidence du cancer du poumon, des données ont été analysées par régression logistique : des ajustements ont été effectués pour des facteurs de confusion pertinents incluant un historique détaillé du tabagisme. Des mesures catégoriques d'exposition cumulée ont été également analysées, ainsi que la modification des effets par le tabagisme. Les deux études ont été analysées séparément, puis par la suite combinées afin d'augmenter la puissance statistique. Les niveaux d'exposition mesurés dans cette population ne semblaient pas poser un excès de risque de cancer du poumon pour les travailleurs exposés au chrome VI. Cependant, ceux qui ont été exposés au nickel ont subi une augmentation significative du risque, et ce, quel que soit leur niveau d'exposition. Le risque de développer un cancer du poumon suite à une exposition au cadmium était élevé, mais pas de manière significative. Pour chacun des trois métaux, le risque de cancer du poumon était très élevé parmi les non-fumeurs, mais pas parmi les fumeurs. L’effet combiné du tabagisme et de l’exposition aux métaux était compatible avec un excès de risque additif. Cependant, les intervalles de confiance dans cette étude tendaient à être larges, et une faiblesse de puissance statistique peut limiter l’interprétation de certains résultats. Cette étude est unique dans la mesure où elle a fourni des preuves empiriques sur les risques de développer le cancer du poumon liés aux faibles niveaux d’exposition au nickel, au chrome VI, ou au cadmium provenant de divers contextes de travail. Dans la plupart des autres études, la majorité des expositions pertinentes n’ont pas été bien contrôlées. À l'inverse, cette étude a bénéficié de la collecte et de la disponibilité d'information détaillée concernant le tabagisme et d’autres facteurs de risque. Les résultats de cette étude ont d'importantes conséquences pour la santé publique, tant au niveau de la détermination des risques pour les travailleurs actuellement exposés à ces métaux, qu'au niveau de l’évaluation des risques pour la population en général, elle-même exposée à ces métaux par le biais de la pollution et de la fumée de cigarette. Cette analyse contribuera fort probablement à une réévaluation par le CIRC de la cancérogénicité de ces métaux. L'exploration de la relation entre les risques de cancer du poumon et l'exposition au nickel, au chrome VI et au cadmium est donc opportune et pertinente.
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.
Resumo:
L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
L'activité électrique du coeur est initiée par la génération spontanée de potentiels d'action venant des cellules pacemaker du noeud sinusal (SN). Toute dysfonction au niveau de cette région entraîne une instabilité électrique du coeur. La majorité des patients souffrant d'un noeud sinusal déficient nécessitent l'implantation chirurgicale d'un pacemaker électronique; cependant, les limitations de cette approche incitent à la recherche d'une alternative thérapeutique. La base moléculaire des courants ioniques jouant un rôle crucial dans l'activité du noeud sinusal sont de plus en plus connues. Une composante importante de l'activité des cellules pacemakers semble être le canal HCN, responsable du courant pacemaker If. Le facteur T-box 3 (Tbx3), un facteur de transcription conservé durant le processus de l'évolution, est nécessaire au développement du système de conduction cardiaque. De précédentes études ont démontré que dans différentes lignées cellulaires le Phorbol 12-myristate 13-acetate (PMA) active l'expression du gène codant Tbx3 via des réactions en cascade partant de la protéine kinase C (PKC). L'objectif principal de cette étude est de tester si le PMA peut augmenter la fréquence et la synchronisation de l'activité spontanée du pacemaker biologique en culture. Plus précisément, nous avons étudié les effets de l'exposition chronique au PMA sur l'expression du facteur de transcription Tbx3, sur HCN4 et l'activité spontanée chez des monocouches de culture de myocytes ventriculaires de rats néonataux (MVRN). Nos résultats démontrent que le PMA augmente significativement le facteur transcription de Tbx3 et l'expression ARNm de HCN4, favorisant ainsi l'augmentation du rythme et de la stabilité de l'activité autonome. De plus, une diminution significative de la vitesse de conduction a été relevée et est attribuée à la diminution du couplage intercellulaire. La diminution de la vitesse de conduction pourrait expliquer l'effet négatif du PMA sur la synchronisation de l'activité autonome du pacemaker biologique. Ces résultats ont été confirmés par un modèle mathématique multicellulaire suggérant que des fréquences et résistances intercellulaires plus élevée pourraient induire une activité plus stable et moins synchrone. Cette étude amène de nouvelles connaissances très importantes destinées à la production d'un pacemaker biologique efficient et robuste.