1000 resultados para Les tests neuropsychologiques


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’étude du cerveau humain est un domaine en plein essor et les techniques non-invasives de l’étudier sont très prometteuses. Afin de l’étudier de manière non-invasive, notre laboratoire utilise principalement l’imagerie par résonance magnétique fonctionnelle (IRMf) et l’imagerie optique diffuse (IOD) continue pour mesurer et localiser l’activité cérébrale induite par une tâche visuelle, cognitive ou motrice. Le signal de ces deux techniques repose, entre autres, sur les concentrations d’hémoglobine cérébrale à cause du couplage qui existe entre l’activité neuronale et le flux sanguin local dans le cerveau. Pour être en mesure de comparer les deux signaux (et éventuellement calibrer le signal d’IRMf par l’IOD), où chaque signal est relatif à son propre niveau de base physiologique inconnu, une nouvelle technique ayant la capacité de mesurer le niveau de base physiologique est nécessaire. Cette nouvelle technique est l’IOD résolue temporellement qui permet d’estimer les concentrations d’hémoglobine cérébrale. Ce nouveau système permet donc de quantifier le niveau de base physiologique en termes de concentrations d’hémoglobine cérébrale absolue. L’objectif général de ma maîtrise était de développer un tel système afin de l’utiliser dans une large étude portant sur la condition cardiovasculaire, le vieillissement, la neuroimagerie ainsi que les performances cognitives. Il a fallu tout d’abord construire le système, le caractériser puis valider les résultats avant de pouvoir l’utiliser sur les sujets de recherche. La validation s’est premièrement réalisée sur des fantômes homogènes ainsi qu’hétérogènes (deux couches) qui ont été développés. La validation des concentrations d’hémoglobine cérébrale a été réalisée via une tâche cognitive et appuyée par les tests sanguins des sujets de recherche. Finalement, on présente les résultats obtenus dans une large étude employant le système d’IOD résolue temporellement en se concentrant sur les différences reliées au vieillissement.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisqu’elles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes d’échantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant l’estimation par maximum de vraisemblance et les tests d’adéquations, il est important d’avoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La digestion anaérobie est un processus biologique dans lequel un consortium microbien complexe fonctionnant en absence d’oxygène transforme la matière organique en biogaz, principalement en méthane et en dioxyde de carbone. Parmi les substrats organiques, les lipides sont les plus productifs de méthane par rapport aux glucides et aux protéines; mais leur dégradation est très difficile, en raison de leur hydrolyse qui peut être l’étape limitante. Les algues peuvent être une source importante pour la production de méthane à cause de leur contenu en lipides potentiellement élevé. L’objectif de cette étude était, par conséquent, d’évaluer la production en méthane des microalgues en utilisant la technique du BMP (Biochemical méthane Potential) et d’identifier les limites de biodégradion des lipides dans la digestion anaérobie. Le plan expérimental a été divisé en plusieurs étapes: 1) Comparer le potentiel énergétique en méthane des macroalgues par rapport aux microalgues. 2) Faire le criblage de différentes espèces de microalgues d’eau douce et marines afin de comparer leur potentiel en méthane. 3) Déterminer l'impact des prétraitements sur la production de méthane de quelques microalgues ciblées. 4) Identifier les limites de biodégradation des lipides algaux dans la digestion anaérobie, en étudiant les étapes limitantes de la cinétique des lipides et de chacun des acides gras à longues chaines. Les résultats ont montré que les microalgues produisent plus de méthane que les macroalgues. Les BMP des microalgues d'eau douce et marines n'ont montré aucune différence en termes de rendement en méthane. Les résultats des prétraitements ont montré que le prétraitement thermique (microonde) semblait être plus efficace que le prétraitement chimique (alcalin). Les tests de contrôle du BMP faits sur l'huile de palme, l’huile de macadamia et l'huile de poisson ont montré que l'hydrolyse des huiles en glycérol et en acides gras à longues chaines n'était pas l'étape limitante dans la production de méthane. L'ajout de gras dans les échantillons de Phaeodactylum dégraissée a augmenté le rendement de méthane et cette augmentation a été corrélée à la quantité de matières grasses ajoutées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Au cours des dernières décennies, l’intérêt pour la gazéification de biomasses a considérablement augmenté, notamment en raison de la grande efficacité de recouvrement énergétique de ce procédé par rapport aux autres procédés de génération de bioénergies. Les composants majoritaires du gaz de synthèse, le monoxyde de carbone (CO) et l’hydrogène (H2) peuvent entre autres servir de substrats à divers microorganismes qui peuvent produire une variété de molécules chimiques d’intérêts, ou encore produire des biocarburants, particulièrement le méthane. Il est donc important d'étudier les consortiums méthanogènes naturels qui, en syntrophie, serait en mesure de convertir le gaz de synthèse en carburants utiles. Cette étude évalue principalement le potentiel de méthanisation du CO par un consortium microbien issu d’un réacteur de type UASB, ainsi que les voies métaboliques impliquées dans cette conversion en conditions mésophiles. Des tests d’activité ont donc été réalisés avec la boue anaérobie du réacteur sous différentes pressions partielles de CO variant de 0.1 à 1,65 atm (0.09 à 1.31 mmol CO/L), en présence ou absence de certains inhibiteurs métaboliques spécifiques. Dès le départ, la boue non acclimatée au CO présente une activité carboxidotrophique relativement intéressante et permet une croissance sur le CO. Les tests effectués avec de l’acide 2- bromoethanesulfonique (BES) ou avec de la vancomycine démontrent que le CO est majoritairement consommé par les bactéries acétogènes avant d’être converti en méthane par les méthanogènes acétotrophes. De plus, un plus grand potentiel de méthanisation a pu être atteint sous une atmosphère constituée uniquement de CO en acclimatant auparavant la boue. Cette adaptation est caractérisée par un changement dans la population microbienne désormais dominée par les méthanogènes hydrogénotrophes. Ceci suggère un potentiel de production à large échelle de biométhane à partir du gaz de synthèse avec l’aide de biofilms anaérobies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’immunosuppression optimale après greffe d’organe solide est une balance délicate et propre à chaque individu entre le risque de rejet et les risques liés à une surexposition au traitement immunosuppresseur. L’évaluation de la fonction résiduelle des lymphocytes T après stimulation par un mitogène (pharmacodynamie effective) devrait permettre de mesurer l’effet direct des médicaments immunosuppresseurs sur leur cible. Nous avons étudié différents paramètres de pharmacodynamie effective chez 34 receveurs pédiatriques de greffe d’organes solides traités par tacrolimus et mycophénolate. Les tests proposés dans ce travail sont adaptés au milieu pédiatrique et à une réalisation en temps réel. La quantification du CD25 parmi les CD4 activés par l’OKT3 permet de distinguer deux groupes de patients selon leur degré d’immunosuppression. L’âge médian est plus bas et la concentration plasmatique médiane en MPA plus élevée dans le groupe de patients plus fortement immunosupprimés. L’étude des paramètres immunologiques pouvant influencer la réponse (sécrétion des interleukines, proportion des sous-populations lymphocytaires CD4, CD8, T naïfs et Trég) ainsi que l’étude du pouvoir de restauration de la fonction lymphocytaire par l’Il-2, la guanosine ou la xanthosine, ne permettent pas de mieux comprendre les variabilités interindividuelles observées. Ces résultats devront être confirmés sur une cohorte plus grande de patients afin de juger de leur intérêt en pratique clinique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le logiciel de simulation des données et d'analyse est Conquest V.3

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Alors que l’Imagerie par résonance magnétique (IRM) permet d’obtenir un large éventail de données anatomiques et fonctionnelles, les scanneurs cliniques sont généralement restreints à l’utilisation du proton pour leurs images et leurs applications spectroscopiques. Le phosphore jouant un rôle prépondérant dans le métabolisme énergétique, l’utilisation de cet atome en spectroscopie RM présente un énorme avantage dans l’observation du corps humain. Cela représente un certain nombre de déEis techniques à relever dus à la faible concentration de phosphore et sa fréquence de résonance différente. L’objectif de ce projet a été de développer la capacité à réaliser des expériences de spectroscopie phosphore sur un scanneur IRM clinique de 3 Tesla. Nous présentons ici les différentes étapes nécessaires à la conception et la validation d’une antenne IRM syntonisée à la fréquence du phosphore. Nous présentons aussi l’information relative à réalisation de fantômes utilisés dans les tests de validation et la calibration. Finalement, nous présentons les résultats préliminaires d’acquisitions spectroscopiques sur un muscle humain permettant d’identiEier les différents métabolites phosphorylés à haute énergie. Ces résultats s’inscrivent dans un projet de plus grande envergure où les impacts des changements du métabolisme énergétique sont étudiés en relation avec l’âge et les pathologies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Travail d'intégration présenté à France Piotte dans le cadre du cours PHT-6113.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Certaines études récentes confirment que les tests de personnalité sont largement utilisés à des fins de sélection dans les organisations nord-américaines et que leur fréquence d’utilisation continue de croître (Boudrias, Pettersen, Longpré, & Plunier, 2008; Rothstein & Goffin, 2006). Or, les résultats des recherches portant sur le lien prévisionnel entre la personnalité et le rendement global au travail sont peu convaincants (Morgeson et al., 2007b; Murphy & Dzieweczynski, 2005). La présente thèse vise à vérifier si une amélioration des liens prédictifs entre la personnalité et le rendement au travail pourrait être obtenue en modifiant la façon d’opérationnaliser les variables prévisionnelles issues des inventaires de personnalité et en précisant les critères à prédire de manière à les rendre plus spécifiques et mieux arrimés. Pour ce faire, la capacité prévisionnelle d’une approche centrée sur le critère, c’est-à-dire l’utilisation de composites de traits de personnalité, est comparée à l’approche traditionnelle centrée sur le prédicteur, dans ce cas-ci, les cinq grands facteurs de personnalité (Big Five). D’autre part, le rendement au travail est opérationnalisé sous l’angle des compétences en emploi, ce qui permet d’en différencier les dimensions et d’augmenter la spécificité des critères. Des hypothèses précisant les facteurs de personnalité qui devraient permettre de prédire chacune des compétences évaluées sont testées. De plus, des hypothèses précisant les traits de personnalité servant à créer les variables composites sont aussi testées. Finalement, une hypothèse portant sur la comparaison de la puissance prévisionnelle des deux approches est mise à l’épreuve. L’échantillon de la recherche est composé de 225 employés occupant divers emplois au sein d’une grande organisation québécoise. Ils ont complété un inventaire de personnalité au travail dans le cadre des processus de sélection de l’organisation. Leur supérieur immédiat a effectué une évaluation de leurs compétences et de leur rendement au moins six (6) mois après leur embauche. Les résultats démontrent que la maîtrise des compétences est mieux prédite par une approche centrée sur le prédicteur (c’est-à-dire les Big Five) que par une approche centrée sur le critère (c’est-à-dire les variables composites). En effet, seules trois hypothèses portant sur le lien entre certains facteurs de personnalité et les compétences se sont avérées partiellement soutenues. Les résultats d’analyses statistiques supplémentaires, réalisées a posteriori afin de mieux comprendre les résultats, laissent supposer la présence de variables modératrices, dont, notamment, les caractéristiques situationnelles. En somme, il nous semble plus probable d’arriver, dans le futur, à trouver une méthode structurée de création des variables composites qui permettrait d’obtenir des liens prévisionnels plus puissants que de découvrir des variables composites qui seraient elles-mêmes généralisables à tous les emplois et à toutes les organisations. Par ailleurs, nous encourageons les praticiens à porter attention à la façon d’utiliser les données de personnalité. Pour le moment, il semble que les facteurs de personnalité permettent de prédire, en partie, le rendement futur en emploi. Or, les preuves empiriques concernant l’efficacité d’autres approches demeurent relativement rares et, surtout, insuffisantes pour guider fidèlement les praticiens à travers les choix nécessaires à leur utilisation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les difficultés reliées à la lecture constituent 80% des motifs de référence en orthopédagogie. Parfois, ces difficultés sont les précurseurs du trouble d’apprentissage le plus commun soit le trouble spécifique d’apprentissage en lecture (TSAL). Cette recherche porte sur le travail des orthopédagogues en lien avec les trois grandes étapes reliées au TSAL : (1) son dépistage, (2) son évaluation orthopédagogique et sa référence en neuropsychologie et finalement (3) sa prise en charge ainsi que sa rééducation en lien avec les recommandations neuropsychologiques. La collecte de données a été réalisée grâce à des entrevues avec trois orthopédagogues travaillant au primaire et autour d’un cas d’élève atteint de TSAL. Chacune des trois orthopédagogues a présenté un cas d’élève et a décrit sa pratique. Lors des rencontres, chaque participante a également remis au chercheur le dossier de l’élève contenant le rapport neuropsychologique confirmant le diagnostic. Les résultats de cette recherche indiquent que les signes précurseurs observés par les trois orthopédagogues ainsi que leurs interventions rééducatives sont très semblables. Toutefois, les outils d’évaluation utilisés diffèrent de l’une à l’autre tant en ce qui a trait au choix qu’à la manière de les utiliser. Les trois orthopédagogues optent pour la référence en neuropsychologie dans le but ultime de dresser un portrait global de leur élève quant à leurs habiletés cognitives et déficitaires pouvant être attribuables à un TSAL. Le rapport du neuropsychologue sert alors à confirmer l’impression diagnostique des orthopédagogues. Les résultats de notre étude montrent que les orthopédagogues entament de façon précoce les interventions rééducatives et offrent simultanément les mesures adaptatives relatives aux difficultés observées chez l’élève. Avec l’arrivée du diagnostic de TSAL, et les recommandations proposées dans le rapport neuropsychologique, les orthopédagogues valident et peuvent à l’occasion bonifier leurs interventions ou mesures. De plus, elles les officialisent en les ajoutant, si ce n’est pas déjà fait, au plan d’intervention de l’élève. Les interventions rééducatives et les mesures adaptées mises en place par les trois orthopédagogues sont également comparées à celles proposées par les neuropsychologues et analysées à la lumière de celles reconnues comme étant efficaces et profitables selon la littérature. Nos résultats mettent en évidence la grande similitude qui existe entre les interventions appliquées par les orthopédagogues, celles proposées par les neuropsychologues ainsi que celles répertoriées dans la littérature.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Personne contact: Karina McEwen (karina.mcewen@umontreal.ca); Partenaire ayant participé: Regroupement pour la trisomie 21 (RT21)