280 resultados para Apropaments computacionalment fiables


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les calculs statistiques ont été effectués à l'aide du logiciel SPSS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse de doctorat porte sur la relation entre la santé psychologique au travail, les besoins fondamentaux et la compétence en emploi. En plus de valider un questionnaire de compétences en emploi (QCE), cette thèse propose que les compétences en emploi puissent prédire la santé psychologique au travail par la satisfaction des besoins fondamentaux dans le domaine de l’enseignement. Le premier article a pour objectif de présenter la conception et la validation de l’instrument de mesure des compétences en emploi dans le domaine de l’enseignement. Une première étape dans notre étude a permis l’identification de trois solutions factorielles possibles : structure à un seul facteur, structure à deux facteurs et structure à un facteur de deuxième ordre. Les matrices des corrélations des énoncés étaient fiables, se prêtaient bien à l’analyse factorielle exploratoire et présentaient de bonnes cohérences internes. La deuxième étape de notre étude a été de type confirmatif. Chacune des trois solutions factorielles proposées a été analysée, ce qui a permis l’identification du modèle le mieux ajusté compte tenu des seuils empiriques des indices retenus pour l’analyse par équations structurelles. L’étude réalisée sur un échantillon d’enseignants québécois démontre que nous pouvons conclure aux bonnes qualités psychométriques de l’instrument analysé. Les limites et les apports de cette étude seront aussi présentés. Le deuxième article examine les liens entre les compétences en emploi dans le domaine de l’enseignement, la santé psychologique au travail et la satisfaction des trois besoins fondamentaux (autonomie, compétence et affiliation). Un modèle de médiation est testé par des analyses de modélisation par équations structurelles. Dans ce modèle, on considère que la satisfaction des trois besoins fondamentaux (autonomie, compétence et affiliation sociale) agisse comme médiateur dans la relation entre les compétences en emploi et la santé psychologique au travail. Une relation de médiation partielle (Baron & Kenny, 1986) a été trouvée dans notre échantillon, en utilisant l’analyse de rééchantillonnage par « bootstrap », dans le cadre de la modélisation par équations structurelles. Les limites de la recherche, ainsi que des suggestions de recherches futures seront proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les troubles reliés à la dépression, l’épuisement professionnel et l’anxiété sont de plus en plus répandus dans notre société moderne. La consommation croissante d’antidépresseurs dans les différents pays du monde est responsable de la récente détection de résidus à l’état de traces dans les rejets urbains municipaux. Ainsi, ces substances dites « émergentes » qui possèdent une activité pharmacologique destinée à la régulation de certains neurotransmetteurs dans le cerveau suscitent maintenant de nombreuses inquiétudes de la part de la communauté scientifique. L’objectif principal de ce projet de doctorat a été de mieux comprendre le devenir de plusieurs classes d’antidépresseurs présents dans diverses matrices environnementales (i.e. eaux de surfaces, eaux usées, boues de traitement, tissus biologiques) en développant de nouvelles méthodes analytiques fiables capables de les détecter, quantifier et confirmer par chromatographie liquide à haute performance couplée à la spectrométrie de masse en tandem (LC-QqQMS, LC-QqToFMS). Une première étude complétée à la station d’épuration de la ville de Montréal a permis de confirmer la présence de six antidépresseurs et quatre métabolites N-desmethyl dans les affluents (2 - 330 ng L-1). Pour ce traitement primaire (physico-chimique), de faibles taux d’enlèvement (≤ 15%) ont été obtenus. Des concentrations d’antidépresseurs atteignant près de 100 ng L-1 ont également été détectées dans le fleuve St-Laurent à 0.5 km du point de rejet de la station d’épuration. Une seconde étude menée à la même station a permis l’extraction sélective d’antidépresseurs dans trois tissus (i.e. foie, cerveau et filet) de truites mouchetées juvéniles exposées à différentes concentrations d’effluent dilué traité et non-traité à l’ozone. Un certain potentiel de bioaccumulation dans les tissus (0.08-10 ng g-1) a été observé pour les spécimens exposés à l’effluent non-traité (20% v/v) avec distribution majoritaire dans le foie et le cerveau. Une intéressante corrélation a été établie entre les concentrations de trois antidépresseurs dans le cerveau et l’activité d’un biomarqueur d’exposition (i.e. pompe N/K ATPase impliquée dans la régulation de la sérotonine) mesurée à partir de synaptosomes de truites exposées aux effluents. Une investigation de l’efficacité de plusieurs stations d’épuration canadiennes opérant différents types de traitements a permis de constater que les traitements secondaires (biologiques) étaient plus performants que ceux primaires (physico-chimiques) pour enlever les antidépresseurs (taux moyen d’enlèvement : 30%). Les teneurs les plus élevées dans les boues traitées (biosolides) ont été obtenues avec le citalopram (1033 ng g-1), la venlafaxine (833 ng g-1) et l’amitriptyline (78 ng g-1). Des coefficients de sorption expérimentaux (Kd) calculés pour chacun des antidépresseurs ont permis d’estimer une grande sorption des composés sertraline, desméthylsertraline, paroxetine et fluoxetine sur les solides (log Kd > 4). Finalement, un excellent taux d’enlèvement moyen de 88% a été obtenu après ozonation (5 mg L-1) d’un effluent primaire. Toutefois, la caractérisation de nouveaux sous-produits N-oxyde (venlafaxine, desmethylvenlafaxine) par spectrométrie de masse à haute résolution (LC-QqToFMS) dans l’effluent traité à l’ozone a mis en lumière la possibilité de formation de multiples composés polaires de toxicité inconnue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Information recueillie sur les marchés des drogues de synthèse est beaucoup moins avancée que les études sur d'autres marchés de drogues illicites. La classification relativement récente des drogues de synthèse comme substances illicites, couplée avec ses caractéristiques distinctes qui empêchent son observation, a entravé le développement d’évaluations complètes et fiables des caractéristiques structurelles des marchés. Le but de cet article est de fournir un aperçu fiable sur la dynamique interne du marché des drogues synthétiques, en particulier sur ses caractéristiques structurelles et organisationnelles. En utilisant l'information obtenue à partir de 365 drogues de synthèse saisies par les policiers pendant un an, cette étude sera la fusion de deux techniques, soit la composition des drogues illicites et des analyses économiques, afin de tirer des évaluations fiables des caractéristiques structurelles du marché du Québec de drogues synthétiques. Les résultats concernant l'analyse de la composition des drogues indiquent que le marché des drogues synthétiques au Québec est probablement composé d'un nombre élevé de petites structures, ce qui indique un marché compétitif. L'analyse économique a également fourni des informations complémentaires sur le marché des drogues. Selon la région géographique les couts de la production et les relations entre trafiquant et consommateur influencent le prix des drogues. Les résultats de cette recherche mettent l'accent sur la nécessité de concevoir des politiques qui tient compte des différences régionales dans la production de drogue et reflète la nature compétitive de ce marché.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'enseignement, l'apprentissage et l'évaluation du raisonnement clinique en sciences infirmières est un défi pour les éducateurs de cette profession et leurs étudiants. Depuis plusieurs décennies, les chercheurs et les éducateurs dans le domaine des sciences de la santé ont travaillé pour élaborer des instruments d'évaluation dans le but de pouvoir mesurer le raisonnement clinique (Charlin, Bordage & Van der Vleuten, 2003). Plusieurs études semblent appuyer le test de concordance de script (TCS) en termes de validité, fiabilité, faisabilité et applicabilité pour plusieurs disciplines et différents contextes (Carrière & al, 2009). Deschênes et ses collaborateurs (2006; Deschênes, Charlin, Gagnon & Goudreau, 2011) ont mis au point et validé un TCS spécifiquement pour le raisonnement clinique en sciences infirmières (RCI). Comme l'évaluation a un impact important sur les stratégies d'apprentissage des étudiants (Sibert et al, 2001; Durak, Caliskan & Bor, 2007), les outils d'évaluation valides et fiables qui permettraient l'identification des problèmes spécifiques dans le développement du raisonnement clinique en sciences infirmières seraient très utiles pour guider les décisions concernant l'éducation (Gierl, 2007). Nous avons donc mené une étude pour explorer le potentiel diagnostique des questions d'un TCS. La question de recherche est la suivante: «Dans quelle mesure chaque question d’un TCS visant à évaluer le RCI peut-elle être reliée à des catégories et des stratégies de pensée spécifiques?" Avec une sous-question: «Comment peut-on décrire le potentiel diagnostique d’un TCS pour évaluer le RCI?". Nous avons fait une deuxième analyse de contenu des données qui ont été obtenues dans une étude précédente dans laquelle cinq vignettes (15 questions) du TCS de Deschênes (2006) ont été utilisées. Les résultats ont montré les catégories et stratégies de pensées utilisées pour répondre à certaines questions du TCS selon les groupes de participants. Aussi, nos résultats ont permis de découvrir des disparités importantes entre les groupes, notamment que le RCI des expertes est si différent des étudiantes, qu’il ne peut servir de référence. Enfin, cette étude démontre que le TCS a un potentiel diagnostique niveau par niveau (1ère, 2e, 3e année et expertes) et non d’un niveau à un autre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La motivation incite les apprenants à s’engager dans une activité et à persévérer dans son accomplissement afin d’atteindre un but. Dans les Systèmes Tutoriels Intelligents (STI), les études sur la motivation des apprenants possèdent trois manques importants : un manque de moyens objectifs et fiables pour évaluer cet état, un manque d’évaluation de rôles joués par les facteurs motivationnels conçus dans l’environnement d’apprentissage et un manque de stratégies d’interventions motivationnelles pour soutenir la motivation des apprenants. Dans cette thèse, nous nous intéressons à mieux comprendre l’état de la motivation des apprenant ainsi que les facteurs et stratégies motivationnels dans un environnement d’apprentissage captivant : les jeux sérieux. Dans une première étude, nous évaluons la motivation des apprenants par l’entremise d’un modèle théorique de la motivation (ARCS de Keller) et de données électro-physiologiques (la conductivité de la peau, le rythme cardiaque et l’activité cérébrale). Nous déterminons et évaluons aussi quelques situations ou stratégies favorisant la motivation dans l’environnement des jeux sérieux étudié. Dans une deuxième étude, nous développons un prototype de jeux sérieux intégrant – dans une première version – quelques éléments motivationnels issus de jeux vidéo et – dans une deuxième version – des stratégies motivationnelles d’un modèle théorique de la motivation. Nous espérons, avec une évaluation motivationnelle de notre prototype, soutenir les apprenants à atteindre des hauts niveaux de motivation, de persévérance et de performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de la recherche est de comparer une traduction d’un questionnaire américain, le Juvenile Victimization Questionnaire (JVQ) avec un questionnaire de victimisation préexistant au Canada, l’Enquête Sociale Générale (ESG). À l’aide d’une base de données formée par le JVQ en 2009, une comparaison a été conduite entre les victimisations de 783 jeunes âgés entre 15 et 17 ans afin de les comparer avec les victimisations de 631 jeunes âgés entre 15 et 17 ans de la base de données de l’ESG de 2009. Sur la majorité des points de comparaison établis entre les deux questionnaires, il existe des différences significatives entre les résultats obtenus par le JVQ et l’ESG. Pour les comparaisons des taux de victimisation des 12 derniers mois, 3 des 8 taux de victimisation comparés étaient similaires. Pour les comparaisons des taux de victimisation à vie, les 7 taux comparés étaient significativement différents. Cependant, il existe des explications méthodologiques et échantillonnales afin de rendre compte de ces différences. Les résultats indiquent qu’avec les différences inhérentes aux deux questionnaires, les échantillons des 15 à 17 ans présentent des taux relativement différents. Il est possible de valider l’utilisation du JVQ sur la population afin de recueillir des informations fiables sur la victimisation. Toutefois, en comparant les différentes questions individuellement, il est possible d’apporter des améliorations aux deux questionnaires utilisés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise professionnelle en physiothérapie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La migration internationale d’étudiants est un investissement couteux pour les familles dans beaucoup de pays en voie de développement. Cependant, cet investissement est susceptible de générer des bénéfices financiers et sociaux relativement importants aux investisseurs, tout autant que des externalités pour d’autres membres de la famille. Cette thèse s’intéresse à deux aspects importants de la migration des étudiants internationaux : (i) Qui part? Quels sont les déterminants de la probabilité de migration? (ii) Qui paie? Comment la famille s’organise-t-elle pour couvrir les frais de la migration? (iii) Qui y gagne? Ce flux migratoire est-il au bénéfice du pays d’origine? Entreprendre une telle étude met le chercheur en face de défis importants, notamment, l’absence de données complètes et fiables; la dispersion géographique des étudiants migrants en étant la cause première. La première contribution importante de ce travail est le développement d’une méthode de sondage en « boule de neige » pour des populations difficiles à atteindre, ainsi que d’estimateurs corrigeant les possibles biais de sélection. A partir de cette méthodologie, j’ai collecté des données incluant simultanément des étudiants migrants et non-migrants du Cameroun en utilisant une plateforme internet. Un second défi relativement bien documenté est la présence d’endogénéité du choix d’éducation. Nous tirons avantage des récents développements théoriques dans le traitement des problèmes d’identification dans les modèles de choix discrets pour résoudre cette difficulté, tout en conservant la simplicité des hypothèses nécessaires. Ce travail constitue l’une des premières applications de cette méthodologie à des questions de développement. Le premier chapitre de la thèse étudie la décision prise par la famille d’investir dans la migration étudiante. Il propose un modèle structurel empirique de choix discret qui reflète à la fois le rendement brut de la migration et la contrainte budgétaire liée au problème de choix des agents. Nos résultats démontrent que le choix du niveau final d’éducation, les résultats académiques et l’aide de la famille sont des déterminants importants de la probabilité d’émigrer, au contraire du genre qui ne semble pas affecter très significativement la décision familiale. Le second chapitre s’efforce de comprendre comment les agents décident de leur participation à la décision de migration et comment la famille partage les profits et décourage le phénomène de « passagers clandestins ». D’autres résultats dans la littérature sur l’identification partielle nous permettent de considérer des comportements stratégiques au sein de l’unité familiale. Les premières estimations suggèrent que le modèle « unitaire », où un agent représentatif maximise l’utilité familiale ne convient qu’aux familles composées des parents et de l’enfant. Les aidants extérieurs subissent un cout strictement positif pour leur participation, ce qui décourage leur implication. Les obligations familiales et sociales semblent expliquer les cas de participation d’un aidant, mieux qu’un possible altruisme de ces derniers. Finalement, le troisième chapitre présente le cadre théorique plus général dans lequel s’imbriquent les modèles développés dans les précédents chapitres. Les méthodes d’identification et d’inférence présentées sont spécialisées aux jeux finis avec information complète. Avec mes co-auteurs, nous proposons notamment une procédure combinatoire pour une implémentation efficace du bootstrap aux fins d’inférences dans les modèles cités ci-dessus. Nous en faisons une application sur les déterminants du choix familial de soins à long terme pour des parents âgés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En opération depuis 2008, l’expérience ATLAS est la plus grande de toutes les expériences au LHC. Les détecteurs ATLAS- MPX (MPX) installés dans ATLAS sont basés sur le détecteur au silicium à pixels Medipix2 qui a été développé par la collaboration Medipix au CERN pour faire de l’imagerie en temps réel. Les détecteurs MPX peuvent être utilisés pour mesurer la luminosité. Ils ont été installés à seize différents endroits dans les zones expérimentale et technique d’ATLAS en 2008. Le réseau MPX a recueilli avec succès des données indépendamment de la chaîne d’enregistrement des données ATLAS de 2008 à 2013. Chaque détecteur MPX fournit des mesures de la luminosité intégrée du LHC. Ce mémoire décrit la méthode d’étalonnage de la luminosité absolue mesurée avec les détectors MPX et la performance des détecteurs MPX pour les données de luminosité en 2012. Une constante d’étalonnage de la luminosité a été déterminée. L’étalonnage est basé sur technique de van der Meer (vdM). Cette technique permet la mesure de la taille des deux faisceaux en recouvrement dans le plan vertical et horizontal au point d’interaction d’ATLAS (IP1). La détermination de la luminosité absolue nécessite la connaissance précise de l’intensité des faisceaux et du nombre de trains de particules. Les trois balayages d’étalonnage ont été analysés et les résultats obtenus par les détecteurs MPX ont été comparés aux autres détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. La luminosité obtenue à partir des balayages vdM a été comparée à la luminosité des collisions proton- proton avant et après les balayages vdM. Le réseau des détecteurs MPX donne des informations fiables pour la détermination de la luminosité de l’expérience ATLAS sur un large intervalle (luminosité de 5 × 10^29 cm−2 s−1 jusqu’à 7 × 10^33 cm−2 s−1 .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les modèles animaux d’arthrose sont utilisés sur le rat depuis des décennies pour évaluer l’efficacité analgésique de nombreux composés. Cependant, la méthodologie utilisée, en particulier les protocoles d’évaluation de la douleur, est très différente d’une étude à une autre, rendant difficile la comparaison entre chaque projet. Afin d'améliorer le transfert des résultats précliniques vers la recherche clinique, ce projet propose d'établir un protocole d'évaluation de la douleur fiable et pertinent, et de le valider à l’aide du modèle d’arthrose expérimental le plus populaire, soit l’injection intra-articulaire de mono-iodoacétate de sodium (MIA). La répétabilité et la fiabilité inter-évaluateur de diverses méthodes d’évaluation de la douleur ont été évaluées, et le protocole d'acclimatation le plus fiable a été déterminé. Ensuite, les méthodes les plus intéressantes ont été testées pour leur sensibilité à détecter les altérations douloureuses induites par l’injection de MIA, ainsi que leur réponse au traitement analgésique, soit une injection intra-articulaire de lidocaïne. Une période d'acclimatation adéquate associée à un protocole d'évaluation combinant des mesures réflexes, des comportements spontanés ainsi que des tests opérants ont témoigné avec succès des changements douloureux liés à l'injection de MIA. Le test opérant fut la méthode la plus sensible pour détecter l'effet analgésique de la lidocaïne. Cette étude a permis d’établir le protocole d’acclimatation et les méthodes de l’évaluation de la douleur les plus fiables et sensibles. Aussi, il a démontré la pertinence du test opérant pour détecter la composante affective de la douleur chez les rongeurs.