23 resultados para Neuroblastoma, Biomarkers, Metanephrine, Monitoring, D
em Universit
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n’est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu’elle permet de quantifier l’exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d’études sur les animaux, et les données chez l’humain sont limitées. Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l’exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d’intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l’acide phtalique, dans le plasma et l’urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant des volontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l’acide phtalique qui a été mesuré seulement dans l’urine; iii) de valider les biomarqueurs d’exposition sélectionnés et d’évaluer l’exposition réelle des travailleurs et les voies prédominantes d’exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d’activités de traitement et d’effeuillage pendant sept jours consécutifs. Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l’exposition au captan et au folpet, respectivement, chez l’humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d’ailleurs une élimination rapide, avec une demi-vie d’élimination dans l’urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu’une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d’exposition. Des profils parallèles sont aussi observés entre le PI et l’acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d’acide phtalique que de PI. Quant à l’étude des agriculteurs, elle montre que la voie principale d’exposition de ces travailleurs est la voie cutanée. Il est aussi souligné qu’il est important 1) de favoriser les collectes d’urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d’associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s’appliquer à d’autres fongicides, voire d’autres substances.
Resumo:
Objectif: Évaluer l'efficacité du dépistage de l’hypertension gestationnelle par les caractéristiques démographiques maternelles, les biomarqueurs sériques et le Doppler de l'artère utérine au premier et au deuxième trimestre de grossesse. Élaborer des modèles prédictifs de l’hypertension gestationnelle fondées sur ces paramètres. Methods: Il s'agit d'une étude prospective de cohorte incluant 598 femmes nullipares. Le Doppler utérin a été étudié par échographie transabdominale entre 11 +0 à 13 +6 semaines (1er trimestre) et entre 17 +0 à 21 +6 semaines (2e trimestre). Tous les échantillons de sérum pour la mesure de plusieurs biomarqueurs placentaires ont été recueillis au 1er trimestre. Les caractéristiques démographiques maternelles ont été enregistrées en même temps. Des courbes ROC et les valeurs prédictives ont été utilisés pour analyser la puissance prédictive des paramètres ci-dessus. Différentes combinaisons et leurs modèles de régression logistique ont été également analysés. Résultats: Parmi 598 femmes, on a observé 20 pré-éclampsies (3,3%), 7 pré-éclampsies précoces (1,2%), 52 cas d’hypertension gestationnelle (8,7%) , 10 cas d’hypertension gestationnelle avant 37 semaines (1,7%). L’index de pulsatilité des artères utérines au 2e trimestre est le meilleur prédicteur. En analyse de régression logistique multivariée, la meilleure valeur prédictive au 1er et au 2e trimestre a été obtenue pour la prévision de la pré-éclampsie précoce. Le dépistage combiné a montré des résultats nettement meilleurs comparés avec les paramètres maternels ou Doppler seuls. Conclusion: Comme seul marqueur, le Doppler utérin du deuxième trimestre a la meilleure prédictive pour l'hypertension, la naissance prématurée et la restriction de croissance. La combinaison des caractéristiques démographiques maternelles, des biomarqueurs sériques maternels et du Doppler utérin améliore l'efficacité du dépistage, en particulier pour la pré-éclampsie nécessitant un accouchement prématuré.
Resumo:
La Fibrose Kystique (FK) est une maladie dégénérative qui entraine une dégénération des poumons dû au problème de clairance mucociliaire (CMC). Le volume de surface liquide (SL) couvrant les cellules pulmonaires est essentiel à la clairance de mucus et au combat contre les infections. Les nucléotides extracellulaires jouent un rôle important dans la CMC des voies aériennes, en modifiant le volume de la SL pulmonaire. Cependant, les mécanismes du relâchement de l’ATP et de leurs déplacements à travers la SL, restent inconnus. Des études ultérieures démontrent que l’exocytose d’ATP mécano-sensible et Ca2+-dépendant, dans les cellules A549, est amplifié par les actions synergétiques autocrine/paracrine des cellules avoisinantes. Nous avions comme but de confirmer la présence de la boucle purinergique dans plusieurs modèles de cellules épithéliales et de développer un système nous permettant d’observer directement la SL. Nous avons démontrés que la boucle purinergique est fonctionnelle dans les modèles de cellules épithéliales examinés, mis appart les cellules Calu-3. L’utilisation de modulateur de la signalisation purinergique nous a permis d’observer que le relâchement d’ATP ainsi que l’augmentation du [Ca2+]i suivant un stress hypotonique, sont modulés par le biais de cette boucle purinergique et des récepteurs P2Y. De plus, nous avons développé un système de microscopie qui permet d’observer les changements de volume de SL en temps réel. Notre système permet de contrôler la température et l’humidité de l’environnement où se trouvent les cellules, reproduisant l’environnement pulmonaire humain. Nous avons démontré que notre système peut identifier même les petits changements de volume de SL.
Resumo:
Cette thèse examine les effets des imperfections des marchés financiers sur la macroéconomie. Plus particulièrement, elle se penche sur les conséquences de la faillite dans les contrats financiers dans une perspective d'équilibre général dynamique. Le premier papier construit un modèle qui utilise l'avantage comparatif des banques dans la gestion des situations de détresse financière pour expliquer le choix des firmes entre les prêts bancaires et les prêts du marché financier. Le modèle réussit à expliquer pourquoi les firmes plus petites préfèrent le financement bancaire et pourquoi les prêts bancaires sont plus répandus en Europe. Le premier fait est expliqué par le lien négatif entre la valeur nette de l'entreprise et la probabilité de faire faillite. Le deuxième fait s'explique par le coût fixe d'émission de bons plus élevé en Europe. Le deuxième papier examine l'interaction entre les contraintes de financement affectant les ménages et les firmes. Une interaction positive pourrait amplifier et augmenter la persistance de l'effet d'un choc agrégé sur l'économie. Je construis un nouveau modèle qui contient des primes de financement externes pour les firmes et les ménages. Dans le modèle de base avec prix et salaires flexibles, j'obtiens une faible interaction négative entre les coûts de financement des firmes et des ménages. Le facteur clé qui explique ce résultat est l'effet du changement contre cyclique du coût de financement des ménages sur leur offre de travail et leur demande de prêts. Dans une période d'expansion, cet effet augmente les taux d'intérêt, réduit l'investissement et augmente le coût de financement des entreprises. Le troisième papier ajoute les contraintes de financement des banques dans un modèle macroéconomiques avec des prêts hypothécaires et des fluctuations dans les prix de l'immobilier. Les banques dans le modèle ne peuvent pas complètement diversifier leurs prêts, ce qui génère un lien entre les risques de faillite des ménages et des banques. Il y a deux effets contraires des cycles économiques qui affectent la prime de financement externe de la banque. Premièrement, il y a un lien positif entre le risque de faillite des banques et des emprunteurs qui contribue à rendre le coût de financement externe des banques contre cyclique. Deuxiément, le lissage de la consommation par les ménages rend la proportion de financement externe des banques pro cyclique, ce qui tend à rendre le coût de financement bancaire pro cyclique. En combinant ces deux effets, le modèle peut reproduire des profits bancaires et des ratios d'endettement bancaires pro cycliques comme dans les données, mais pour des chocs non-financiers les frictions de financement bancaire dans le modèle n'ont pas un effet quantitativement significatif sur les principales variables agrégées comme la consommation ou l'investissement.
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)
Resumo:
Les difficultés d’adaptation scolaire que peuvent développer les élèves dans une école secondaire entraînent bien souvent des conséquences. En effet, ces dernières peuvent mener au décrochage scolaire et parfois à l’adoption de comportements délinquants. L’instauration d’un suivi auprès d’élèves prend tout son sens lorsqu’il est question de difficultés d’adaptation. Ce suivi a été offert à cinq élèves présentant ces difficultés de l’école secondaire Honoré-Mercier de Montréal. Il y a deux objectifs à ce stage. Le premier vise une diminution des présences au local de retrait et le deuxième de diminuer les difficultés d’adaptation scolaire des élèves ciblés. L’atteinte de ces objectifs est considérée en fonction de données factuelles sur les présences au local de retrait, des résultats obtenus à un test standardisé, soit le Achenbach (Achenbach, 1991), mais également en fonction des perceptions des élèves et des professeurs sur le cheminement de l’élève. Les résultats illustrent que les élèves n’ont pas modifié significativement leur présence au local de retrait, que différentes problématiques définies dans le Achenbach ont été amplifiées tandis que d’autres ont été diminuées et que, finalement les élèves ont apprécié leur suivi puisque ce dernier les a amené à vivre des changements intrinsèques. Des conclusions découlent de l’analyse des résultats, soit concernant la durée des interventions et les problématiques présentes chez les élèves. Le rôle que peut assumer le criminologue dans le milieu scolaire est également abordé. Mots clés : adaptation, difficulté, scolaire, suivi, école, secondaire, adolescent
Resumo:
Jouant un rôle crucial pour l’efficience des marchés, la banque d’investissement contemporaine se caractérise par l’exercice d’une grande diversité d’activités aussi complexes qu’hétérogènes sous un même toit. Agissant tantôt auprès d’une clientèle de particuliers, d’entreprises, d’institutions financières, de fonds d’investissement ou de gouvernements, et tantôt pour son propre compte, elle compose avec une multitude d’intérêts divergents, ce qui soulève un certain questionnement quant à la portée de l’obligation de loyauté dont elle peut être tributaire envers ses clients. Les implications répétées des banques d’affaires dans la vague de récents scandales financiers ont inévitablement affecté la confiance que les épargnants témoignent envers l’intégrité de cette institution et des marchés financiers en général. Elles ont de plus contribué significativement à relancer le débat concernant la pertinence de contrôler, et même d’éliminer les conflits d’intérêts, un phénomène largement répandu au sein de la banque d’investissement. À titre de mécanismes préventifs, les solutions de marchés et l’autodiscipline des intermédiaires financiers sont imparfaits. La réglementation des conflits d’intérêts se justifie alors afin de pallier les défaillances du marché et de l’autorégulation. Pour autant qu’il maintienne sa réglementation dans un rapport efficience-équité acceptable, l’État est appelé à concevoir des normes de contrôle aux objectifs variés, allant de la réforme structurelle du secteur financier à l’élaboration de principes généraux devant servir de balises à la conduite des intermédiaires financiers. Ainsi, dans une industrie caractérisée par une forte conglomération, la réponse des législateurs semble s’articuler autour du traitement adéquat des conflits d’intérêts, traitement qui s’opère par divers mécanismes, dont la muraille Chine, la divulgation et le refus d’agir.
Resumo:
Tout employeur qui fournit l'accès Internet au sein de son entreprise a intérêt à surveiller l'usage qui en est fait par ses employés, que ce soit pour maximiser les avantages ou pour réduire les risques liés à l'utilisation d'Internet au travail. Tout employeur a d'ailleurs le droit d'exercer une telle surveillance, sous réserve toutefois des droits des personnes surveillées. La mise en place d'une surveillance de l'utilisation d'Internet au travail peut porter atteinte à la vie privée des employés ou à leur droit à des conditions de travail justes et raisonnables, et peut également porter atteinte au droit à la vie privée des tiers indirectement visés par la surveillance. Dans ce contexte, afin de s'assurer que la surveillance est exercée dans les limites de ses droits, l'employeur doit franchir deux étapes de réflexion essentielles. L'employeur doit en premier lieu déterminer le niveau d'expectative raisonnable de vie privée des personnes surveillées, lequel niveau s'apprécie à la lumière d'une série de facteurs. L'employeur doit par ailleurs respecter les critères de rationalité et de proportionnalité. Ces critères requièrent notamment que l'employeur identifie les motifs sous-jacents à la surveillance ainsi que la manière dont la surveillance sera exercée. Une fois ces deux étapes franchies, l'employeur sera en mesure d'identifier les obligations auxquelles il est soumis dans le cadre de la mise en place de la surveillance.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Les autotransporteurs monomériques, appartenant au système de sécrétion de type V, correspondent à une famille importante de facteurs de virulence bactériens. Plusieurs fonctions, souvent essentielles pour le développement d’une infection ou pour le maintien et la survie des bactéries dans l’organisme hôte, ont été décrites pour cette famille de protéines. Malgré l’importance de ces protéines, notre connaissance de leur biogenèse et de leur mécanisme d’action demeure relativement limitée. L’autotransporteur AIDA-I, retrouvé chez diverses souches d’Escherichia coli, est un autotransporter multifonctionnel typique impliqué dans l’adhésion et l’invasion cellulaire ainsi que dans la formation de biofilm et d’agrégats bactériens. Les domaines extracellulaires d’autotransporteurs monomériques sont responsables de la fonctionnalité et possèdent pratiquement tous une structure caractéristique d’hélice β. Nous avons mené une étude de mutagenèse aléatoire avec AIDA-I afin de comprendre la base de la multifonctionnalité de cette protéine. Par cette approche, nous avons démontré que les domaines passagers de certains autotransporteurs possèdent une organisation modulaire, ce qui signifie qu’ils sont construits sous la forme de modules fonctionnels. Les domaines passagers d’autotransporteurs peuvent être clivés et relâchés dans le milieu extracellulaire. Toutefois, malgré la diversité des mécanismes de clivage existants, plusieurs protéines, telles qu’AIDA-I, sont clivées par un mécanisme qui demeure inconnu. En effectuant une renaturation in vitro d’AIDA-I, couplée avec une approche de mutagenèse dirigée, nous avons démontré que cette protéine se clive par un mécanisme autocatalytique qui implique deux acides aminés possédant un groupement carboxyle. Ces résultats ont permis la description d’un nouveau mécanisme de clivage pour la famille des autotransporteurs monomériques. Une des particularités d’AIDA-I est sa glycosylation par une heptosyltransférase spécifique nommée Aah. La glycosylation est un concept plutôt récent chez les bactéries et pour l’instant, très peu de protéines ont été décrites comme glycosylées chez E. coli. Nous avons démontré que Aah est le prototype pour une nouvelle famille de glycosyltransférases bactériennes retrouvées chez diverses espèces de protéobactéries. La glycosylation d’AIDA-I est une modification cytoplasmique et post-traductionnelle. De plus, Aah ne reconnaît pas une séquence primaire, mais plutôt un motif structural. Ces observations sont uniques chez les bactéries et permettent d’élargir nos connaissances sur la glycosylation chez les procaryotes. La glycosylation par Aah est essentielle pour la conformation d’AIDA-I et par conséquent pour sa capacité de permettre l’adhésion. Puisque plusieurs homologues d’Aah sont retrouvés à proximité d’autotransporteurs monomériques putatifs, cette famille de glycosyltranférases pourrait être importante, sinon essentielle, pour la biogenèse et/ou la fonction de nombreux autotransporteurs. En conclusion, les résultats présentés dans cette thèse apportent de nouvelles informations et permettent une meilleure compréhension de la biogenèse d’une des plus importantes familles de protéines sécrétées chez les bactéries Gram négatif.
Resumo:
Rapport de stage présenté à l'école de Criminologie de la Faculté des arts et sciences en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie.
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.