323 resultados para Fuseaux rapides


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, les personnes âgées hospitalisées nécessitant un hébergement dans le secteur public peuvent être déplacées plusieurs fois au sein d’un hôpital et de différents établissements jusqu’à ce qu’une place permanente soit disponible. Cette pratique peut avoir des conséquences sur leur santé. Les significations qu’accordent les personnes âgées à cette expérience sont peu connues alors qu’elles peuvent influencer leur processus transitionnel et les conséquences sur leur santé et leur bien-être. Basée sur la théorie de transitions de Meleis (2010), une micro ethnographie critique ayant pour but de comprendre les significations du processus transitionnel de personnes âgées hospitalisées nécessitant un hébergement et vivant de multiples relocalisations a été conçue. L’échantillon était composé de huit personnes âgées ayant vécu au moins deux relocalisations durant leur attente d’hébergement. Des entrevues semi-dirigées et des conversations informelles ont été utilisées. L’analyse des données a respecté la méthode décrite par Braun et Clarke (2006). Les résultats de cette analyse thématique ont démontré que les personnes âgées vivent, durant leur expérience transitionnelle, des discontinuités spatio-temporelles auxquelles elles attribuent différentes significations. Ces significations correspondent à la perception de vivre de longues périodes d’attente dans des milieux temporaires, des déménagements rapides et impromptus et des coupures affectives. L’incertitude et l’impuissance ressenties à divers degrés d’intensité par les personnes âgées sont également des significations qui ressortent du processus transitionnel. Une autre signification accordée par les personnes âgées à leur expérience de transitions est l’importance des « petites choses » de la vie quotidienne. Les connaissances issues de cette étude ont des implications pour les différents champs d’activités des infirmières. Notamment, elles offrent des pistes pour favoriser la santé et le bien-être des personnes âgées vivant un processus transitionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tests PAMPA et les tests Caco-2 sont des essais in vitro de l’évaluation de la perméabilité intestinale des médicaments. Ils sont réalisés lors de la phase de découverte du médicament. Les tests PAMPA ne sont pas biologiquement représentatifs de la paroi intestinale, mais ils sont rapides et peu coûteux. Les tests Caco-2 nécessitent plus de 21 jours pour la culture cellulaire et des installations spécifiques sont requises. Ils sont constitués d’une monocouche d’entérocytes à confluence et donc plus biologiquement représentatifs. Il y a un besoin pour le développement d’un essai qui est biologiquement représentatif de la membrane intestinale humaine, rapide et peu coûteux. Le premier but de ce projet était de développer une méthode analytique qui permettrait l’évaluation simultanée de huit médicaments témoins utilisés pour la validation de l’essai de perméabilité. Le deuxième but de ce projet était donc d’améliorer la membrane des tests PAMPA pour proposer un nouveau test : le néoPAMPA. Contrairement au test PAMPA traditionnel, cette membrane est constituée de trois composantes : (1) un filtre poreux qui agit à titre de support, (2) un coussin polydopamine chargé négativement qui sert d’ancrage et qui assure la fluidité de la bicouche et (3) une bicouche lipidique formée par fusion de vésicules. Une méthode analytique HPLC-MS/MS a été validée selon les spécifications de la FDA et de la EMA. Cette méthode a permis de quantifier simultanément les huit médicaments standards utilisés pour le test néoPAMPA. Le test PAMPA traditionnel a été mis en place à titre d’essai control. Les coefficients de perméabilité mesurés pour les huit médicaments au travers de la membrane PAMPA comparaient favorablement aux résultats de la littérature. Les composantes de la membrane néoPAMPA ont été optimisées. Les conditions optimales retenues étaient les filtres de polycarbonate hydrophile ayant des pores de 15 nm, les plaques Costar 12 puits comme dispositif des tests de perméabilité, une bicouche lipidique composée de 70 % DOPC et de 30 % cholestérol cationique ainsi qu’une déposition des liposomes en présence de 150 mM NaCl suivi d’un équilibre d’1 h en présence d’une solution saturée en DOPC. Les stabilités de la cassette de médicaments et des liposomes sont insuffisantes pour le conditionnement commercial des membranes néoPAMPA. Les différentes optimisations réalisées ont permis d’améliorer la membrane néoPAMPA sans toutefois la rendre fonctionnelle. La membrane néoPAMPA n’est toujours pas en mesure de discriminer des molécules en fonction de leur perméabilité attendue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis la révolution industrielle, l’évolution de la technologie bouleverse le monde de la fabrication. Aujourd'hui, de nouvelles technologies telles que le prototypage rapide font une percée dans des domaines comme celui de la fabrication de bijoux, appartenant jadis à l'artisanat et en bouscule les traditions par l'introduction de méthodes plus rapides et plus faciles. Cette recherche vise à répondre aux deux questions suivantes : - ‘En quoi le prototypage rapide influence-t-il la pratique de fabrication de bijoux?’ - ‘En quoi influence-t-il de potentiels acheteurs dans leur appréciation du bijou?’ L' approche consiste en une collecte de données faite au cours de trois entretiens avec différents bijoutiers et une rencontre de deux groupes de discussion composés de consommateurs potentiels. Les résultats ont révélé l’utilité du prototypage rapide pour surmonter un certain nombre d'obstacles inhérents au fait-main, tel que dans sa géométrie, sa commercialisation, et sa finesse de détails. Cependant, il se crée une distance entre la main du bijoutier et l'objet, changeant ainsi la nature de la pratique. Cette technologie est perçue comme un moyen moins authentique car la machine rappelle la production de masse et la possibilité de reproduction en série détruit la notion d’unicité du bijou, en réduisant ainsi sa charge émotionnelle. Cette recherche propose une meilleure compréhension de l'utilisation du prototypage rapide et de ses conséquences dans la fabrication de bijoux. Peut-être ouvrira-t-elle la voie à une recherche visant un meilleur mariage entre cette technique et les méthodes traditionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Cancer du Col Utérin (CCU) chez la femme est provoqué par le virus oncogénique VPH. La métastase lymphatique ganglionnaire est un facteur pronostique majeur pour l’évolution de ce cancer et sa présence influence la décision thérapeutique. En général, l’envahissement ganglionnaire est diagnostiqué par histologie, mais cette méthode est laborieuse et parfois prise en défaut pour détecter les micrométastases et les cellules cancéreuses isolées et pour donner des résultats rapides en per opératoire. L’outil moléculaire que nous désirons développer pour combler cette lacune est basé sur une analyse d’ARN des gènes du VPH exprimés par les cellules du CCU. Ceci sera fait par transcription réverse de l’ARN cellulaire couplé à une réaction quantitative en chaine par polymérase en temps réel (RT-qPCR). Cette technique devrait nous permettre une détection et une évaluation rapide des micrométastases pour aider à déterminer immédiatement un pronostic fiable et la thérapie associée. C’est un test précis, sensible et rapide pour détecter un envahissement ganglionnaire dans le CCU visant à améliorer la gestion thérapeutique. Le projet est basé sur trois objectifs. En premier lieu, valider les marqueurs moléculaires E6 et E7 de VPH16 et 18 à partir des échantillons frais et des échantillons fixés dans des blocs de paraffine. En deuxième lieu, déterminer la fiabilité et la sensibilité des marqueurs pour la détection des macrométastases, des micrométastases et les cellules tumorales isolées en utilisant la technique de RT-qPCR. En troisième lieu et parallèlement au travail présenté dans ce mémoire, il est nécessaire de constituer une base de données des patientes qui ont le virus VPH16 et 18 intégré dans leur génome, qui ont été traitées et dont nous connaissons déjà le diagnostic final afin de valider la méthode (biobanque). Nous avons réussi à extraire de l’ARNm de haute qualité à partir d’échantillons complexes, à détecter les gènes E6 et E7 de VPH16 et 18 en RT-qPCR, et à déterminer précisément la limite de détection de E6 et E7 dans les échantillons frais qui est une proportion de 0,008% de cellules cancéreuses. Dans les échantillons fixés dans la paraffine, cette limite est de 0,02% et 0,05% pour E6-E7-VPH16 et E6-E7-VPH18 respectivement. Ceci comparativement à une limite de détection histologique de 1% qui est déterminée par immunohistochimie de CK19. Enfin, notre protocole est validé pour VPH18 dans les ganglions lymphatiques du CCU.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réchauffements climatiques associés aux activités anthropiques ont soumis les écosystèmes arctiques à des changements rapides qui menacent leur stabilité à court terme. La diminution dramatique de la banquise arctique est une des conséquences les plus concrètes de ce réchauffement. Dans ce contexte, comprendre et prédire comment les systèmes arctiques évolueront est crucial, surtout en considérant comment les flux de carbone (C) de ces écosystèmes - soit des puits nets, soit des sources nettes de CO2 pour l'atmosphère - pourraient avoir des répercussions importantes sur le climat. Le but de cette thèse est de dresser un portrait saisonnier de l’activité bactérienne afin de déterminer l’importance de sa contribution aux flux de carbone en Arctique. Plus spécifiquement, nous caractérisons pour la première fois la respiration et le recours à la photohétérotrophie chez les microorganismes du golfe d’Amundsen. Ces deux composantes du cycle du carbone demeurent peu décrites et souvent omises des modèles actuels, malgré leur rôle déterminant dans les flux de C non seulement de l’Arctique, mais des milieux marins en général. Dans un premier temps, nous caractérisons la respiration des communautés microbiennes (RC) des glaces de mer. La connaissance des taux de respiration est essentielle à l’estimation des flux de C, mais encore limitée pour les milieux polaires. En effet, les études précédentes dans le golfe d’Amundsen n’ont pas mesuré la RC. Par la mesure de la respiration dans les glaces, nos résultats montrent des taux élevés de respiration dans la glace, de 2 à 3 fois supérieurs à la colonne d'eau, et une production bactérienne jusqu’à 25 fois plus importante. Ces résultats démontrent que la respiration microbienne peut consommer une proportion significative de la production primaire (PP) des glaces et pourrait jouer un rôle important dans les flux biogéniques de CO2 entre les glaces de mer et l’atmosphère (Nguyen et Maranger, 2011). Dans un second temps, nous mesurons la respiration des communautés microbiennes pélagiques du golfe d’Amundsen pendant une période de 8 mois consécutif, incluant le couvert de glace hivernal. En mesurant directement la consommation d'O2, nous montrons une RC importante, mesurable tout au long de l’année et dépassant largement les apports en C de la production primaire. Globalement, la forte consommation de C par les communautés microbiennes suggère une forte dépendance sur recyclage interne de la PP locale. Ces observations ont des conséquences importantes sur notre compréhension du potentiel de séquestration de CO2 par les eaux de l’Océan Arctique (Nguyen et al. 2012). Dans un dernier temps, nous déterminons la dynamique saisonnière de présence (ADN) et d’expression (ARN) du gène de la protéorhodopsine (PR), impliqué dans la photohétérotrophie chez les communautés bactérienne. Le gène de la PR, en conjonction avec le chromophore rétinal, permet à certaines bactéries de capturer l’énergie lumineuse à des fins énergétiques ou sensorielles. Cet apport supplémentaire d’énergie pourrait contribuer à la survie et prolifération des communautés qui possèdent la protéorhodopsine. Bien que détectée dans plusieurs océans, notre étude est une des rares à dresser un portrait saisonnier de la distribution et de l’expression du gène en milieu marin. Nous montrons que le gène de la PR est présent toute l’année et distribué dans des communautés diversifiées. Étonnamment, l’expression du gène se poursuit en hiver, en absence de lumière, suggérant soit qu’elle ne dépend pas de la lumière, ou que des sources de photons très localisées justifie l’expression du gène à des fins sensorielles et de détection (Nguyen et al., soumis au journal ISME). Cette thèse contribue à la compréhension du cycle du C en Arctique et innove par la caractérisation de la respiration et de l’efficacité de croissance des communautés microbiennes pélagiques et des glaces de mer. De plus, nous montrons pour la première fois une expression soutenue de la protéorhodopsine en Arctique, qui pourrait moduler la consommation de C par la respiration et justifier son inclusion éventuelle dans les modélisations du cycle du C. Dans le contexte des changements climatiques, il est clair que l'importance de l’activité bactérienne a été sous-estimée et aura un impact important dans le bilan de C de l'Arctique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les thiols à faible masse moléculaire (FMM) peuvent affecter la biodisponibilité du mercure et mener à une plus grande production de méthylmercure par les microorganismes méthylants. Les résultats d’une étude réalisée au sein de la matrice extracellulaire du périphyton de la zone littorale d’un lac des Laurentides ont démontré que les concentrations en thiols à FMM retrouvées dans cette matrice sont jusqu’à 1000 fois supérieures à celles de la colonne d’eau avoisinante. Ces thiols sont significativement corrélés à la chlorophylle a du périphyton, suggérant une production par les algues. Le mercure de la matrice extracellulaire, plus spécifiquement dans la fraction colloïdale mobile, est aussi corrélé aux thiols d’origine algale. Ces résultats suggèrent qu’une accumulation de thiols s’opère dans l’espace extracellulaire du périphyton et qu’ils peuvent favoriser le transfert du mercure vers les microorganismes produisant le méthylmercure. Les résultats d’une seconde étude menée sur les méthodes de préservation d’échantillons d’eau pour la conservation des thiols à FMM ont démontré que la température optimale d’entreposage était de -80 °C et que la lyophilisation menait à une sous-estimation des concentrations mesurées. Les taux de dégradation étaient plus rapides lors de la conservation à -20 °C et variables selon la chimie de l’eau utilisée et les espèces de thiols observées. Suivant ces résultats, nous proposons un cadre de recherche pour de futures études sur la spéciation du mercure dans le périphyton et nous suggérons des précautions lors de la manipulation et de la conservation des thiols à FMM d’échantillons naturels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les technologies de stimulations transcrâniennes – tel que la tDCS ou la TMS – présentent à l’heure actuelle d’intéressantes perspectives thérapeutiques, tout comme diverses améliorations cognitives chez le sujet « non-malade » dont découlent des applications neuroamélioratives, plus ou moins imminentes, en dehors du cadre clinique ou investigatoire. Est proposé ici d’analyser les risques associés à ces applications, détournées des objectifs premiers de recherche, et aux préoccupations éthiques qui les accompagnent (autonomie, justice, intégrité physique), via un concept généralement associé aux recherches avec des perspectives de sécurité nationale et associées à un niveau de risque élevé. Révisant la trivialité d’une définition dichotomique aux usages « bons » et « mauvais », est proposé d’étendre le concept de « double-usage » pour l’appliquer à la neuroamélioration comme un mésusage de la recherche en neurosciences. Faisant référence au conflit entre, d’une part, le respect de la liberté académique et, d’autre part, la protection de la sécurité et de la santé publique, ce concept s’avère être un outil diagnostique pertinent pour l’évaluation des risques associés à l’usage mélioratif desdites technologies, et plus particulièrement de la tDCS, afin d’alimenter la réflexion sur la régulation de ces dispositifs en amont de leur utilisation, selon un principe de précaution inhérent au double-usage de la recherche. Ce concept permet ainsi de réfléchir à la mise en place d’une gouvernance proactive et contextualisée impliquant une responsabilité partagée d’un large panel d’acteurs, nécessaire au vu des avancées rapides du domaine des neurosciences et de l’imminence de l’arrivée sur le marché de ces dispositifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le trouble comportemental en sommeil paradoxal (TCSP) est une parasomnie se caractérisant par la perte de l’atonie musculaire, la paralysie qui accompagne généralement le sommeil paradoxal, suivie de l’apparition de comportements indésirables et souvent violents. Des études suggèrent que le TCSP idiopathique (TCSPi) est fortement lié au développement ultérieur de la maladie de Parkinson, de la démence à corps de Lewy et de l’atrophie multisystémique. En effet, des signes subtils de neurodégénérescence sont observés chez ces patients, notamment un ralentissement de l’activité électrique cérébrale (EEG) à l’éveil et la présence de troubles cognitifs. Le but de cette thèse est 1) d’évaluer sur le plan transversal la contribution du trouble cognitif léger (TCL) dans le ralentissement de l’EEG à l’éveil observé chez ces patients et 2) d’évaluer la valeur prédictive des mesures de l’EEG à l’éveil mesurées au temps de base par rapport au développement d’une maladie neurodégénérative (MND) lors du suivi longitudinal. Dans le cadre de la première étude, l’EEG à l’éveil d’un groupe de patients avec un TCSPi présentant des atteintes cognitives a été comparé à celui d’un groupe de patients sans troubles cognitifs et à des sujets témoins sains. Seuls les patients avec un TCL affichaient un ralentissement de l’EEG d’éveil plus prononcé au niveau postérieur, c’est-à-dire une puissance relative thêta plus élevée dans les régions pariétale, temporale et occipitale, une puissance relative alpha plus faible dans les régions occipitale et temporale, en plus d’un ratio spectral (ondes lentes sur ondes rapides) plus élevé dans ces régions en comparaison avec les deux autres groupes. De plus, le ratio spectral corrélait négativement avec les fonctions attentionnelles/exécutives, visuospatiales et la mémoire épisodique verbale. La deuxième étude a quant à elle évalué l’EEG à l’éveil au temps initial de patients qui ont développé une MND sur une période de 3,5 ans en comparaison à celui de patients qui sont demeurés idiopathiques et à un groupe de témoins sains. Les patients avec un TCSPi qui ont évolué vers une MND présentaient une augmentation de la puissance de l’activité absolue delta et thêta, en plus d’un ratio spectral plus élevé dans les cinq régions corticales en comparaison avec les deux autres groupes. Cette thèse suggère ainsi que le ralentissement de l’EEG à l’éveil dans le TCSPi est relié à la présence d’un TCL concomitant. De plus, ces anomalies sont associées à un plus grand risque de développer une maladie de Parkinson, une démence à corps de Lewy ou une atrophie multisystémique à court terme chez ces patients. Le ralentissement de l’EEG à l’éveil semble donc être un marqueur prometteur d’une neurodégénérescence cérébrale plus sévère chez les patients souffrant d’un TCSPi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dérégulation du compartiment de cellules B est une conséquence importante de l’infection par le virus de l’immunodéficience humaine (VIH-1). On observe notamment une diminution des nombres de lymphocytes B sanguins ainsi qu’une variation des fréquences relatives des différentes populations de lymphocytes B chez les individus infectés par rapport aux contrôles sains. Notre laboratoire a précédemment démontré l’implication des cellules dendritiques dans la dérégulation des lymphocytes B via la roduction excessive de BLyS/BAFF, un stimulateur des cellules B. De plus, lors l’études menées chez la souris transgénique présentant une maladie semblable au SIDA, et chez la souris BLyS/BAFF transgénique, l’infection au VIH-1 fut associée à une expansion de la zone marginale (MZ) de la rate. De façon intéressante, nous observons chez les contrôleurs élites une diminution de la population B ‘mature’ de la MZ. Il s’agit du seul changement important chez les contrôleurs élites et reflète possiblement un recrutement de ces cellules vers la périphérie ainsi qu’une implication dans des mécanismes de contrôle de l’infection. Pour tenter d’expliquer et de mieux comprendre ces variations dans les fréquences des populations B, nous avons analysé les axes chimiotactiques CXCL13-CXCR5, CXCL12-CXCR4/CXCR7, CCL20-CCR6 et CCL25-CCR9. L’étude longitudinale de cohortes de patients avec différents types de progression clinique ou de contrôle de l’infection démontre une modulation des niveaux plasmatiques de la majorité des chimiokines analysées chez les progresseurs rapides et classiques. Au contraire, les contrôleurs élites conservent des niveaux normaux de chimiokines, démontrant leur capacité à maintenir l’homéostasie. La migration des populations de cellules B semble être modulée selon la progression ou le contrôle de l’infection. Les contrôleurs élites présentent une diminution de la population B ‘mature’ de la MZ et une augmentation de la fréquence d’expression du récepteur CXCR7 associé à la MZ chez la souris, suggérant un rôle important des cellules de la MZ dans le contrôle de l’infection au VIH-1. De façon générale, les résultats dans cette étude viennent enrichir nos connaissances du compartiment de cellules B dans le contexte de l’infection au VIH-1 et pourront contribuer à élaborer des stratégies préventives et thérapeutiques contre ce virus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les avancées techniques et méthodologiques de la neuroscience ont permis de caractériser le sommeil comme un état actif et dynamique où des événements neuronaux cohésifs organisent les fonctions cérébrales. Les fuseaux de sommeil et les ondes lentes sont les marqueurs électroencéphalographiques de ces événements, et la mesure de leurs paramètres reflète et nuance les interactions neuronales à l’oeuvre pendant le sommeil lent. Considérant leur implication dans les fonctions hypniques et cognitives, les événements du sommeil lent sont particulièrement pertinents à l’étude du vieillissement, où l’intégrité de ces fonctions est mise au défi. Le vieillissement normal s’accompagne non seulement de réductions importantes des paramètres composant les événements du sommeil lent, mais aussi de modifications précises de l’intégrité anatomique et fonctionnelle du cerveau. Récemment, les études ont souligné la régulation locale des événements du sommeil lent, dont l’évolution avec l’âge demeure toutefois peu explorée. Le présent ouvrage se propose de documenter les liens unissant la neurophysiologie du sommeil, le vieillissement normal et l’activité régionale du cerveau par l’évaluation topographique et hémodynamique des événements du sommeil lent au cours du vieillissement. Dans une première étude, la densité, la durée, l’amplitude et la fréquence des fuseaux de sommeil ont été évaluées chez trois groupes d’âge au moyen de l’analyse topographique et paramétrique de l’électroencéphalogramme. Dans une seconde étude, les variations hémodynamiques associées à l’occurrence et modulées par l’amplitude des ondes lentes ont été évaluées chez deux groupes d’âge au moyen de l’électroencéphalographie combinée à l’imagerie par résonance magnétique fonctionnelle. Globalement, les résultats obtenus ont indiqué : 1) une dichotomie des aires corticales antérieures et postérieures quant aux effets d’âge sur les paramètres des fuseaux de sommeil; 2) des variations de la réponse hémodynamique associées aux ondes lentes dans une diversité de régions corticales et sous-corticales chez les personnes âgées. Ces résultats suggèrent la réorganisation fonctionnelle de l’activité neuronale en sommeil lent à travers l’âge adulte, soulignent l’utilité et la sensibilité des événements du sommeil lent comme marqueurs de vieillissement cérébral, et encouragent la recherche sur l’évolution des mécanismes de plasticité synaptique, de récupération cellulaire et de consolidation du sommeil avec l’âge.