70 resultados para Poisson-Boltzmann


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Peu d’études internationales ont examiné les différences entre les hommes et les femmes dans la prévalence du syndrome métabolique (SM). Objectifs : Comparer les prévalences du syndrome métabolique chez les femmes et les hommes et évaluer le rôle du genre dans les associations entre le SM et les troubles de mobilité (TM). Méthodes : Nous avons utilisé les données repères de l’étude internationale sur la mobilité des personnes âgées de 65-74 ans (n=1995), des villes de Kingston (Ontario), Saint-Hyacinthe (Québec), Tirana (Albanie), Manizales (Colombie), et Natal (Brésil). Parmi les participants, 1728 ont donné un échantillon de sang pour des analyses. Les ratios de prévalence (RP) du SM et des TM ont été dérivés par la régression de Poisson. Résultats : Les prévalences du SM étaient significativement plus élevées chez les femmes dans les villes non canadiennes, cette différence entre sexes n’était pas significative dans les villes canadiennes. Relativement aux femmes de Kingston, les prévalences du SM étaient plus élevées chez les femmes de Tirana (RP= 2,66; 95 % IC = 1,98-3,58) et de Natal (RP= 2,21; 95 % IC = 1,52-3,22) et non significatives chez celles de Manizales et de Saint-Hyacinthe. Chez les hommes, peu de différences significatives étaient observées. Le SM n’était pas associé à la mobilité dans les villes non canadiennes. Conclusion : Nos résultats suggèrent que le genre est un facteur de risque pour le SM. Des recherches sur les relations entre le SM, la mobilité et le genre devraient être entreprises. Mots-clés : Syndrome métabolique, troubles de la mobilité, genre, santé internationale

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Chaque année, 289 000 femmes décèdent des complications reliées à la grossesse et à l’accouchement, et 2.9 millions de nouveau-nés décèdent avant d’atteindre 28 jours de vie. La quasi-totalité (99%) des décès maternels et néonataux ont cours dans les pays à revenu faible et intermédiaire (PRFI). L’utilisation des services obstétricaux essentiels, incluant l’assistance qualifiée à l’accouchement (AA) et les services postnataux, contribue largement à la réduction de la morbidité et de la mortalité maternelle et néonatale. Il est donc essentiel d’évaluer les déterminants et les inégalités de couverture de ces services, en vue d’informer l’élaboration de politiques et de programmes de santé dans les PRFI. Objectifs 1. Étudier systématiquement les déterminants et inégalités socioéconomiques, géographiques et démographiques dans l’utilisation des services de santé postnataux dans les PRFI. 2. Évaluer l’effet de la politique de subvention des frais aux usagers introduite au Burkina Faso en 2007 sur les taux d’utilisation de l’assistance qualifiée à l’accouchement, en fonction du statut socioéconomique (SSE). Méthodes 1. Nous avons réalisé une revue systématique sur l’utilisation des services postnataux dans les PRFI, en fonction des déterminants socioéconomiques, géographiques et démographiques. Notre étude incluait une méta-analyse de l’utilisation des services selon les quintiles de SSE et le milieu de vie (urbain vs. rural). 2. Nous avons utilisé un devis quasi-expérimental. Les sources de données consistaient en deux sondages représentatifs (n=1408 et n=1403), conduits respectivement en 2008 et 2010 auprès de femmes des districts sanitaires de Houndé et de Ziniaré au Burkina Faso, en plus d’une enquête sur la qualité structurelle des soins offerts dans les centres de santé primaire. Nous avons utilisé des modèles de régression de Poisson, multi-niveaux et segmentés, afin d’évaluer l’effet de la politique de subvention sur les taux d’AA. Nous avons estimé des ratios et différences de taux d’incidence ajustés, en fonction du SSE et du temps écoulé depuis l’introduction de la subvention. Résultats 1. Les estimés de ratio de cotes (RC) agrégés (IC 95%) pour les femmes de SSE élevé (5e quintile ou Q5), Q4, Q3 et Q2 (référence : quintile le plus pauvre, Q1) étaient respectivement : 2.27 (1.75 – 2.93); 1.60 (1.30-1.98); 1.32 (1.12-1.55); et 1.14 (0.96-1.34). La méta-analyse a aussi démontré un gradient d’utilisation des services postnataux entre les femmes urbaines et rurales : RC (IC 95%) = 1.36 (1.01-1.81). L’évaluation narrative a par ailleurs identifié une différence dans la couverture de services selon le niveau d’éducation. 2. Pour les femmes de faible SSE, le taux d’AA était 24% plus élevé (IC 95% : 4-46%) immédiatement après l’introduction de la subvention, en comparaison au taux attendu en l’absence de ladite subvention. L’ampleur de l’effet a diminué dans le temps, correspondant à des estimés (IC 95%) de 22% (3-45%) à 6 mois, 20% (1-43%) à 12 mois, et 17% (-4-42%) à 24 mois après l’introduction de la subvention. La force d’association variait selon les strates de SSE, l’effet le plus prononcé étant observé au sein du SSE le plus faible. Conclusions 1. L’utilisation des services postnataux demeure inéquitable selon le SSE et l’accessibilité géographique aux formations sanitaires dans les PRFI. 2. Notre étude suggère que l’introduction de la subvention des frais aux usagers au Burkina Faso résulte en une augmentation soutenue dans le taux d’assistance qualifiée à l’accouchement, particulièrement chez les femmes de faible SSE. Cette évidence scientifique devrait alimenter l’élaboration de programmes de santé materno-infantile, en plus de guider la planification de politiques et le renforcement des systèmes de santé des PRFI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fundamental goal in neurobiology is to understand the development and organization of neural circuits that drive behavior. In the embryonic spinal cord, the first motor activity is a slow coiling of the trunk that is sensory-independent and therefore appears to be centrally driven. Embryos later become responsive to sensory stimuli and eventually locomote, behaviors that are shaped by the integration of central patterns and sensory feedback. In this thesis I used a simple vertebrate model, the zebrafish, to investigate in three manners how developing spinal networks control these earliest locomotor behaviors. For the first part of this thesis, I characterized the rapid transition of the spinal cord from a purely electrical circuit to a hybrid network that relies on both chemical and electrical synapses. Using genetics, lesions and pharmacology we identified a transient embryonic behavior preceding swimming, termed double coiling. I used electrophysiology to reveal that spinal motoneurons had glutamate-dependent activity patterns that correlated with double coiling as did a population of descending ipsilateral glutamatergic interneurons that also innervated motoneurons at this time. This work (Knogler et al., Journal of Neuroscience, 2014) suggests that double coiling is a discrete step in the transition of the motor network from an electrically coupled circuit that can only produce simple coils to a spinal network driven by descending chemical neurotransmission that can generate more complex behaviors. In the second part of my thesis, I studied how spinal networks filter sensory information during self-generated movement. In the zebrafish embryo, mechanosensitive sensory neurons fire in response to light touch and excite downstream commissural glutamatergic interneurons to produce a flexion response, but spontaneous coiling does not trigger this reflex. I performed electrophysiological recordings to show that these interneurons received glycinergic inputs during spontaneous fictive coiling that prevented them from firing action potentials. Glycinergic inhibition specifically of these interneurons and not other spinal neurons was due to the expression of a unique glycine receptor subtype that enhanced the inhibitory current. This work (Knogler & Drapeau, Frontiers in Neural Circuits, 2014) suggests that glycinergic signaling onto sensory interneurons acts as a corollary discharge signal for reflex inhibition during movement. v In the final part of my thesis I describe work begun during my masters and completed during my doctoral degree studying how homeostatic plasticity is expressed in vivo at central synapses following chronic changes in network activity. I performed whole-cell recordings from spinal motoneurons to show that excitatory synaptic strength scaled up in response to decreased network activity, in accordance with previous in vitro studies. At the network level, I showed that homeostatic plasticity mechanisms were not necessary to maintain the timing of spinal circuits driving behavior, which appeared to be hardwired in the developing zebrafish. This study (Knogler et al., Journal of Neuroscience, 2010) provided for the first time important in vivo results showing that synaptic patterning is less plastic than synaptic strength during development in the intact animal. In conclusion, the findings presented in this thesis contribute widely to our understanding of the neural circuits underlying simple motor behaviors in the vertebrate spinal cord.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’influence des contaminants environnementaux (CE) a été largement étudié en contexte d’exposition aigüe et d’intoxication. Qu’en est-il d’une exposition chronique à plus faibles doses sur le développement cognitif et sensoriel des enfants? Les études longitudinales de la présente thèse ont été réalisées au Nunavik. Bien que géographiquement éloignée des centres industriels, la communauté inuite est exposée aux CE via leur transport par les courants atmosphériques et océaniques ainsi que par leur bioaccumulation dans le poisson et les mammifères marins. Puisque l’alimentation autochtone traditionnelle, notamment la chair de béluga, est encore fréquemment consommée par la communauté, une proportion substantielle d’enfants inuits est exposée in utero aux CE. Ceux-ci sont également continuellement exposés à ces agents neurotoxiques durant leur développement postnatal. Or, la variation considérable dans l’adoption de l’alimentation traditionnelle au sein de la communauté représente une opportunité pour étudier la relation entre les niveaux d’exposition aux CE et le développement cognitif et sensoriel des enfants. Bien que certains déficits aient déjà été mis en lien avec l’exposition chronique aux CE dans la littérature, la présente thèse s’intéressa à cette relation plus spécifiquement chez les enfants inuits vivant dans le Grand Nord et plus exposés aux CE en raison de leur alimentation. Par ailleurs, les protocoles qui ont été développés pour cette thèse permettront d’évaluer des aspects qui ont été peu étudiés en lien avec les CE, soit l’attention visuospatiale et le traitement visuel cérébral précoce. Dans le premier volet de cette thèse, la relation entre trois CE et l’attention visuospatiale a été étudiée à l’aide d’une version adaptée de la tâche de Posner (M.I. Posner et al., 1980). Cette tâche psychophysique a été administrée à des enfants inuits (âge moyen = 11.2 ans) dont les niveaux d’exposition au mercure (Hg), au plomb (Pb) et aux biphényles polychlorés (BPCs) ont été documentés durant les périodes pré et postnatale. Les expositions in utero au Pb et aux BPCs ont été significativement associées à de l’impulsivité et de l’inattention, respectivement, alors que l’exposition postnatale au Pb a été associée à des temps de réaction plus longs. Bien qu’aucune relation spécifique avec l’attention visuospatiale n’ait été trouvée, les résultats de cette étude suggèrent que l’exposition aux CE est associée à une diminution des capacités attentionnelles générales chez les enfants résidant au Nunavik. Dans le second volet, le traitement cérébral précoce de l’information visuelle a été examiné à l’aide de potentiels évoqués visuels auprès d’enfants de la même communauté (âge moyen = 10.9 ans). La concentration de Hg dans le sang de cordon ombilical mesurée à la naissance a été associée à une réduction de l’amplitude et à une augmentation de la latence de la composante N75. L’exposition prénatale au Pb a quant à elle été associée à un délai dans la latence de la composante N150. Les résultats obtenus suggèrent ainsi que l’exposition aux métaux lourds, en particulier durant la période gestationnelle, serait associée à des altérations dans le développement visuel. Les résultats présentés dans cette thèse soutiennent l’hypothèse selon laquelle le cerveau en développement est vulnérable lors d’une exposition chronique aux CE, et cela même à des niveaux de concentration inférieurs aux limites recommandées par les organismes de santé publique. Les résultats permettent également d’apporter un éclairage nouveau sur les déficits cognitifs et sensoriels associés aux CE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les anomalies du tube neural (ATN) sont des anomalies développementales où le tube neural reste ouvert (1-2/1000 naissances). Afin de prévenir cette maladie, une connaissance accrue des processus moléculaires est nécessaire. L’étiologie des ATN est complexe et implique des facteurs génétiques et environnementaux. La supplémentation en acide folique est reconnue pour diminuer les risques de développer une ATN de 50-70% et cette diminution varie en fonction du début de la supplémentation et de l’origine démographique. Les gènes impliqués dans les ATN sont largement inconnus. Les études génétiques sur les ATN chez l’humain se sont concentrées sur les gènes de la voie métabolique des folates du à leur rôle protecteur dans les ATN et les gènes candidats inférés des souris modèles. Ces derniers ont montré une forte association entre la voie non-canonique Wnt/polarité cellulaire planaire (PCP) et les ATN. Le gène Protein Tyrosine Kinase 7 est un membre de cette voie qui cause l’ATN sévère de la craniorachischisis chez les souris mutantes. Ptk7 interagit génétiquement avec Vangl2 (un autre gène de la voie PCP), où les doubles hétérozygotes montrent une spina bifida. Ces données font de PTK7 comme un excellent candidat pour les ATN chez l’humain. Nous avons re-séquencé la région codante et les jonctions intron-exon de ce gène dans une cohorte de 473 patients atteints de plusieurs types d’ATN. Nous avons identifié 6 mutations rares (fréquence allélique <1%) faux-sens présentes chez 1.1% de notre cohorte, dont 3 sont absentes dans les bases de données publiques. Une variante, p.Gly348Ser, a agi comme un allèle hypermorphique lorsqu'elle est surexprimée dans le modèle de poisson zèbre. Nos résultats impliquent la mutation de PTK7 comme un facteur de risque pour les ATN et supporte l'idée d'un rôle pathogène de la signalisation PCP dans ces malformations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En mécanique statistique, un système physique est représenté par un système mécanique avec un très grand nombre de degrés de liberté. Ce qui est expérimentalement accessible, croit-on, se limite à des moyennes temporelles sur de longues périodes. Or, il est bien connu qu’un système physique tend vers un équilibre thermodynamique. Ainsi, les moyennes temporelles censées représenter les résultats de mesure doivent être indépendantes du temps. C’est pourquoi elles sont associées à des temps infinis. Ces moyennes sont par contre difficilement analysables, et c’est pourquoi la moyenne des phases est utilisée. La justification de l’égalité de la moyenne temporelle infinie et de la moyenne des phases est le problème ergodique. Ce problème, sous une forme ou une autre, a fait l’objet d’études de la part de Boltzmann (1868 ; 1872), les Ehrenfest (1912), Birkhoff (1831), Khinchin (1949), et bien d’autres, jusqu’à devenir une théorie à part entière en mathématique (Mackey 1974). Mais l’introduction de temps infinis pose des problèmes physiques et philosophiques d’importance. En effet, si l’infini a su trouver une nouvelle place dans les mathématiques cantoriennes, sa place en physique n’est pas aussi assurée. Je propose donc de présenter les développements conceptuels entourant la théorie ergodique en mécanique statistique avant de me concentrer sur les problèmes épistémologiques que soulève la notion d’infini dans ces mêmes développements.