974 resultados para D value
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.
Resumo:
Les sédiments sont des sites importants d’élimination d’azote (N) puisqu’ils possèdent des gradients d’oxydoréduction leur conférant les conditions idéales pour les réactions microbiennes de transformation de N. L’eutrophisation des régions côtières peut altérer ces gradients, par des changements dans la concentration d’oxygène (O2) de l’eau interstitielle, et modifier l’importance relative des processus transformant le N. Afin de mieux comprendre comment l’O2 pourrait influencer les transformations de N, nous avons mesuré les flux diffusifs de diazote (N2), nitrate (NO3-), oxygène et ammonium (NH4+) dans les sédiments de l’Estuaire Maritime du St-Laurent (EMSL), et nous avons estimé les taux de dénitrification. L’importance du couple nitrification-dénitrification en fonction d’un gradient de concentrations d’O2 dans la zone d’hypoxie de l’EMSL fut aussi évaluée. La concentration des gaz dissous fut mesurée en utilisant une nouvelle approche développée dans cette étude. Les flux diffusifs de N2, O2, NO3- et NH4+ variaient de 5.5 à 8.8, de -37.1 à -84.8, de -4.0 à -5.8 et de 0.6 à 0.8 μmol N m-2 h-1 respectivement. Les concentrations de N2 et NO3- dans l’eau porale et les flux de NO3- et de N2 des sédiments, suggèrent que la diffusion de NO3- provenant de l’eau à la surface des sédiments ne peut pas expliquer par elle-même la production de N2 observée. En utilisant une approche stoichiométrique, les taux de nitrification potentielle estimés comptent pour 0.01 à 52% du flux total de NO3 nécessaire pour aboutir aux flux de N2 observés et diminuent avec l’augmentation de l’hypoxie.
Resumo:
Le projet porte sur l’étude de l’effet de l’eugénol, composant principal du clou de girofle, sur la douleur neuropathique. L’objectif principal du projet était de déterminer la contribution du système nerveux central dans l’effet analgésique de l’eugénol. Lors d’une étude préliminaire, la pénétrabilité de l’eugénol a été évaluée dans le système nerveux central du rat. Des échantillons de sang, de cerveau et de moelle épinière ont été prélevés et les concentrations d’eugénol dans ces différents tissus ont été analysées à l’aide d’un spectromètre de masse. Les résultats ont montré que l’eugénol pénètre bien le système nerveux central avec une distribution plus importante dans la moelle épinière. Après l’induction de la douleur neuropathique à des rats Sprague-Dawley par le modèle de ligatures du nerf sciatique, des injections intrathécales d’eugénol furent réalisées afin d’évaluer l’effet central de l’eugénol. La plus forte dose d’eugénol a atténué l’allodynie secondaire après 15min, 2h et 4h et a aussi amélioré l’hyperalgésie thermique après 2h et 4h. Ces résultats confirment l’hypothèse que l’eugénol atténue les deux aspects de la douleur neuropathique que sont l’allodynie et l’hyperalgésie. Les injections au niveau lombaire permettent de penser que l’eugénol, un agoniste/antagoniste des récepteurs vanilloïdes pourrait diminuer la douleur neuropathique en agissant notamment au niveau des récepteurs vanilloïdes situés dans la corne dorsale de la moelle épinière.
Resumo:
Inscrite dans la tradition monographique en sociologie et en anthropologie, cette thèse prend pour objet la diversité des pratiques et des idéologies caractéristiques des différents types de populations rurales distingués en fonction de l'enracinement territorial, afin d'apporter un nouvel éclairage sur les conflits sociaux actuels dans tous les milieux ruraux québécois qui surgissent notamment de l'accroissement du nombre des néo-ruraux dont les visions du monde s'opposent à celles des agriculteurs, dont le nombre diminue sans cesse. Prenant un village comme observatoire, il s'agit de rendre compte du mouvement totalisant de l'expérience de la vie en société à la fois dans ses dimensions « matérielles » et « symboliques ». L'étude des principales formes de vie sociale (religieuse, économique et politique) se fait grâce à des méthodes diversifiées: l'observation participante, l'analyse statistique, l'analyse du discours, le travail sur les archives municipales et l'histoire orale. L'analyse des différentes formes de vie sociale montre que leur organisation est structurée par deux principaux modèles. Le modèle public et communautaire comprend les personnes qui valorisent l'implication de l'État et des professionnels dans la gestion collective de la redistribution des richesses et dans le développement des milieux ruraux. Ces personnes occupent une position économique « marginale » à l'intérieur de la localité et sont plus près des milieux urbains tant par leurs positions que par leurs visions du monde. Quant au modèle privé et familial, il comprend les personnes défendant le rôle prépondérant des réseaux familiaux dans le développement local et la fermeture de la localité face à la concurrence des marchés extérieurs et aux interventions politiques exogènes. Les représentants de ce modèle occupent une position économique locale dominante, mais se sentent de plus en plus dominés politiquement face aux interventions extérieures des représentants politiques régionaux et des professionnels ainsi qu'économiquement à l'échelle mondiale où ils occupent une position dominée. Les oppositions sous-jacentes à ces deux modèles s'inscrivent dans une histoire ancienne qui met en scène d'une part les élites traditionnelles liées à l'Église et les notables francophones scolarisées et d'autre part les élites industrielles et commerciales qui succèdent aux anglophones dès les années 1920. Le sens et le contenu des modèles varient légèrement avec les transformations récentes de la structure familiale et la régionalisation des pouvoirs politiques et religieux.
Resumo:
Les propriétés des matériaux moléculaires proviennent à la fois de la structure des composantes individuelles et de la façon dont elles s’associent. Ce dernier aspect reste difficile à contrôler, malgré de grandes avancées en science des matériaux. Pour mieux comprendre la relation structure-propriétés, nous avons entrepris une étude systématique de l'hexaphénylbenzène et de ses dérivés, qui offrent une charpente symétrique et rigide. En premier lieu, nous avons attaché six groupements diaminotriazinyles sur l’hexaphénylbenzène afin de produire des réseaux tridimensionnels hautement poreux maintenus par des ponts hydrogène. En modifiant systématiquement le coeur moléculaire, nous avons excisé près du tiers de la molécule-mère, générant des réseaux supramoléculaires dont la porosité s’est élevée graduellement jusqu’à 75%, équivalant ainsi le record pour ce type de matériaux. Ensuite, nous avons étudié le comportement de l’hexakis(4-nitrophényl)benzène. Dans les structures cristallines obtenues, des interactions non-covalentes entre groupements nitro démontrent leur potentiel en chimie supramoléculaire. Le coeur moléculaire ne joue qu’un rôle secondaire dans l’empilement des molécules : seules quelques interactions C-H•••π impliquant le cycle aromatique central de l’hexaphénylbenzène sont évidentes. Cette dernière observation nous a poussés à étudier le comportement à l’état cristallin de l’hexaphénylbenzène et ses dérivés. En scrutant attentivement neuf structures cristallines de ces composés, nous avons décerné la présence récurrente d’interactions C-H•••π impliquant le cycle aromatique central. Cette association caractéristique a été exploitée pour créer des réseaux supramoléculaires maintenus par des interactions C-H•••π sélectives entre un groupement éthynyle et le cycle aromatique central de l’hexaphénylbenzène. Finalement, nous avons joint le côté sombre de l’ingénierie cristalline en utilisant nos connaissances dans le but d’empêcher la formation d’interactions directionnelles. En protégeant le cycle aromatique central de l’hexaphénylbenzène à l’aide de groupements alkyles, les interactions C-H•••π ont été pratiquement éliminées. Ces résultats offrent la possibilité de créer de nouveaux matériaux amorphes. Dans ces études, focalisées sur le système hexaphénylbenzène, nous avons mis en relief des phénomènes qui sont obscurcis dans d'autres familles de molécules. De plus, ce système a grandement facilité l’utilisation d’une approche méthodique pour explorer la relation structure-propriétés. Nos travaux nous ont amenés à des conclusions de valeur universelle en science des matériaux moléculaires.
Resumo:
Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Les logiciels utilisés sont Splus et R.
Resumo:
Cette présente recherche vise à défendre le point de vue selon lequel le don de l’Esprit dans le récit de la Pentecôte (Ac 2, 1-13) s’interprète principalement comme l’investissement d’une puissance habilitant au témoignage. À cette fin, nous posons l’hypothèse que le contenu d’Ac 2, 17-21 est un axe fondamental de la théologie pneumatique de l’œuvre lucanienne, lequel interprète la manifestation pentecostale dans une perspective prophétique. La démonstration se fait par le biais d’une analyse rédactionnelle d’Ac 2, 17-21, une citation de Jl 3,1-5 insérée dans un discours explicatif de Pierre du phénomène pentecostal. Nous examinons d’abord le lieu d’inscription de ce passage dans l’œuvre lucanienne afin d’évaluer la valeur stratégique de son emplacement (chapitre 1). Nous étudions ensuite l’interprétation que fait Luc de cette prophétie pour en venir à la conclusion qu’il envisage l’intervention de l’Esprit essentiellement dans une perspective d’habilitation à la prophétie (chapitre 2). Nous vérifions cette première conclusion dans l’Évangile de Luc (chapitre 3); puis ensuite dans les Actes des Apôtres (chapitre 4). Nous en arrivons ainsi à établir un parallélisme entre les étapes initiatiques du ministère de Jésus dans le troisième évangile et celui des disciples dans les Actes, pour y découvrir que, dans les deux cas, l’effusion de l’Esprit habilite à l’activité prophétique. Le ministère des disciples s’inscrit de la sorte dans le prolongement de celui du Maître. Nous soutenons, en fait, que tout le discours pneumatique de l’Évangile de Luc converge vers l’effusion initiale de l’Esprit sur les disciples dans le récit pentecostal, d’une part, et que cette effusion jette un éclairage sur l’ensemble de l’œuvre missionnaire des Actes, d’autre part. Bref, le passage explicatif du phénomène pentecostal, en l’occurrence Ac 2, 17-21, met en lumière un axe central des perspectives de Luc sur l’Esprit : Il s’agit de l’Esprit de prophétie. Dans cette optique, l’effusion de l’Esprit à la Pentecôte s’interpréterait essentiellement comme l’investissement du croyant d’une puissance en vue du témoignage.
Resumo:
Introduction : Les statines ont prouvé leur efficacité dans le traitement des dyslipidémies. Cependant, ces molécules sont associées à des effets secondaires d’ordre musculaire. Puisque ces effets peuvent avoir des conséquences graves sur la vie des patients en plus d’être possiblement à l’origine de la non-observance d’une proportion importante des patients recevant une statine, un outil pharmacogénomique qui permettrait d’identifier a priori les patients susceptibles de développer des effets secondaires musculaires induits par une statine (ESMIS) serait très utile. L’objectif de la présente étude était donc de déterminer la valeur monétaire d’un tel type d’outil étant donné que cet aspect représenterait une composante importante pour sa commercialisation et son implantation dans la pratique médicale courante. Méthode : Une première simulation fut effectuée à l’aide de la méthode de Markov, mais celle-ci ne permettait pas de tenir compte de tous les éléments désirés. C’est pourquoi la méthode de simulation d'évènements discrets fut utilisée pour étudier une population de 100 000 patients hypothétiques nouvellement initiés sur une statine. Cette population virtuelle a été dupliquée pour obtenir deux cohortes de patients identiques. Une cohorte recevait le test et un traitement approprié alors que l'autre cohorte recevait le traitement standard actuel—i.e., une statine. Le modèle de simulation a permis de faire évoluer les deux cohortes sur une période de 15 ans en tenant compte du risque de maladies cardio-vasculaires (MCV) fatal ou non-fatal, d'ESMIS et de mortalité provenant d’une autre cause que d’une MCV. Les conséquences encourues (MCV, ESMIS, mortalité) par ces deux populations et les coûts associés furent ensuite comparés. Finalement, l’expérience fut répétée à 25 reprises pour évaluer la stabilité des résultats et diverses analyses de sensibilité ont été effectuées. Résultats : La différence moyenne des coûts en traitement des MCV et des ESMIS, en perte de capital humain et en médicament était de 28,89 $ entre les deux cohortes pour la durée totale de l’expérimentation (15 ans). Les coûts étant plus élevés chez celle qui n’était pas soumise au test. Toutefois, l’écart-type à la moyenne était considérable (416,22 $) remettant en question la validité de l’estimation monétaire du test pharmacogénomique. De plus, cette valeur était fortement influencée par la proportion de patients prédisposés aux ESMIS, par l’efficacité et le coût des agents hypolipidémiants alternatifs ainsi que par les coûts des traitements des ESMIS et de la valeur attribuée à un mois de vie supplémentaire. Conclusion : Ces résultats suggèrent qu’un test de prédisposition génétique aux ESMIS aurait une valeur d’environ 30 $ chez des patients s’apprêtant à commencer un traitement à base de statine. Toutefois, l’incertitude entourant la valeur obtenue est très importante et plusieurs variables dont les données réelles ne sont pas disponibles dans la littérature ont une influence importante sur la valeur. La valeur réelle de cet outil génétique ne pourra donc être déterminée seulement lorsque le modèle sera mis à jour avec des données plus précises sur la prévalence des ESMIS et leur impact sur l’observance au traitement puis analysé avec un plus grand nombre de patients.
Resumo:
L’objectif de la présente étude vise à déterminer les caractéristiques des entreprises et de leur main-d’œuvre qui adoptent un PAE. Cette pratique serait en effet distribuée inégalement entre les différentes entreprises du secteur privé au Canada. Les facteurs identifiés dans la littérature en lien avec la présence du PAE sont regroupés sous les caractéristiques de la main-d’œuvre, les caractéristiques organisationnelles ou les caractéristiques du marché du travail, de manière à faire ressortir leur valeur respective pour voir celle qui a le plus d’influence sur la présence du PAE. Pour chacun des facteurs, une hypothèse ou une proposition de recherche est formulée. Pour vérifier les hypothèses et les propositions de recherche, nous avons utilisé des données secondaires issues de l’Enquête sur le milieu de travail et les employés (EMTE), réalisée en 2005 par Statistique Canada. Nous avons principalement eu recours à la base de données des employeurs, mais à défaut d’y avoir toutes les variables importantes, celle des employés a aussi été utilisée en agrégeant les données à la moyenne échantillonnale par entreprise, et en les imputant à la composante des employeurs. Notre échantillon final se compose de 5630 établissements du secteur privé au Canada. Les résultats nous ont appris que les caractéristiques organisationnelles sont de meilleurs déterminants de la présence du PAE que les caractéristiques de la main-d’œuvre. Les PAE sont répartis de façon inégale entre les différentes entreprises au Canada. En effet, les entreprises qui adoptent un PAE ont souvent moins d’immigrants. Elles ont aussi plus de probabilité d’avoir une grande proportion d’employés ayant complété des études secondaires, et qui travaillent à temps plein. Les PAE sont de plus beaucoup plus présents dans les grandes entreprises qui sont syndiquées, et dont l’organisation du travail est plus flexible. Enfin, ce sont les entreprises du secteur primaire qui adoptent le plus de PAE. Les PAE ne couvrent alors qu’un secteur limité et privilégié de la main-d’œuvre puisque certains groupes, tels que les immigrants, y ont moins accès. Ainsi, les PAE bénéficient aux employés les plus avantagés financièrement, indiquant que ce sont surtout les plus « riches » qui accèdent aux meilleurs services de santé mentale et sociale. Mots clés : Programmes d’aide aux employés Caractéristiques de la main-d’œuvre Caractéristiques organisationnelles
Resumo:
Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.