989 resultados para Tyrian SPE
Resumo:
Le système ubiquitine-protéasome est le principal mécanisme par lequel les protéines intracellulaires sont dégradées. Le protéasome dit constitutif (PC) est donc essentiel à l’homéostasie mais aussi à la régulation de la majorité des processus cellulaires importants. La découverte d’un deuxième type de protéasome, appelé immunoprotéasome (IP), soulève toutefois de nouvelles questions. Pourquoi existe-t-il plus d’un type de protéasome ? L’IP a-t-il des rôles redondants ou complémentaires avec le PC ? L’IP étant présent principalement dans les cellules immunitaires ou stimulées par des cytokines, plusieurs groupes ont tenté de définir son rôle dans la réponse immunitaire. Or, l’implication de son homologue constitutif dans un éventail de processus non spécifiquement immunitaires nous laisse croire que l’IP pourrait lui aussi avoir un impact beaucoup plus large. L’objectif de cette thèse était donc de caractériser certains rôles cellulaires de l’IP dans les cellules dendritiques. Nous avons d’abord étudié l’impact global de l’IP sur la présentation antigénique de classe I. Ce faisant, nous avons pu déterminer ses deux contributions principales, soit l’augmentation drastique du nombre et de la diversité des peptides présentés sur les complexes majeurs d’histocompatibilité de classe I. Les différences de clivage entre le PC et l’IP pourraient expliquer en partie cette diversité du répertoire peptidique, notamment par l’affinité apparente de l’IP pour les régions protéiques non structurées. Dans un deuxième temps, nous avons dévoilé un nouveau rôle de l’IP sur un processus dépassant le cadre immunitaire : la transcription. Nous avons découvert que l’IP modifie l’abondance des ARNm en agissant principalement au niveau de leur synthèse. L’impact de l’IP sur le transcriptome est majeur et serait dû en partie à une dégradation différente de facteurs de transcription des familles IRF, STAT et NF-kB. Les cellules dendritiques IP-déficientes activent moins efficacement les lymphocytes T CD8+ et nous croyons que cette défaillance est causée (du moins en partie) par la perturbation transcriptomique provoquée par l’absence d’IP. Il importe donc de comprendre les différents rôles moléculaires de l’IP afin de mieux définir sa contribution globale au fonctionnement de la cellule et comprendre l’avantage évolutif, au niveau de l’organisme, procuré par une telle plasticité du système ubiquitine-protéasome.
Resumo:
Les nanotubes de carbone et le graphène sont des nanostructures de carbone hybridé en sp2 dont les propriétés électriques et optiques soulèvent un intérêt considérable pour la conception d’une nouvelle génération de dispositifs électroniques et de matériaux actifs optiquement. Or, de nombreux défis demeurent avant leur mise en œuvre dans des procédés industriels à grande échelle. La chimie des matériaux, et spécialement la fonctionnalisation covalente, est une avenue privilégiée afin de résoudre les difficultés reliées à la mise en œuvre de ces nanostructures. La fonctionnalisation covalente a néanmoins pour effet de perturber la structure cristalline des nanostructures de carbone sp2 et, par conséquent, d’affecter non seulement lesdites propriétés électriques, mais aussi les propriétés optiques en émanant. Il est donc primordial de caractériser les effets des défauts et du désordre dans le but d’en comprendre les conséquences, mais aussi potentiellement d’en exploiter les retombées. Cette thèse traite des propriétés optiques dans l’infrarouge des nanotubes de carbone et du graphène, avec pour but de comprendre et d’expliquer les mécanismes fondamentaux à l’origine de la réponse optique dans l’infrarouge des nanostructures de carbone sp2. Soumise à des règles de sélection strictes, la spectroscopie infrarouge permet de mesurer la conductivité en courant alternatif à haute fréquence des matériaux, dans une gamme d’énergie correspondant aux vibrations moléculaires, aux modes de phonons et aux excitations électroniques de faible énergie. Notre méthode expérimentale consiste donc à explorer un espace de paramètres défini par les trois axes que sont i. la dimensionnalité du matériau, ii. le potentiel chimique et iii. le niveau de désordre, ce qui nous permet de dégager les diverses contributions aux propriétés optiques dans l’infrarouge des nanostructures de carbone sp2. Dans un premier temps, nous nous intéressons à la spectroscopie infrarouge des nanotubes de carbone monoparois sous l’effet tout d’abord du dopage et ensuite du niveau de désordre. Premièrement, nous amendons l’origine couramment acceptée du spectre vibrationnel des nanotubes de carbone monoparois. Par des expériences de dopage chimique contrôlé, nous démontrons en effet que les anomalies dans lespectre apparaissent grâce à des interactions électron-phonon. Le modèle de la résonance de Fano procure une explication phénoménologique aux observations. Ensuite, nous établissons l’existence d’états localisés induits par la fonctionnalisation covalente, ce qui se traduit optiquement par l’apparition d’une bande de résonance de polaritons plasmons de surface (nanoantenne) participant au pic de conductivité dans le térahertz. Le dosage du désordre dans des films de nanotubes de carbone permet d’observer l’évolution de la résonance des nanoantennes. Nous concluons donc à une segmentation effective des nanotubes par les greffons. Enfin, nous montrons que le désordre active des modes de phonons normalement interdits par les règles de sélection de la spectroscopie infrarouge. Les collisions élastiques sur les défauts donnent ainsi accès à des modes ayant des vecteurs d’onde non nuls. Dans une deuxième partie, nous focalisons sur les propriétés du graphène. Tout d’abord, nous démontrons une méthode d’électrogreffage qui permet de fonctionnaliser rapidement et à haute densité le graphène sans égard au substrat. Par la suite, nous utilisons l’électrogreffage pour faire la preuve que le désordre active aussi des anomalies dépendantes du potentiel chimique dans le spectre vibrationnel du graphène monocouche, des attributs absents du spectre d’un échantillon non fonctionnalisé. Afin d’expliquer le phénomène, nous présentons une théorie basée sur l’interaction de transitions optiques intrabandes, de modes de phonons et de collisions élastiques. Nous terminons par l’étude du spectre infrarouge du graphène comportant des îlots de bicouches, pour lequel nous proposons de revoir la nature du mécanisme de couplage à l’œuvre à la lumière de nos découvertes concernant le graphène monocouche.
Resumo:
De nos jours, l'utilisation accrue de combustibles à base de fossiles et l'électricité met en péril l'environnement naturel à cause des niveaux élevés de pollution. Il est donc plausible de prévoir des économies d'énergie significatives grâce à la climatisation dite «naturelle»». En accord avec les objectifs acceptés à l'échelle internationale d'une architecture «verte» et durable, l'utilisation de cours intérieures associées aux capteurs de vent, aux murs-Trombe et à d'autres systèmes de climatisation naturelle (aussi bien traditionnels que nouveaux), paraît prometteuse. Ce mémoire propose une analyse de nouvelles approches à la climatisation naturelle et à la production d'air frais avec une consommation minimale d'énergie, eu égard aux traditions et aux tendances, en particulier dans les zones climatiques chaudes et sèches comme l'Iran. Dans ce contexte, regarder l'architecture de l'Islam et la discipline du Qur'an paraissent offrir un guide pour comprendre l'approche musulmane aux processus de décision en design. Nous regardons donc les traditions et les tendances en ce qui concerne la climatisation naturelle à travers l'élément le plus important du contexte islamique, à savoir le Qur'an. C'est pourquoi, à l'intérieur du thème de la tradition, nous avons pris en compte quelques considérations concernant l'influence de l'Islam, et en particulier le respect de la nature associé à un équilibre entre l'harmonie et l'individualité. Ce sont autant de facteurs qui influencent la prise de décisions visant à résoudre des problèmes scientifiques majeurs selon la philosophie et les méthodes islamiques ; ils nous permettent de faire quelques recommandations. La description des principes sous-jacents aux capteurs à vent et des antécédents trouvés dans la nature tels que les colonies de termites, est présentée également. Sous la rubrique tendances, nous avons introduit l'utilisation de matériaux et de principes de design nouveaux. Regarder simultanément ces matériaux nouveaux et l'analogie des colonies de termites suggère de bonnes approches à la conception d'abris pour les victimes de tremblements de terre dans les régions sisimques. Bam, une ville iranienne, peut être considérée comme un exemple spécifique illustrant où les principes exposés dans ce mémoire peuvent s'appliquer le plus adéquatement.
Resumo:
Thèse réalisée en cotutelle avec Michèle Prévost (Ph.D), Professeure titulaire au département des génies civil, géologique et des mines de l'École Polytechnique de Montréal.
Resumo:
Full Text / Article complet
Resumo:
Article
Resumo:
Dans les dernières années, une explosion de la recherche sur les ARN a eu lieue à cause de nombreuses découvertes démontrant l’importance de l’ARN dans plusieurs processus biologiques. Ainsi, de grandes quantités d’ARN sont devenues indispensables au bon déroulement de plusieurs études, notamment pour la biologie structurale et la caractérisation fonctionnelle. Cependant, il existe encore peu de méthodes de purification simples, efficaces, fiables et produisant un ARN sous forme native. Dans les dernières années, le laboratoire Legault a mis au point une méthode de purification par affinité utilisant une étiquette ARiBo pour la purification d’ARN transcrits in vitro par la polymérase à ARN du phage T7. Cette méthode de purification d’ARN a été spécifiquement développée pour maximiser la pureté et le rendement. De plus, elle est très rapide et fonctionne avec plusieurs types d’ARN. Cependant, comme plusieurs autres méthodes de purification, cette méthode produit des ARN avec des extrémités 5′ hétérogènes. Dans ce mémoire, des solutions sont proposées pour remédier au problème d’hétérogénéité en 5ʹ′ des ARN transcrits avec la polymérase à ARN du phage T7 et purifiés par la méthode ARiBo. La première solution consiste à choisir la séquence en 5′ parmi celles des 32 séquences testées qui ne présentent pas d’hétérogénéité en 5ʹ′. La seconde solution est d’utiliser une étiquette clivable en 5ʹ′ de l’ARN d’intérêt, tel que le ribozyme hammerhead, déjà utilisée pour ce genre d’application, ou le système CRISPR/Cse3 que nous proposons dans l’article présenté dans ce mémoire. De plus, nous avons adapté la méthode ARiBo pour rendre possible la purification d’un long ARN de 614 nt, le polycistron miR-106b-25. Nous avons également démontré la possibilité d’utiliser la méthode ARiBo pour l’isolation de protéines qui se lient à un ARN donné, le précurseur de miRNA pre-miR-153-2. En conclusion, ce mémoire démontre la possibilité d’adapter la méthode ARiBo à plusieurs applications.
Resumo:
Cette thèse prend pour objet le nouage entre l’autoréflexivité et la mise en forme esthétique dans la poésie de Christophe Tarkos, produite dans les années 1990. Elle met en lumière les rapports entre l’élaboration d’une théorie du langage au sein de cette œuvre poétique et ses visées esthétiques totalisantes. Il s’agit d’identifier les principes générateurs de la théorie et de fournir une analyse de ses fondements qui s’ancrent dans la crise de la représentation moderne commençant dans la deuxième moitié du dix-neuvième siècle. Les motifs de la crise revisités par Tarkos inscrivent sa poésie dans une historicité, et notre thèse tente d’interpréter cette actualisation dans une œuvre qui donne forme au monde et à la mémoire individuelle. L’hypothèse qui chapeaute notre étude est que la théorie du langage favorise l’intelligibilité de l’œuvre totalisante en lui offrant un support réflexif. Notre thèse, qui privilégie une méthode fondée sur l’analyse des textes, se divise en trois parties. La première propose une recension de la réception critique de l’œuvre, dont nous retraçons les grandes lignes d’interprétation, de Christian Prigent à Jean-Michel Espitallier. Tout en plaçant Tarkos dans le champ poétique français, cette étape nous permet de positionner notre recherche par rapport à certains lieux communs de la critique. La deuxième partie vise à étudier la théorie du langage de Tarkos à partir de ses manifestes principaux (Le Signe =, Manifeste chou, Ma langue est poétique et La poésie est une intelligence) qui révèlent plusieurs principes, pouvoirs et limites de la langue et de la poésie. Afin de montrer la spécificité du concept de la « pâte-mot » de Tarkos, nous l’étudions dans un dialogue avec la figure de la « pâte » langagière chez la poète française Danielle Collobert. La troisième partie propose une étude de la volonté et de l’esthétique totalisantes dans l’œuvre de Tarkos, qui cherche à donner forme au réel. En effet, la poésie répond à l’excès du réel par diverses stratégies. Tout en voulant représenter son caractère débordant par une énonciation logorrhéique ou en usant de procédés comme celui de la répétition, elle cherche à le maîtriser dans des formes textuelles stables comme des fragments de prose « carrés » (Carrés, Caisses), dans des listes énumératives (Anachronisme) ou dans des réseaux d’images. La volonté totalisante chez Tarkos semble également prendre origine dans un sentiment d’urgence qui concerne, en dernière instance, une bataille contre la finitude.
Resumo:
L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.
Resumo:
En Chine la croissance économique observée durant ces trois dernières décennies, s’est accompagnée d’importants changements sociaux. Jusqu’en 2008, le droit du travail hérité de l’ère socialiste et inadapté à l’économie de marché, servait les intérêts de la croissance au détriment de ceux des travailleurs. La nouvelle loi sur le contrat de travail de 2008 a pour ambition de corriger cette situation en rééquilibrant les relations du travail dans un contexte de redistribution plus juste des nouvelles richesses. L’objectif de ce mémoire est de comprendre comment les entreprises étrangères présentes en Chine appréhendent ce changement institutionnel. Cela impacte-t-il leur gestion et leur stratégie de localisation ? Cette question est traitée, à travers l’étude du cas d’une entreprise étrangère implantée à Shanghai depuis 10 ans. Le premier effet observé est une professionnalisation du secteur des ressources humaines. L’augmentation des coûts de fonctionnement à laquelle la nouvelle loi participe a également pour effet une relocalisation des activités de production dans des régions à moindres coûts dans le centre de la Chine. L’expertise spécifiquement acquise localement est une des raisons majeures interdisant une délocalisation dans un pays tierce.
Resumo:
Les tableaux vivants sont une pratique historique faisant fréquemment l’objet de réappropriations dans les arts visuels contemporains. Situé à mi-chemin entre le divertissement mondain, le théâtre et la peinture, le tableau vivant est porteur d’une certaine ambigüité quant à son statut artistique, attribuable à ses origines, qui l’assimilent davantage à un jeu de bonne société et à une pratique amateur, qu’à une pratique artistique à part entière. La remédiation (Bolter et Grusin) et l’interartialité (Moser) servent d’opérateurs pour questionner les rapports médiatiques et esthétiques en jeu dans le tableau vivant, de manière à éclaircir sa nature médiale spécifique et à préciser les fonctions et effets esthétiques de sa réappropriation. En gardant notre attention sur le dispositif esthétique du tableau, il s’agit d’abord d’explorer le tableau vivant en tant que médium par le biais de l’histoire ses relations interartiales – avec le théâtre du milieu du 18e siècle, la littérature du tournant du 20e siècle et la photographie à partir de 1980. Ensuite, sera pris pour base l’étude d’une œuvre de l’artiste québécoise Claudie Gagnon ayant été présentée au Musée d’art contemporain de Montréal en 2011 dans le cadre de la 2ième Triennale québécoise. L’œuvre Tableaux (2011, vidéogramme, 20 min.) emprunte sa forme au tableau vivant et réactualise cette pratique citationnelle notamment par l’usage de la vidéo. Par l’analyse de trois tableaux vidéographiques extraits de Tableaux, il s’agit d’aborder en trois opérations de traduction-transformation (remédiation, artialisation et théâtralisation) la reprise du tableau vivant en tant que stratégie d’opacification de la représentation.
Resumo:
La violence chronique qui caractérise la Somalie depuis plus de deux décennies a forcé près de deux millions de personnes à fuir. Cette ethnographie étudie l’expérience de l’asile prolongé de jeunes Somaliens qui ont grandi au camp de Kakuma, au Kenya. Leur expérience est hors du commun, bien qu’un nombre croissant de réfugiés passent de longues années dans des camps pourtant conçus comme temporaires, en vertu de la durée des conflits et de la normalisation de pratiques de mise à l’écart de populations « indésirables ». Nous explorons la perception qu’ont ces jeunes de leur environnement et de quelle façon leur exil structure leur perception du passé et de leur pays d’origine, et de leur futur. Ce faisant, nous considérons à la fois les spécificités du contexte et l’environnement global, afin de comprendre comment l’expérience des gens est façonnée par (et façonne) les dynamiques sociales, politiques, économiques et historiques. Nous observons que le camp est, et demeure, un espace de confinement, indépendamment de sa durée d’existence ; bien que conçu comme un lieu de gestion rationnelle des populations, le camp devient un monde social où se développent de nouvelles pratiques ; les jeunes Somaliens font preuve d’agentivité et interprètent leur expérience de manière à rendre leur quotidien acceptable ; ces derniers expriment une frustration croissante lorsque leurs études sont terminées et qu’ils peinent à s’établir en tant qu’adultes, ce qui exacerbe leur désir de quitter le camp. En effet, même s’il existe depuis plus de 20 ans, le camp demeure un lieu de transition. L’expérience de jeunes Somaliens qui ont grandi dans un camp de réfugiés n’a pas été étudiée auparavant. Nous soutenons que cette expérience est caractérisée par des tensions entre contraintes et opportunités, mobilité et immobilité, isolation et connexion ou victimisation et affirmation du sujet – et des temporalités contradictoires. Cette étude souligne que des notions comme la convivialité ou la pluralité des appartenances développées dans la littérature sur la cohabitation interethnique dans les villes ou sur l’identité des migrants aident à appréhender le réalité du camp. Cette ethnographie montre également que, loin d’être des victimes passives, les réfugiés contribuent à trouver des solutions à leur exil.
Resumo:
The history of Alberta's meatpacking workers is closely connected with the broader historical struggles of the working class in North America. Like their counterparts from the packinghouses in Toronto and Montreal, the workers of Calgary and Edmonton organized and fought for union recognition between 1911 and 1920, thus joining a labour revolt that was spreading throughout Europe and North America in the wake of World War I and the October Revolution. They faced stiff resistance.
Resumo:
Faisant confiance à leur intuition les urbanistes s’inscrivent souvent dans un flou théorique qui les rend susceptibles de succomber à l’idéologie dominante et aux modes du moment. La première partie de ce mémoire vise à démontrer que cette posture par rapport à la théorie entraine un manque de réflexivité qui constitue un obstacle majeur à l’exercice d’une pratique urbanistique véritablement professionnelle, éthique et respectueuse du territoire. En effet, selon Bourdieu, un corpus théorique autonome permettrait d’offrir à l’urbaniste un cadre de réflexivité lui permettant de prendre du recul sur le quotidien et d’échapper à l’influence indue de l’idéologie sur sa pratique. Ce mémoire vise à comprendre la configuration actuelle du champ des théories de l’urbanisme en Occident (compris selon la théorie des champs de Bourdieu) et à proposer un modèle synthèse spécifiquement destiné à servir d’outil de réflexivité à l’urbaniste. Pour y parvenir, il a été privilégié de faire une relecture herméneutique de modèles théoriques existants, mais considérés comme incomplets, des théories de l’urbanisme. Dans ce domaine, deux Écoles de pensée ont été définies (École française et École anglo-saxonne). Ensuite, une typologie emblématique de chaque École a été choisie pour être revue à la lumière de l’objectif fixé. Ainsi, les typologies de Françoise Choay (École française) et de Philip Allmendinger (École anglo-saxonne) ont été analysées et mises en commun au moyen de la construction d’une historiographie commune des théories de l’urbanisme. Finalement, un modèle théorique original (la typologie intégrée) a été formulé. Celui-ci définit quatre grands courants théoriques : le rationalisme instrumental, le rationalisme intersubjectif, le mouvement pragmatico-postmoderne et le mouvement patrimonial. Il apparaît alors que le rationalisme occupe une position hégémonique dans le champ des théories de l’urbanisme depuis sa fondation et qu’elle est assumée par le rationalisme intersubjectif depuis le milieu des années 1990.
Resumo:
Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.