12 resultados para Dust Mite Allergen

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin de mieux comprendre l'évolution des étoiles jeunes, nous avons utilisé un code Monte Carlo simulant leur environnement afin d'étudier une nouvelle distribution chez les étoiles Herbig Ae/Be et pour reproduire des cartes d'intensité et de polarisation linéaire obtenues au télescope Canada-France-Hawaii (TCFH) en novembre 2003. Le code datant de la fin des années 80, nous avons dû non seulement le corriger, mais aussi ajouter quelques éléments afin de tenir compte des dernières avancées dans le domaine de la polarisation provenant du milieu circumstellaire. Les étoiles à l'étude étant jeunes (moins de quelques millions d'années), leur voisinage est toujours constitué de grains de poussière mélangés avec du gaz. Selon leur âge, nous retrouvons cette poussière sous différentes structures soit, par exemple, par un disque entouré d'une enveloppe (objets jeunes de classe I) ou par un simple disque (objets de classe II et III). Selon la structure que prend la poussière, les cartes de polarisation et d'intensité qui en résultent vont changer. Nous allons discuter de cette variation des cartes de polarisation selon la distribution de poussière. Suite aux modifications apportées au code, il a fallu s'assurer que celui-ci fonctionne bien. Pour ce faire, nous avons mis au point quelques critères qui nous assurent, s'ils sont satisfaits, que le code Monte Carlo produit de bons résultats. Après avoir validé le code, il est maintenant possible de l'utiliser aux fins d'avancer le domaine de la polarisation. En effet, Dullemond et al.(2001) proposent une nouvelle distribution de grain autour des étoiles Herbig Ae/Be afin de mieux expliquer leur distribution d'énergie spectrale. Par contre, qu'en est-il des cartes de polarisation résultantes? C'est sur cette question que nous nous sommes arrêtés. Par la suite, nous avons essayé de reproduire du mieux possible, tenant compte des limitations du code, les cartes de polarisation obtenues au TCFH. Nous avons étudié en détail les données de R Mon (résultats qui seront présentés sous forme d'article pour fin de publication) et de V376 Cas. De plus, notre étude de V376 Cas nous a permis d'amener des conclusions sur les processus causant les vecteurs parallèles aux disques des étoiles jeunes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This article represents a prime example of applied ethics in public health policy development. The article provides guidance on the development of food allergy policies for child care settings based on core ethical principles in bioethics and public health ethics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le relevé DEBRIS est effectué par le télescope spatial Herschel. Il permet d’échantillonner les disques de débris autour d’étoiles de l’environnement solaire. Dans la première partie de ce mémoire, un relevé polarimétrique de 108 étoiles des candidates de DEBRIS est présenté. Utilisant le polarimètre de l’Observatoire du Mont-Mégantic, des observations ont été effectuées afin de détecter la polarisation due à la présence de disques de débris. En raison d’un faible taux de détection d’étoiles polarisées, une analyse statistique a été réalisée dans le but de comparer la polarisation d’étoiles possédant un excès dans l’infrarouge et la polarisation de celles n’en possédant pas. Utilisant la théorie de diffusion de Mie, un modèle a été construit afin de prédire la polarisation due à un disque de débris. Les résultats du modèle sont cohérents avec les observations. La deuxième partie de ce mémoire présente des tests optiques du polarimètre POL-2, construit à l’Université de Montréal. L’imageur du télescope James-Clerk-Maxwell passe de l’instrument SCUBA à l’instrument SCUBA-2, qui sera au moins cent fois plus rapide que son prédécesseur. De même, le polarimètre suit l’amélioration et un nouveau polarimètre, POL-2, a été installé sur SCUBA-2 en juillet 2010. Afin de vérifier les performances optiques de POL-2, des tests ont été exécutés dans les laboratoires sub-millimétriques de l’Université de Western Ontario en juin 2009 et de l’Université de Lethbridge en septembre 2009. Ces tests et leurs implications pour les observations futures sont discutés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les naines brunes sont des objets astronomiques de faible masse ( 0.012 - 0.075 M_Sun ) et de basse température ( T < 3,500 K ). Bien qu’elles se forment comme des étoiles, c’est-à-dire par l’effondrement d’un nuage de gaz moléculaire, les naines brunes n’ont pas une masse suffisante pour entretenir des réactions de fusion nucléaire en leur coeur. Les naines brunes relativement chaudes (type L) sont recouvertes de nuages de poussière mais ces derniers disparaissent progressivement de l’atmosphère lorsque la température chute sous les 1,500 K (type T). Les naines brunes près de la transition L/T devraient donc être partiellement recouvertes de nuages. De par leur rotation relativement rapide (2 h - 12 h), le couvert nuageux inhomogène des naines brunes devrait produire une variabilité photométrique observable en bande J (1.2 um), la longueur d’onde à laquelle les nuages ont la plus forte opacité. Ce mémoire présente les résultats d’une recherche de variabilité photométrique infrarouge pour une dizaine de naines brunes de type spectral près de la transition L/T. Les observations, obtenues à l’Observatoire du Mont-Mégantic, ont permis le suivi photométrique en bande J de neuf cibles. Une seule d’entre elles, SDSS J105213.51+442255.7 (T0.5), montre des variations périodiques sur une période d’environ 3 heures avec une amplitude pic-à-pic variant entre 40 et 80 mmag. Pour les huit autres cibles, on peut imposer des limites (3 sigma) de variabilité périodique à moins de 15 mmag pour des périodes entre 1 et 6 heures. Ces résultats supportent l’hypothèse qu’un couvert nuageux partiel existe pour des naines brunes près de la transition L/T mais ce phénomène demeure relativement peu fréquent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec le Dr James G Martin de l'Université McGill (Meakins-Christie laboratories)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons les résultats de trois campagnes d'observation d'un mois chacune dans le cadre de l'étude de la collision des vents dans les systèmes binaires Wolf-Rayet + OB. Ce travail se concentre sur l'étude des objets de l'hémisphère sud n'ayant jamais encore fait l'objet d'études poussées dans ce contexte. À cela, nous avons ajouté l'objet archétype pour ce type de systèmes : WR 140 (WC7pd + O5.5fc) qui a effectué son dernier passage périastre en janvier 2009. Les deux premières campagnes (spectroscopiques), ont permis une mise à jour des éléments orbitaux ainsi qu'une estimation de la géométrie de la zone de collision des vents et d'autres paramètres fondamentaux des étoiles pour 6 systèmes binaires : WR 12 (WN8h), 21 (WN5o+O7V), 30 (WC6+O7.5V), 31 (WN4o+O8), 47 (WN6o+O5) et 140. Une période non-orbitale courte (probablement reliée à la rotation) a également été mesurée pour un des objets : WR 69 (WC9d+OB), avec une période orbitale bien plus grande. La troisième campagne (photométrique) a révélé une variabilité étonnamment faible dans un échantillon de 20 étoiles WC8/9. Cela supporte l'idée que les pulsations ne sont pas courantes dans ce type d'étoiles et qu'il est peu probable que celles-ci soient le mécanisme dominant de formation de poussière, suggérant, par défaut, le rôle prédominant de la collision des vents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le parasite Varroa destructor provoque depuis plus de 30 ans la perte de nombreuses colonies à travers le monde. L’utilisation d’acaricides de synthèse s’est avérée inefficace au Canada et ailleurs dans le monde à la suite de la sélection de varroas résistants. Dans ce contexte, il est devenu impératif de trouver de nouveaux moyens pour contrôler cette peste apicole. Ce travail original de recherche a pour but de déterminer les paramètres fondamentaux d’une lutte intégrée contre la varroase fondée sur l’utilisation périodique de différents pesticides organiques (l’acide oxalique, l’acide formique et le thymol) associée à des seuils d’interventions. Les seuils d’intervention ont été déterminés à l’aide de régressions linéaires entre les taux de parasitisme par V. destructor et la formance zootechnique des colonies d’abeilles mellifères (production de miel et force des colonies). Un total de 154 colonies d’abeilles du Centre de recherche en sciences animales de Deschambault (CRSAD) ont été suivies de septembre 2005 à septembre 2006. Les seuils calculés et proposés à la suite de cette recherche sont de 2 varroas par jour (chute naturelle) au début mai, 10 varroas par jour à la fin juillet et de 9 varroas par jour au début septembre. L’efficacité des traitements organiques avec l’acide oxalique (AO), l’acide formique (AF) et le thymol a été vérifiée en mai (avant la première miellée) en juillet (entre deux miellées), en septembre (après la miellée et pendant le nourrissage des colonies) et en novembre (avant l’hivernage). L’acide oxalique a été appliqué en utilisant la méthode d’égouttement (4% d’AO p/v dans un sirop de sucrose 1 :1 p/v). L’acide formique a été appliquée sous forme de MiteAwayII™ (tampon commercial imbibé d’AF 65% v/v placé sur le dessus des cadres à couvain), Mitewipe (tampons Dri-Loc™ 10/15cm imbibés de 35 mL d’AF 65% v/v placés sur le dessus des cadres à couvain) ou Flash (AF 65% coulé directement sur le plateau inférieur d’une colonie, 2 mL par cadre avec abeilles). Le thymol a été appliqué sous forme d’Apiguard™ (gélose contenant 25% de thymol p/v placée sur le dessus des cadres à couvain). Les essais d’efficacité ont été réalisés de 2006 à 2008 sur un total de 170 colonies (98 appartenant au CRSAD et 72 appartenant au privé). Les résultats montrent que les traitements de printemps testés ont une faible efficacité pour le contrôle des varroas qui sont en pleine croissance durant cette période. Un traitement avec l’AF à la mi-été permet de réduire les taux de parasites sous le seuil en septembre mais il y a risque de contaminer la récolte de miel avec des résidus d’AF. Les traitements en septembre avec le MiteAwayII™ suivis par un traitement à l’acide oxalique en novembre (5 mL par égouttement entre chaque cadre avec abeilles, 4% d’AO p/v dans un sirop de sucrose 1 :1 p/v) sont les plus efficaces : ils réduisent les niveaux de varroase sous le seuil de 2 varroas par jour au printemps. Nos résultats montrent également que les traitements réalisés tôt en septembre sont plus efficaces et produisent des colonies plus fortes au printemps comparativement à un traitement réalisé un mois plus tard en octobre. En conclusion, ce travail de recherche démontre qu’il est possible de contenir le développement de la varroase dans les ruchers au Québec en utilisant une méthode de lutte intégrée basée sur une combinaison d’applications d’acaricides organiques associée à des seuils d’intervention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous savons que la grande majorité des étoiles WC9 produit de la poussière à base de carbone. Cette dernière doit se former dans des zones de très haute densité afin de survivre à l’environnement hostile qu’est celui du vent d’une étoile WR. Les étoiles WC appartenant à un système binaire WR + O produisent de la poussière quand les vents des deux étoiles entrent en collision et forment une zone de choc pouvant augmenter la densité du gaz d’un facteur 1000. Par contre, plusieurs étoiles WC9 n’ont, à ce jour, montré aucun signe de la présence d’un compagnon. Le but du projet est de tenter d’identifier un mécanisme alternatif responsable de la formation de poussière dans les étoiles WC9 n’appartenant pas à un système binaire. Nous présentons les résultats d’une campagne d’observation visant à caractériser la variabilité spectroscopique d’un échantillon de huit étoiles WC9 et une étoile WC8d. Nos résultats indiquent que la majorité des étoiles montrent des variations à grande échelle dans la raie d’émission C III 5696, soit à un niveau d’au moins 5% du flux de la raie et que les structures dans le vent ont une dispersion de vitesses de l’ordre de 150-300 km/s. De manière générale, les variations de vitesse radiales sont anti-corrélées avec le coefficient d’asymétrie de la raie, ce qui semble infirmer la présence d’un compagnon. Des observations en photométrie de l’étoile WR103 montrent une période de 9.1 ± 0.6 jours qui s’accorde avec les variations spectroscopiques et qui ne semble pas, de manière évidente, d’origine binaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les dernières années, une explosion de la recherche sur les ARN a eu lieue à cause de nombreuses découvertes démontrant l’importance de l’ARN dans plusieurs processus biologiques. Ainsi, de grandes quantités d’ARN sont devenues indispensables au bon déroulement de plusieurs études, notamment pour la biologie structurale et la caractérisation fonctionnelle. Cependant, il existe encore peu de méthodes de purification simples, efficaces, fiables et produisant un ARN sous forme native. Dans les dernières années, le laboratoire Legault a mis au point une méthode de purification par affinité utilisant une étiquette ARiBo pour la purification d’ARN transcrits in vitro par la polymérase à ARN du phage T7. Cette méthode de purification d’ARN a été spécifiquement développée pour maximiser la pureté et le rendement. De plus, elle est très rapide et fonctionne avec plusieurs types d’ARN. Cependant, comme plusieurs autres méthodes de purification, cette méthode produit des ARN avec des extrémités 5′ hétérogènes. Dans ce mémoire, des solutions sont proposées pour remédier au problème d’hétérogénéité en 5ʹ′ des ARN transcrits avec la polymérase à ARN du phage T7 et purifiés par la méthode ARiBo. La première solution consiste à choisir la séquence en 5′ parmi celles des 32 séquences testées qui ne présentent pas d’hétérogénéité en 5ʹ′. La seconde solution est d’utiliser une étiquette clivable en 5ʹ′ de l’ARN d’intérêt, tel que le ribozyme hammerhead, déjà utilisée pour ce genre d’application, ou le système CRISPR/Cse3 que nous proposons dans l’article présenté dans ce mémoire. De plus, nous avons adapté la méthode ARiBo pour rendre possible la purification d’un long ARN de 614 nt, le polycistron miR-106b-25. Nous avons également démontré la possibilité d’utiliser la méthode ARiBo pour l’isolation de protéines qui se lient à un ARN donné, le précurseur de miRNA pre-miR-153-2. En conclusion, ce mémoire démontre la possibilité d’adapter la méthode ARiBo à plusieurs applications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prévalence des allergies alimentaires IgE-médiées aurait triplé au cours de la dernière décennie avec des études Nord-Américaines atteignant les 8% chez les enfants. Quoiqu’il n’y ait à ce jour aucun traitement curatif pour les allergies alimentaires, l’immunothérapie oral (OIT) constitue une nouvelle approche expérimentale prometteuse. Cette dernière consiste en l’administration de doses progressive d’allergènes par voie orale sur une période prolongée dans le but d’instaurer un état de désensibilisation et possiblement une tolérance orale soutenue. Cette approche a été démontrée sécuritaire et permettrait la désensibilisation à haute dose de plus de 80% des participants allergiques aux arachides, lait ou œufs. Dans cette thèse, nous présentons 2 études de phase 1 portant sur des protocoles d’OIT, destinés à optimiser l’efficience du traitement chez les sujets avec allergies alimentaires multiples. Près de 30% des enfants avec allergie alimentaire sont allergiques à plus d’un aliment, une proportion qui augmente à 70% lorsqu’on considère les cas les plus sévères. Ces enfants sont à risque augmenté de réactions accidentelles et souffrent d’un impact plus grand sur leur qualité de vie. Dans la première étude, en créant un mélange individualisé avec un ratio stochiométrique 1:1 entre les protéines des aliments allergiques de l’enfant, nous démontrons qu’il est possible de désensibiliser jusqu’à 5 aliments simultanément avec un profil d’innocuité similaire à une monothérapie. Dans la seconde étude, nous utilisons un traitement à l’omalizumab, un anticorps monoclonal anti-IgE, pour permettre une désensibilisation orale multi-allergénique fortement accélérée. Lorsque comparé à l’approche sans omalizumab, ce protocole s’associe à une nette diminution du temps requis pour atteindre les doses d’entretien, passant d’une médiane de 21 à 4 mois, sans affecter le profil d’innocuité. Alors que ces études fournissent des approches cliniques raisonnables pour désensibiliser la population multi-allergique, plusieurs questions persistent, notamment en ce qui a trait à l’induction de tolérance permanente. Une barrière majeure à cet égard réside dans notre piètre compréhension des mécanismes sous-jacents à l’immunothérapie. Prenant avantage d’échantillons cliniques bien caractérisés provenant des essais cliniques ci-haut mentionnés, nous utilisons les nouvelles technologies de séquençage TCR pour suivre la distribution clonale des lymphocytes T spécifiques aux arachides durant une immunothérapie orale. Nous démontrons que l’OIT s’associe à des changements significatifs dans les fréquences des clones spécifiques, suggérant un processus d’épuisement clonal et de remplacement. Nous démontrons par ailleurs que le test de prolifération lymphocytaire, traditionnellement utilisé pour évaluer la réponse cellulaire allergique, est dominé par une distribution polyclonale hautement non-spécifique. Cette observation a des implications majeures considérant que la plupart de la littérature actuelle sur la réponse T se base sur cette technique. En somme, cette thèse jette les bases pour des programmes de recherche translationnelle pour optimiser et personnaliser les protocoles cliniques actuels et développer de nouvelles avenues d’investigation et de traitement pour améliorer la prise en charge des sujets avec allergies alimentaires.