8 resultados para Chemical processes Data processing
em Université de Montréal, Canada
Resumo:
La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.
Resumo:
L’épilepsie bénigne à pointes centrotemporales (EPCT) est la forme la plus fréquente des épilepsies idiopathiques chez l’enfant (Fastenau et al., 2009). Le pronostic de ces patients est bon, notamment en raison de la rémission spontanée de cette épilepsie à l’adolescence; toutefois plusieurs études suggèrent la présence de troubles cognitifs et de spécificités neuroanatomiques. Il n’existe pas actuellement de consensus sur les liens entre leurs troubles cognitifs et leurs particularités neuroanatomiques et neurofonctionnelles. Dans cette thèse, notre but est de préciser le profil des enfants ayant une épilepsie bénigne à pointes centro-temporales, en investiguant les caractéristiques des patients à plusieurs niveaux: cognitif, fonctionnel, structurel. La thèse est composée de quatre articles, dont deux articles empiriques. Notre premier article a pour objectif de recenser les difficultés cognitives et affectives rapportées par les études s’intéressant aux caractéristiques des enfants ayant une épilepsie bénigne. Bien qu’une certaine variabilité soit retrouvée dans la littérature, cette revue démontre qu’une histoire d’épilepsie, même bénigne, peut être un facteur de risque pour le développement cognitif et socio-affectif des enfants. Notre revue de littérature a indiqué des troubles particuliers du langage chez ces enfants, mais aucune étude n’avait auparavant investigué spécifiquement la compréhension de lecture chez les enfants ayant une EPCT, une compétence essentielle dans le cheminement scolaire des enfants. Ainsi, nous avons développé une tâche novatrice de compréhension de lecture de phrases en imagerie par résonnance magnétique fonctionnelle (IRMf), adaptée à la population pédiatrique. Dans notre second article, nous avons validé cette tâche auprès d’enfants sains et nous avons mis en évidence une mobilisation des régions cérébrales généralement engagées dans des tâches langagières chez l’enfant sain, y compris les régions impliquées dans le traitement sémantique (Berl et al., 2010; Blumenfeld, Booth et Burman, 2006). Le troisième article de cette thèse rapporte notre investigation du réseau cérébral activé durant cette nouvelle tâche de compréhension de lecture de phrases en IRMf chez les enfants ayant une EPCT. Nos résultats suggèrent que ces derniers ont recours à l’activation d’un réseau cérébral plus large, présentant des similarités avec celui retrouvé chez les enfants dyslexiques. Par ailleurs, l’activation du striatum gauche, structure généralement associée à la réalisation de processus cognitifs complexes est uniquement retrouvée chez les enfants épileptiques. Étant donné que les enfants ayant une EPCT obtiennent des performances à la tâche d’IRMf équivalentes à celles des enfants sains, il est possible d’émettre l’hypothèse que ces différences d’activations cérébrales soient adaptatives. L’étude des relations entre les résultats neuropsychologiques, la performance à la tâche et les activations cérébrales a mis en évidence des prédicteurs différents entre les deux groupes d’enfants, suggérant qu’ils ne s’appuient pas exactement sur les mêmes processus cognitifs pour réussir la tâche. De plus, nous avons réalisé un travail d’intégration des diverses méthodologies utilisées dans les études en imagerie pondérée en diffusion chez l’enfant épileptique, ce qui constitue le quatrième article de cette thèse. Nous rapportons les diverses applications de cette méthode dans la caractérisation des anomalies structurelles subtiles de la matière blanche chez les enfants épileptiques en général. Les différentes méthodologies employées, les enjeux, et les biais potentiels relatifs aux traitements des données de diffusion y sont discutés. Enfin, pour mieux comprendre l’origine et les marqueurs de cette épilepsie, nous avons étudié les spécificités structurelles des cerveaux des enfants ayant une EPCT à l’aide d’analyses sur les données d’imagerie par résonnance magnétique. Aucune différence n’a été mise en évidence au niveau de la matière grise entre les cerveaux d’enfants sains et ceux ayant une EPCT. À l’inverse, nous rapportons des différences subtiles au niveau de la matière blanche dans notre population d’enfants épileptiques, avec une diminution de l’anisotropie fractionnelle (FA) au niveau temporal inférieur/moyen de l’hémisphère gauche, ainsi que dans l’hémisphère droit dans les régions frontales moyennes et occipitales inférieures. Ces résultats suggèrent la présence d’altérations de la matière blanche subtiles et diffuses dans le cerveau des enfants ayant une EPCT et concordent avec ceux d’autres études récentes (Ciumas et al., 2014).
Resumo:
L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.
Resumo:
La violence contre les policiers a des répercussions importantes à la fois chez les policiers et pour les administrateurs de la police. En 2005, le taux canadien de voies de fait contre la police a atteint son plus haut sommet en plusieurs décennies, faisant état d’une situation préoccupante. Plusieurs provinces canadiennes connaissent d’ailleurs une hausse marquée de la violence contre leurs policiers depuis plusieurs années. Cette étude vise donc à examiner et à comprendre l’évolution du phénomène de violence contre les policiers au Canada par l’identification de facteurs qui pourraient expliquer les variations du taux de voies de fait contre les policiers. La méthode d’analyse privilégiée dans le cadre de cette étude est une analyse transversale de séries chronologiques regroupées (pooled time series) qui traite des données portant sur les dix provinces canadiennes pour une période allant de 1986 à 2006. Les résultats indiquent que plusieurs facteurs ont un impact sur la violence dont sont victimes les policiers : la proportion de la population âgée entre 15 et 24 ans, la proportion d’hommes de 15 ans et plus, la proportion de la population vivant dans une région urbaine, la proportion de gens divorcés, les taux résiduels de crimes de violence et de crimes rattachés aux drogues, et le nombre d’évasions et de personnes en liberté sans excuse. La présence croissante de policières, qui fait encore l’objet de débats, semble quant à elle réduire le nombre de voies de fait contre la police, quoique l’impact de ce facteur soit de faible portée. Au Québec, la une hausse importante du taux de voies de fait contre les policiers pourrait s’expliquer par la hausse de plusieurs facteurs identifiés comme jouant un rôle dans le phénomène, bien qu’il ne faille pas écarter qu’un changement dans la reportabilité puisse entrer en ligne de compte.
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
Au cours de la dernière décennie, le domaine de la fonctionnalisation directe des liens C–H a connu un intérêt croissant, en raison de la demande de processus chimiques moins dispendieux, plus efficaces et plus écologiques. . Les cyclopropanes représentent un motif structural souvent retrouvé dans des agents biologiquement actifs importants et dans des intermédiaires de synthèse permettant l'accès à des architectures complexes. Malgré leur valeur intrinsèque, la fonctionnalisation directe des cyclopropanes n’a pas été largement explorée. Ce mémoire traitera de deux méthodologies liées, mais tout aussi différentes, impliquant la fonctionnalisation directe des liens C–H cyclopropaniques impliquant des réactions intramoléculaires catalysées par un complex de palladium et assistées par l’argent. Le premier chapitre présentera d’abord un bref survol de la littérature sur les fondements de la fonctionnalisation directe ainsi que les contributions majeures réalisées dans ce domaine. L’accent sera notamment mis sur la fonctionnalisation des centres sp3 et sera souligné par des exemples pertinents. Les découvertes clés concernant le mécanisme et les cycles catalytiques de ces processus seront discutées. Le second chapitre décrira comment les 2-bromoanilides peuvent être utilisés pour accéder à des motifs particuliers de type spiro 3,3’ oxindoles cyclopropyliques. L'optimisation et l’étendue de la réaction seront abordés, suivis par des études mécanistiques réfutant l’hypothèse de la formation d’un intermédiaire palladium-énolate. Ces études mécanistiques comprennent une étude cinétique de l'effet isotopique ainsi que des études sur épimérisation; celles-ci ont confirmé que la réaction se produit par arylation directe. Sur la base des résultats obtenus dans le deuxième chapitre, nous aborderons ensuite la fonctionnalisation directe des benzamides cyclopropyliques lesquels, après une ouverture de cycle, donneront de nouveaux produits benzo [c] azépine-1-ones (chapitre trois). Après avoir présenté une brève optimisation et l’étendue de la réaction, nous discuterons des études mécanistiques impliquées à déduire l'ordre des événements dans le cycle catalytique et à déterminer le rôle des réactifs. Celles-ci permetteront de conclure que la fonctionnalisation de l’unité cyclopropyle se produit avant l’ouverture de cycle et que l'acétate est responsable de la déprotonation-métalation concertée. Le dernier chapitre (chapitre quatre) traitera en rétrospective de ce qui a été appris à partir de deux méthodologies divergentes et connexes et de comment ces résultats peuvent être exploités pour explorer d’autres types de fonctionnalisations directes sur des cyclopropanes.
Resumo:
La biométrie, appliquée dans un contexte de traitement automatisé des données et de reconnaissance des identités, fait partie de ces technologies nouvelles dont la complexité d’utilisation fait émerger de nouveaux enjeux et où ses effets à long terme sont incalculables. L’envergure des risques suscite des questionnements dont il est essentiel de trouver les réponses. On justifie le recours à cette technologie dans le but d’apporter plus de sécurité, mais, vient-elle vraiment apporter plus de protection dans le contexte actuel? En outre, le régime législatif québécois est-il suffisant pour encadrer tous les risques qu’elle génère? Les technologies biométriques sont flexibles en ce sens qu’elles permettent de saisir une multitude de caractéristiques biométriques et offrent aux utilisateurs plusieurs modalités de fonctionnement. Par exemple, on peut l’utiliser pour l’identification tout comme pour l’authentification. Bien que la différence entre les deux concepts puisse être difficile à saisir, nous verrons qu’ils auront des répercussions différentes sur nos droits et ne comporteront pas les mêmes risques. Par ailleurs, le droit fondamental qui sera le plus touché par l’utilisation de la biométrie sera évidemment le droit à la vie privée. Encore non bien compris, le droit à la vie privée est complexe et son application est difficile dans le contexte des nouvelles technologies. La circulation des données biométriques, la surveillance accrue, le détournement d’usage et l’usurpation d’identité figurent au tableau des risques connus de la biométrie. De plus, nous verrons que son utilisation pourra avoir des conséquences sur d’autres droits fondamentaux, selon la manière dont le système est employé. Les tests de nécessité du projet et de proportionnalité de l’atteinte à nos droits seront les éléments clés pour évaluer la conformité d’un système biométrique. Ensuite, le succès de la technologie dépendra des mesures de sécurité mises en place pour assurer la protection des données biométriques, leur intégrité et leur accès, une fois la légitimité du système établie.
Resumo:
Rampant increases in oil prices and detrimental effects of fossil fuels on the environment have been the main impetus for the development of environmentally friendly and sustainable energy sources. Amongst the many possibilities, microalgae have been proposed as a new alternative energy source to fossil fuels, as their growth is both sustainable and ecologically safe. By definition, microalgae are unicellular photosynthetic microorganisms containing chlorophyll a. These organisms are capable of producing large quantities of oils, surpassing that of traditional oil-seed crops, which can be transformed, through chemical processes, into biofuels such as biodiesel or bio-gasoline. Thus, recent research has gone into discovering high lipid producing algal strains, optimising growth media for increased lipid production and developing metabolic engineering to make microalgae a source of biofuel that is competitive to more traditional sources of biofuel and even to fossil fuel. In this context, the research reported here focused on using a mixotrophic growth mode as a way to increase lipid production for certain strains of microalgae. In addition, nitrogen starvation combined with mixotrophy was studied to analyse its effects on lipid production. Mixotrophy is the parallel usage of two trophic modes, in our case photoautotrophy and heterotrophy. Consequently, 12 algal strains were screened for mixotrophic growth, using glycerol as a carbon source. Glycerol is a waste product of the current biodiesel industry; it is a cheap and abundant carbon source present in many metabolic pathways. From this initial screening, several strains were chosen for subsequent experiments involving nitrogen starvation. Nitrogen starvation has been shown to induce lipid accumulation. The results obtained show that a mixotrophic growth mode, using glycerol as a carbon source, enhances lipid production for certain strains. Moreover, lipid enhancement was shown for nitrogen starvation combined with mixotrophic growth mode. This was dependant on time spent under nitrogen starvation and on initial concentrations of the nitrogen source.