12 resultados para fly
em Université de Montréal, Canada
Resumo:
Travail créatif / Creative Work
Resumo:
Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.
Resumo:
La première augmentation de la longévité en laboratoire fût observée à la suite d’une intervention nutritionnelle consistant en une réduction de l’apport alimentaire chez le rat. Plus tard, ce phénomène a été reproduit dans de très nombreuses espèces et référé en tant que restriction calorique. Le développement des techniques de biologie moléculaire moderne a permis de montrer dans des organismes modèles simples que cette flexibilité du processus de vieillissement était régulée par des facteurs génétiques. De fait, plusieurs mécanismes cellulaires ont alors pu être identifiés comme responsables de ce contrôle du vieillissement. Ces voies de régulation ont révélées être conservées entre les espèces, depuis les levures jusqu’aux organismes multicellulaires tels que le nématode, la mouche ou la souris, suggérant l’existence d’un programme universel de vieillissement dans le vivant. La levure s’est avéré à plusieurs reprises être un modèle puissant et fiable pour la découverte de gènes impliqués dans ce phénomène. Mon étude a consisté au développement d’un nouveau modèle unicellulaire d’étude du vieillissement à travers l’espèce Schizosaccharomyces pombe appelée aussi levure à fission. La première étape de mon travail a montré que les voies de détection des nutriments gouvernées par la sérine/thréonine protéine kinase A (Pka1) et la sérine/thréonine kinase Sck2 contrôlent le vieillissement chronologique de ces cellules comme il était connu dans la levure Saccharomyces cerevisiae. Ceci permit de valider l’utilisation de la levure à fission pour l’étude du vieillissement. Ensuite, nous avons analysé plus en détail l’effet pro-vieillissement du glucose en étudiant le rôle de sa détection par le récepteur membranaire Git3 couplé à la protéine G (Gpa2) en amont de la kinase Pka1. La perte du signal du glucose par la délétion de Git3 imite partiellement l’effet d’augmentation de longévité obtenu par baisse de la concentration en glucose dans le milieu. De plus, l’effet néfaste du signal du glucose est maintenu en absence de tout métabolisme du glucose suite à la mutation des hexokinases, premières enzymes de la glycolyse. L’ensemble de ces résultats suggèrent que la signalisation du glucose est prédominante sur son métabolisme pour son effet pro-vieillissement. D’autre part, à la fois la suppression de cette signalisation et la baisse de niveau de glucose disponible allongent la durée de vie en corrélation avec une augmentation de la résistance au stress, une hausse d’activité mitochondriale et une baisse de production de radicaux libres. Finalement, le criblage d’une banque de surexpression d’ADNc a permis d’identifier plusieurs gènes candidats responsables de ces effets en aval de la voie de signalisation Git3/PKA. La recherche sur les mécanismes moléculaires du vieillissement propose une nouvelle approche, un nouvel angle de vue, pour la compréhension des fonctions cellulaires et promet d’apporter de précieuses clefs pour mieux comprendre certaines maladies. En effet, le vieillissement est la première cause d’apparition de nombreuses affections comme les cancers, les maladies cardiovasculaires et métaboliques ou les maladies neurodégénératives tels que les syndromes d’Alzheimer et de Parkinson.
Resumo:
La phagocytose est un processus cellulaire par lequel de larges particules sont internalisées dans une vésicule, le phagosome. Lorsque formé, le phagosome acquiert ses propriétés fonctionnelles à travers un processus complexe de maturation nommé la biogénèse du phagolysosome. Cette voie implique une série d’interactions rapides avec les organelles de l’appareil endocytaire permettant la transformation graduelle du phagosome nouvellement formé en phagolysosome à partir duquel la dégradation protéolytique s’effectue. Chez l’amibe Dictyostelium discoideum, la phagocytose est employée pour ingérer les bactéries de son environnement afin de se nourrir alors que les organismes multicellulaires utilisent la phagocytose dans un but immunitaire, où des cellules spécialisées nommées phagocytes internalisent, tuent et dégradent les pathogènes envahissant de l’organisme et constitue la base de l’immunité innée. Chez les vertébrés à mâchoire cependant, la transformation des mécanismes moléculaires du phagosome en une organelle perfectionnée pour l’apprêtement et la présentation de peptides antigéniques place cette organelle au centre de l’immunité innée et de l’immunité acquise. Malgré le rôle crucial auquel participe cette organelle dans la réponse immunitaire, il existe peu de détails sur la composition protéique et l’organisation fonctionnelles du phagosome. Afin d’approfondir notre compréhension des divers aspects qui relient l’immunité innée et l’immunité acquise, il devient essentiel d’élargir nos connaissances sur les fonctions moléculaire qui sont recrutées au phagosome. Le profilage par protéomique à haut débit de phagosomes isolés fut extrêmement utile dans la détermination de la composition moléculaire de cette organelle. Des études provenant de notre laboratoire ont révélé les premières listes protéiques identifiées à partir de phagosomes murins sans toutefois déterminer le ou les rôle(s) de ces protéines lors du processus de la phagocytose (Brunet et al, 2003; Garin et al, 2001). Au cours de la première étude de cette thèse (Stuart et al, 2007), nous avons entrepris la caractérisation fonctionnelle du protéome entier du phagosome de la drosophile en combinant diverses techniques d’analyses à haut débit (protéomique, réseaux d’intéractions protéique et ARN interférent). En utilisant cette stratégie, nous avons identifié 617 protéines phagosomales par spectrométrie de masse à partir desquelles nous avons accru cette liste en construisant des réseaux d’interactions protéine-protéine. La contribution de chaque protéine à l’internalisation de bactéries fut ensuite testée et validée par ARN interférent à haut débit et nous a amené à identifier un nouveau régulateur de la phagocytose, le complexe de l’exocyst. En appliquant ce modèle combinatoire de biologie systémique, nous démontrons la puissance et l’efficacité de cette approche dans l’étude de processus cellulaire complexe tout en créant un cadre à partir duquel il est possible d’approfondir nos connaissances sur les différents mécanismes de la phagocytose. Lors du 2e article de cette thèse (Boulais et al, 2010), nous avons entrepris la caractérisation moléculaire des étapes évolutives ayant contribué au remodelage des propriétés fonctionnelles de la phagocytose au cours de l’évolution. Pour ce faire, nous avons isolé des phagosomes à partir de trois organismes distants (l’amibe Dictyostelium discoideum, la mouche à fruit Drosophila melanogaster et la souris Mus musculus) qui utilisent la phagocytose à des fins différentes. En appliquant une approche protéomique à grande échelle pour identifier et comparer le protéome et phosphoprotéome des phagosomes de ces trois espèces, nous avons identifié un cœur protéique commun à partir duquel les fonctions immunitaires du phagosome se seraient développées. Au cours de ce développement fonctionnel, nos données indiquent que le protéome du phagosome fut largement remodelé lors de deux périodes de duplication de gènes coïncidant avec l’émergence de l’immunité innée et acquise. De plus, notre étude a aussi caractérisée en détail l’acquisition de nouvelles protéines ainsi que le remodelage significatif du phosphoprotéome du phagosome au niveau des constituants du cœur protéique ancien de cette organelle. Nous présentons donc la première étude approfondie des changements qui ont engendré la transformation d’un compartiment phagotrophe à une organelle entièrement apte pour la présentation antigénique.
Resumo:
Cette étude offre une lecture de The Waves de Virginia Woolf en tant qu’une représentation fictive des “formes exactes de la pensée.” Elle établit le lien entre le récit de The Waves et l’expérience personnelle de l’auteur avec “les voix” qui hantaient son esprit, en raison de sa maladie maniaco-dépressive. La présente étude propose également une analyse du roman inspirée par la théorie de la “fusion conceptuelle:” cette approche narrative a pour but de (1) souligner “la fusion” de l’imagination, des émotions, et de la perception qui constitue l’essence du récit de The Waves, (2) mettre l’accent sur les “configurations mentales” subtilement développées par/entre les voix du récit, en vue de diminuer le semblant de la désorganisation et de l’éparpillement des pensées généré par la représentation de la conscience, (3) permettre au lecteur d’accéder à la configuration subjective et identitaire des différentes voix du récit en traçant l’éventail de leurs pensées “fusionnées.” L’argument de cette dissertation est subdivisé en trois chapitres: le premier chapitre emploie la théorie de la fusion conceptuelle afin de souligner les processus mentaux menant à la création de “moments de vision.” Il décrit la manière dont la fusion des pensées intérieures et de la perception dans les “moments de vision” pourrait servir de tremplin à la configuration subjective des voix du récit. La deuxième section interprète l’ensemble des voix du roman en tant qu’une “société de soi-mêmes.” À l’aide de la théorie de la fusion conceptuelle, elle met l’accent sur les formes de pensée entrelacées entre les différentes voix du récit, ce qui permet aux protagonistes de développer une identité interrelationnelle, placée au plein centre des différentes subjectivités. Le troisième chapitre trace les processus mentaux permettant aux différentes voix du roman de développer une forme de subjectivité cohérente et intégrée. Dans ce chapitre, l’idée de la fusion des différents aspects de l’identité proposée par Fauconnier et Turner est employée pour décrire l’intégration des éléments de la subjectivité des protagonistes en une seule configuration identitaire. D’ailleurs, ce chapitre propose une interprétation du triste suicide de Rhoda qui met en relief son inaptitude à intégrer les fragments de sa subjectivité en une identité cohérente et “fusionnée.”
Resumo:
Demonstration videos can be found on fr.linkedin.com/in/doriangomez/
Resumo:
À l'ère de la mondialisation, où la matrice capitaliste continue de dominer, la classification dans les groupes se définit encore en termes de classes, de genres et d'ethnicité. Les transformations causées par la mondialisation actuelle entraînent de nouveaux modes de production, qui à leur tour transforment les modes de définition et de régulation des populations. Le projet d'exploitation du Nord du Québec est un phénomène relativement récent; or, le processus de construction d'une classe sociale n'est pas un phénomène nouveau. La formation des classes sociales étant toujours en évolution, il semble aujourd'hui pertinent de réexaminer les facteurs économiques, sociologiques et historiques des caractéristiques théoriques nécessaires à la construction et à la représentation d'une classe sociale dont l'existence est liée à l'exploitation accrue des richesses naturelles, la classe ouvrière du Nord du Québec. À Fermont, dans le Nord du Québec, les compagnies minières emploient depuis 2011 une grande quantité de travailleurs québécois provenant de l'extérieur de la région, des travailleurs permanents non- résidents. Ainsi, la structure sociale construite sur la force de travailleurs locaux est aux prises avec de nouvelles dynamiques de mobilité sociale géographique. Au travail, les femmes et les autochtones sont aussi affectés par les relations des systèmes de pouvoir de la vie quotidienne, car les emplois de l'industrie minière et du domaine de la construction sont socialement et historiquement fondés sur des capitaux sociaux et culturels (blanc et homme). La classe ouvrière du Nord du Québec est redéfinit par son rapport à la migration géographique des travailleurs permanents non- résidents, par ses relations avec les minorités de genre et les minorités autochtones, relations qui engendrent une organisation sociale complexe et hétérogène.
Resumo:
Dans ce rapport de mémoire, nous avons utilisé les méthodes numériques telles que la dynamique moléculaire (code de Lammps) et ART-cinétique. Ce dernier est un algorithme de Monte Carlo cinétique hors réseau avec construction du catalogue d'événements à la volée qui incorpore exactement tous les effets élastiques. Dans la première partie, nous avons comparé et évalué des divers algorithmes de la recherche du minimum global sur une surface d'énergie potentielle des matériaux complexes. Ces divers algorithmes choisis sont essentiellement ceux qui utilisent le principe Bell-Evans-Polanyi pour explorer la surface d'énergie potentielle. Cette étude nous a permis de comprendre d'une part, les étapes nécessaires pour un matériau complexe d'échapper d'un minimum local vers un autre et d'autre part de contrôler les recherches pour vite trouver le minimum global. En plus, ces travaux nous ont amené à comprendre la force de ces méthodes sur la cinétique de l'évolution structurale de ces matériaux complexes. Dans la deuxième partie, nous avons mis en place un outil de simulation (le potentiel ReaxFF couplé avec ART-cinétique) capable d'étudier les étapes et les processus d'oxydation du silicium pendant des temps long comparable expérimentalement. Pour valider le système mis en place, nous avons effectué des tests sur les premières étapes d'oxydation du silicium. Les résultats obtenus sont en accord avec la littérature. Cet outil va être utilisé pour comprendre les vrais processus de l'oxydation et les transitions possibles des atomes d'oxygène à la surface du silicium associée avec les énergies de barrière, des questions qui sont des défis pour l'industrie micro-électronique.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Commentaire / Commentary
Resumo:
Alice au pays des merveilles et Nietzsche n'ont en commun ni la dentelle ni la chanson. Quelque chose de beaucoup plus fort les unit toutefois; nous le découvrirons peut-être ce jour où voleront les cochons. Ou à la fin de cette pièce, selon le bon vouloir des principaux-ales intéressé-e-s. Pendant ce temps, du fin fond de leur enclos, ils et elles n'en peuvent plus d'attendre. Leur salut ? L'heure du glas ? Leur heure de gloire ? Grands incapables, pugilistes décadents qui se tuent à ne pas se tuer, se déchaînent dans le verbiage, s'érigeant malgré eux contre toute forme de verve. Combattre cet Autre qui s'immisce insidieusement en soi et qui conduit à la perte du moi. C'est dans une folle lucidité que les égos se dérangent sans échanger, s'attaquent sans s'atteindre, hurlent sans être entendus, dans l'espoir, peut-être, de se réveiller in the land of Nod. Comme l’indique le titre, Chroniques de maux (de l’extrême ordinaire) met en scène une suite de chroniques dans lesquelles les principaux-ales intéressé-e-s témoignent de leur mal-être, et ce, à travers l’exploration de lieux communs. La dramaturgie tente, entre autres, de mettre en place une poésie de l’invective et de l’humour; une esthétique du trash-talking et de la logorrhée. Une importance particulière est accordée au rythme et au langage. L’atmosphère alterne résolument lourdeur et ludisme. La pièce Rouge Gueule, d'Étienne Lepage, présente une mécanique visant manifestement à « attaquer » l'Autre, qu’il s’agisse d’un personnage ou du lecteur-spectateur. Les attaques se perpètrent d'une part par un humour cru, influencé par la culture populaire, le trivial; un humour qui fonctionne de manière plutôt classique en convoquant des procédés aisément repérables et sans cesse réutilisés par l'auteur. D’autre part, la mécanique de « combat » se manifeste par l'invective, ainsi que par une violence caractérisée, du début à la fin, par un manque dans la motivation des actions. Ainsi, l’étude Attaques à vide. Bousculer la situation théâtrale au confluent de l’humour et la violence s’intéresse à Rouge Gueule, aux relations qu'entretiennent l’humour et l'univers brutal de la pièce, dans la perspective où l’humour est inextricablement lié à la violence. Une attention particulière est portée sur le personnage type de Lepage de même que sur l’esthétique de « l'arsenal » trash. Cette dernière est analysée afin de mieux circonscrire les attaques : sont-elles des moyens, et le cas échéant, pour parvenir à quelle fin puisque la fable, et donc la « quête », dans le théâtre contemporain est souvent remise en question. Cette étude verra comment les attaques « à vide », sont, chez Lepage, la force motrice de ce que Hans-Thies Lehmann nomme la « situation théâtrale ».
Resumo:
La recherche vise à élaborer la condition tragique qui émane de la figure de l'enfant au cinéma – à travers ses traumas, ses blessures, voire sa destruction et sa perte – devant laquelle le spectateur adulte éprouve un certain malaise. Nous pouvons voir au cinéma des enfants aux prises avec des conditions de vie traumatisantes, voire inhumaines. Que ce soit les enfants abandonnés ou orphelins, les enfants violés, les enfants maltraités, les enfants victimes de guerre – incluant la dualité paradoxale qu’instaure l'enfant-soldat, de Ivan (« L’enfance d’Ivan », Tarkovski, 1962) à Komona (« Rebelle », Kim Nguyen, 2012) – ou les enfants face à la mort, diverses situations peuvent contribuer à inscrire l'enfance dans le registre du tragique, par la destruction ou la perte de l'enfance. L'enfance détruite porte en elle une blessure (trauma) – qu'elle soit physique ou psychique – qui renvoie au « manque », ou à la fragilité humaine que traduit l'image de l'enfant dit « sans secours ». Quand l’enfant doit faire face à une situation tragique où il est sans défense et confronté à son propre anéantissement, sa figure devient pour nous traumatique. Nous suggérons que le tragique place l’enfant au cinéma dans un après-coup qui renvoie à un traumatisme premier fondamental, prototype de toute situation traumatique. Pour le psychanalyste Sigmund Freud, ce serait un traumatisme lié à la détresse infantile – le « Hilflosigkeit » – qui correspond à la première angoisse vécue par le nourrisson dû à son impuissance (« Inhibition, symptôme et angoisse », [1926] 1951, Paris : PUF). Dans cette lignée, certains psychanalystes (comme Otto Rank ou Jean-Marie Delassus) préciseraient que le traumatisme s'installe dès la naissance, qui marque de manière universelle le premier sentiment de perte et d'angoisse suite à l'éjection dans un monde étranger et d'abord impossible, ce qui correspond à une dislocation première (suivant le sens qu’en propose Benoit Goetz dans « La dislocation » (2002, Paris : Éditions de la Passion)). L'enfant au cinéma, qui traverse des épreuves qui nous sont difficiles à concevoir, nous regarde et pointe en nous nos propres faiblesses, et cela interagit avec nos propres traumatismes. Quelques exemples filmiques viendront soutenir la recherche, avec principalement l’analyse d’un film exemplaire, « Les tortues volent aussi » de Bahman Ghobadi (2004).