14 resultados para second pre-image attack
em Université de Montréal, Canada
Resumo:
L'éclatement est une transformation jouant un rôle important en géométrie, car il permet de résoudre des singularités, de relier des variétés birationnellement équivalentes, et de construire des variétés possédant des propriétés inédites. Ce mémoire présente d'abord l'éclatement tel que développé en géométrie algébrique classique. Nous l'étudierons pour le cas des variétés affines et (quasi-)projectives, en un point, et le long d'un idéal et d'une sous-variété. Nous poursuivrons en étudiant l'extension de cette construction à la catégorie différentiable, sur les corps réels et complexes, en un point et le long d'une sous-variété. Nous conclurons cette section en explorant un exemple de résolution de singularité. Ensuite nous passerons à la catégorie symplectique, où nous ferons la même chose que pour le cas différentiable complexe, en portant une attention particulière à la forme symplectique définie sur la variété. Nous terminerons en étudiant un théorème dû à François Lalonde, où l'éclatement joue un rôle clé dans la démonstration. Ce théorème affirme que toute 4-variété fibrée par des 2-sphères sur une surface de Riemann, et différente du produit cartésien de deux 2-sphères, peut être équipée d'une 2-forme qui lui confère une structure symplectique réglée par des courbes holomorphes par rapport à sa structure presque complexe, et telle que l'aire symplectique de la base est inférieure à la capacité de la variété. La preuve repose sur l'utilisation de l'éclatement symplectique. En effet, en éclatant symplectiquement une boule contenue dans la 4-variété, il est possible d'obtenir une fibration contenant deux sphères d'auto-intersection -1 distinctes: la pré-image du point où est fait l'éclatement complexe usuel, et la transformation propre de la fibre. Ces dernières sont dites exceptionnelles, et donc il est possible de procéder à l'inverse de l'éclatement - la contraction - sur chacune d'elles. En l'accomplissant sur la deuxième, nous obtenons une variété minimale, et en combinant les informations sur les aires symplectiques de ses classes d'homologies et de celles de la variété originale nous obtenons le résultat.
Resumo:
La phagocytose est un processus par lequel des cellules spécialisées du système immunitaire comme les macrophages ingèrent des microorganismes envahisseurs afin de les détruire. Les microbes phagocytés se retrouvent dans un compartiment intracellulaire nommé le phagosome, qui acquiert graduellement de nombreuses molécules lui permettant de se transformer en phagolysosome possédant la capacité de tuer et dégrader son contenu. L’utilisation de la protéomique a permis de mettre en évidence la présence de microdomaines (aussi nommés radeaux lipidiques ou radeaux membranaires) sur les phagosomes des macrophages. Notre équipe a démontré que ces radeaux exercent des fonctions cruciales au niveau de la membrane du phagosome. D’abord nous avons observé que la survie du parasite intracellulaire L. donovani est possible dans un phagosome dépourvu de radeaux lipidiques. Parallèlement nous avons constaté qu’un mutant de L. donovani n’exprimant pas de LPG à sa surface(LPG-) est rapidement tué dans un phagosome arborant des radeaux membranaires. Pour comprendre le mécanisme de perturbation des microdomaines du phagosome par la molécule LPG, nous avons provoqué la phagocytose de mutants LPG- du parasite et comparé par microscopie les différences avec le parasite de type sauvage. Nous avons ainsi démontré que le LPG de L. donovani est nécessaire et suffisant au parasite pour empêcher la maturation normale du phagosome. Nous avons également découvert que la molécule LPG permet d’empêcher la formation des radeaux lipidiques sur le phagosome et peut aussi désorganiser les radeaux lipidiques préexistants. Enfin, nous avons montré que l’action de LPG est proportionnelle au nombre d’unités répétitives de sucres (Gal(β1,4)-Manα1-PO4) qui composent cette molécule. Nos travaux ont démontré pour la première fois le rôle important de ces sous-domaines membranaires dans la maturation du phagosome. De plus, nos conclusions seront des pistes à suivre au cours des études cliniques ayant pour but d’enrayer la leishmaniose. Le second objectif de ce travail consistait à effectuer la caractérisation des radeaux lipidiques par une analyse protéomique et lipidomique à l’aide de la spectrométrie de masse. Nous avons ainsi entrepris l’identification systématique des protéines présentes dans les radeaux membranaires des phagosomes et ce, à trois moments clés de leurmaturation. Le traitement des phagosomes purifiés avec un détergent nous a permis d’isoler les «Detergent Resistent Membranes» (DRMs) des phagosomes, qui sont l’équivalent biochimique des radeaux membranaires. Nous avons ainsi établi une liste de 921 protéines associées au phagosome, dont 352 sont présentes dans les DRMs. Les protéines du phagosome sont partagées presque également entre trois tendances cinétiques (augmentation, diminution et présence transitoire). Cependant, une analyse plus spécifique des protéines des DRMs démontre qu’une majorité d’entre elles augmentent en fonction de la maturation. Cette observation ainsi que certains de nos résultats montrent que les radeaux lipidiques des phagosomes précoces sont soit très peu nombreux, soit pauvres en protéines, et qu’ils sont recrutés au cours de la maturation du phagosome. Nous avons aussi analysé les phospholipides du phagosome et constaté que la proportion entre chaque classe varie lors de la maturation. De plus, en regardant spécifiquement les différentes espèces de phospholipides nous avons constaté que ce ne sont pas uniquement les espèces majoritaires de la cellule qui dominent la composition de la membrane du phagosome. L’ensemble de nos résultats a permis de mettre en évidence plusieurs fonctions potentielles des radeaux lipidiques, lesquelles sont essentielles à la biogenèse des phagolysosomes (signalisation, fusion membranaire, action microbicide, transport transmembranaire, remodelage de l’actine). De plus, la cinétique d’acquisition des protéines de radeaux lipidiques indique que ceux-ci exerceraient leurs fonctions principalement au niveau des phagosomes ayant atteint un certain niveau de maturation. L’augmentation du nombre de protéines des radeaux membranaires qui s’effectue durant la maturation du phagosome s’accompagne d’une modulation des phospholipides, ce qui laisse penser que les radeaux membranaires se forment graduellement sur le phagosome et que ce ne sont pas seulement les protéines qui sont importées.
Resumo:
Research and teaching in societal development ethics face potentially four fundamental types of objection: first, that ethics is obvious already; second, that it is instead impossible, on epistemological grounds; third, that it is theoretically possible but in practice fruitless; and fourth, that it is in any case politically insignificant. The paper presents qualified rebuttals of the four objections. In the process of doing so, it builds up a picture of this field of thought and practice: its modes, methods and alternative forms of organization, and some of its pitfalls and potentials, exemplars and achievements.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Tout autant que la mère, le père est une figure d’attachement importante pour l’enfant. Toutefois le lien d’attachement père-enfant se formerait différemment du lien d’attachement mère-enfant. Les pères sont souvent plus engagés que les mères dans des activités ludiques, moins dans des activités de soins. Les jeux faits avec le père sont souvent plus physiques aussi, plus stimulants. En incitant son enfant au jeu de façon sensible, le père devient un tremplin pour l’exploration de son enfant et le développement de sa confiance en soi et en l’autre. C’est en tant que figure d’ouverture sur le monde que le père aurait une plus grande influence sur le développement de son enfant. C’est ce que nous apprennent les études sur l’engagement paternel. Jusqu’à maintenant peu d’auteurs ont étudié l’engagement des pères en même temps que l’attachement père-enfant, mais plusieurs proposent déjà que cette fonction d’ouverture sur le monde expliquerait la formation du lien père-enfant. La relation d’attachement père-enfant serait basée sur une relation d’activation. L’objectif de la présente thèse est précisément de mieux comprendre la nature du lien d’attachement père-enfant. Deux articles composent cette thèse. Le premier article est théorique et fait une recension de la littérature sur l’attachement père-enfant et l’engagement paternel. Le deuxième article est empirique et propose justement de vérifier l’influence de l’engagement paternel sur la formation du lien d’attachement au père. En tout 53 dyades pères-enfants ont participé à cette étude. L’engagement des pères au niveau du réconfort, de la stimulation et de la discipline a été évalué lorsque les enfants avaient entre 12 et 18 mois. À cet âge, la qualité d’attachement et de la relation d’activation ont aussi été évaluées, respectivement avec la Situation étrangère et la Situation risquée. Les deux mises en situation ont ensuite été comparées pour voir laquelle prédit mieux le développement des enfants à l’âge préscolaire, au niveau des compétences sociales, des problèmes intériorisés et des problèmes extériorisés. Les résultats obtenus indiquent que la Situation risquée prédit mieux le développement socio-affectif des enfants (compétences sociales et problèmes intériorisés). Aucun lien n’a été trouvé avec la Situation étrangère, même en tenant compte de l’engagement du père au niveau du réconfort. Ces résultats valident la théorie de la relation d’activation et l’importance de la fonction paternelle d’ouverture sur le monde. Les limites de la présente étude, ainsi que ses implications théoriques et méthodologiques, seront abordées dans la discussion du deuxième article et en conclusion de la présente thèse.
Resumo:
La relation d’activation père-enfant est une nouvelle théorisation du lien d’attachement au père faisant référence au pôle exploration. Cette relation se développe dès la deuxième année de l’enfant et principalement à travers les jeux physiques. La relation d’activation met prioritairement l’accent sur l’ouverture au monde et permet alors de répondre avant tout au besoin de l’enfant d’être stimulé et de se surpasser, venant compléter ses besoins de sécurité premiers. L’objectif de la présente thèse est d’étudier les liens entre la relation d’activation au père et le développement socio-affectif des enfants à l’âge préscolaire, plus précisément en matière de problèmes intériorisés (PI) et d’anxiété. Deux articles empiriques composent cette thèse. Le premier a été réalisé avec un échantillon de convenance composé de 51 dyades père-enfant. Les analyses démontrent les liens anticipés entre la sous-activation et les PI : les enfants sous-activés ont significativement plus de PI que les enfants activés. Également, l’association initialement observée entre le score d’activation et les PI reste significative même après avoir contrôlé pour certaines variables comme le sexe et le tempérament de l’enfant ainsi que les comportements parentaux. Plus les enfants étaient activés positivement dans leur relation avec leur père, moins ils présentaient de PI. Enfin, l’exploration des liens entre la relation d’activation et les sous-échelles des PI a révélé un lien unique avec l’anxiété. Le deuxième article a été réalisé avec 49 familles issues d’une population clinique (c.-à-d. service de pédopsychiatrie). Il est le premier à mettre en lien l’activation au père, l’attachement à la mère et l’anxiété chez l’enfant d’âge préscolaire. Les analyses confirment les résultats déjà existants en matière d’attachement mère-enfant et d’anxiété; ce sont les enfants insécurisés, plus précisément les enfants insécurisés-ambivalents et insécurisés-désorganisés-contrôlants du sous-type caregiving qui présentent le plus d’anxiété. Les hypothèses concernant les liens entre l’anxiété et l’activation ne sont quant à elles pas confirmées. Enfin, un effet de modération de la relation d’activation père-enfant est mis en évidence sur l’association entre l’attachement à la mère et l’anxiété chez l’enfant; la relation d’activation peut être considérée comme un facteur de protection ou de risque. Les résultats de la présente thèse sont discutés à la lumière de la théorie de l’attachement et de deux modèles étiologiques de l’anxiété (c.-à-d. modèle de psychopathologie développementale et modèle évolutionniste). Cette thèse pourrait mener au développement de programmes de prévention et d’intervention qui prendraient en considération les deux figures parentales.
Resumo:
Le présent mémoire constitue une tentative de circonscrire - par l’étude d’un corpus textuel principalement emprunté à l’œuvre vernaculaire (allemande) de Maître Eckhart de Hochheim (1260-1328) – le rôle joué par certains motifs conceptuels caractérisant la notion moderne de sujet-agent au sein de la pensée de ce philosophe, théologien et prédicateur. Plus précisément, il y est question de déterminer en quoi le « je » (ich) décrit en plusieurs lieux textuels de l’œuvre d’Eckhart présente les caractères d’autonomie et de transparence à soi qui sont l’apanage de la subjectivité telle que la conçoit majoritairement une certaine modernité postcartésienne. Notre argument, qui se déploie sur trois chapitres, adopte sur le corpus faisant l’objet de cette étude et la conceptualité qu’il déploie, trois perspectives différentes – lesquelles perspectives sont respectivement d’ordre ontologique (premier chapitre), existentiel ou éthique (second chapitre) et anthropologique (troisième chapitre). La première approche – ontologique – explicite le sens que donne Eckhart aux notions d’être, de néant, d’intellect et d’image, ainsi que la manière dont elles se définissent dialectiquement en rapport les unes avec les autres. Le second chapitre, dont l’approche est existentielle, expose les applications éthiques des concepts abordés au chapitre précédent, analysant la méthode de détachement prescrite par Eckhart pour parvenir à l’état de béatitude. Le troisième et dernier chapitre cherche, quant à lui, à définir de quelle manière l’homme se définit par rapport à l’union à laquelle l’invite Eckhart, et ce autant sur le plan spécifique que sur le plan individuel.
Resumo:
Cette thèse pose la question du positionnement identitaire difficile qui marque la trajectoire littéraire de l’écrivaine belge Suzanne Lilar (1901-1992). Le tiraillement vécu par l’écrivaine entre sa vocation artistique et la nécessité de préserver une image de soi conforme aux normes du milieu social dans lequel elle s’inscrit se reflète dans les scénographies construites par ses œuvres littéraires, mais également dans son discours réflexif et paratextuel ainsi que dans la manière dont son œuvre est accueilli par la presse de l’époque. Le premier volet de cette analyse s’attache à circonscrire la position occupée par Suzanne Lilar sur la scène littéraire belge, dont la proximité avec le centre parisien a toujours entretenu la menace de l’assimilation, et sur la scène de l’écriture féminine. Le deuxième volet de cette thèse porte sur l’analyse des scénographies construites par les textes de fiction et les textes à tendance autobiographique de Suzanne Lilar. Les doubles scénographies que donnent à lire ces œuvres montrent que la démarche esthétique de Suzanne Lilar, sous-tendue par le besoin de légitimation de son entreprise, est basée principalement sur la multiplication des perspectives et des moyens d’expression. Le dédoublement de la scène énonciative des récits, la mise en abyme de la figure auctoriale ainsi que le travail d’autoréécriture témoignent de la nécessité de se positionner dans le champ littéraire, mais également de la méfiance de l’écrivaine envers l’écriture littéraire. Le troisième volet de cette recherche analyse l’éthos et la posture que Lilar construit à l’aide du discours réflexif et paratextuel par lequel elle assoit sa légitimité sur la scène littéraire et sociale. Enfin, la dernière partie de cette thèse capte les échos de l’œuvre de Lilar dans la presse de son temps. L’image de l’auteure construite par les médias permet de placer Lilar au sein de l’institution et du champ littéraire, mais également au sein du groupe social dans lequel elle s’inscrit. L’accueil réservé à l’écrivaine par la presse de son époque semble suivre les fluctuations de la posture construite par l’écrivaine elle-même. Cela confirme l’hypothèse selon laquelle Lilar est une auteure qui a éprouvé de la difficulté à assumer pleinement son rôle. Le positionnement en porte-à-faux – dont témoigne la figure du trompe-l’œil qui définit sa poétique – semble avoir représenté, pour Lilar, la seule manière d’assumer l’incontournable paratopie créatrice.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Michael Haneke est reconnu pour la froideur de sa mise en scène depuis ses premiers films. Le cinéaste a mis en scène plusieurs personnages dans des situations violentes, personnages entourés de média. Le présent projet vise à identifier l’évolution de la démarche du cinéaste dans la représentation des média au sein de ses œuvres. Pour ce faire, j’ai déterminé trois phases dans sa filmographie. À l’aide de trois cadres théoriques distincts, je préciserai ces trois étapes : l’observation, à l’aide des écrits de Marshall McLuhan ; son passage à l’acte, avec les théories d’interaction du microsociologue Erving Goffman et ; l’affirmation, une possible solution par l’accompagnement avec les écrits de Serge Tisseron et Marie-José Mondzain. Je tenterai de déterminer, par l’analyse des films de Michael Haneke, que ces différentes phases dans sa filmographie visent l’éducation morale des spectateurs face à l’image.
Resumo:
Background This paper presents a method that registers MRIs acquired in prone position, with surface topography (TP) and X-ray reconstructions acquired in standing position, in order to obtain a 3D representation of a human torso incorporating the external surface, bone structures, and soft tissues. Methods TP and X-ray data are registered using landmarks. Bone structures are used to register each MRI slice using an articulated model, and the soft tissue is confined to the volume delimited by the trunk and bone surfaces using a constrained thin-plate spline. Results The method is tested on 3 pre-surgical patients with scoliosis and shows a significant improvement, qualitatively and using the Dice similarity coefficient, in fitting the MRI into the standing patient model when compared to rigid and articulated model registration. The determinant of the Jacobian of the registration deformation shows higher variations in the deformation in areas closer to the surface of the torso. Conclusions The novel, resulting 3D full torso model can provide a more complete representation of patient geometry to be incorporated in surgical simulators under development that aim at predicting the effect of scoliosis surgery on the external appearance of the patient’s torso.
Resumo:
Diverses œuvres de poésie moderne et contemporaine mettent en scène le rapport à l’écriture d’un sujet lyrique. Une telle problématique trouve une incarnation particulièrement intéressante dans l’œuvre de Patrice Desbiens, notamment dans certains de ses textes des années 1990 et 2000, où elle apparaît avec plus d’acuité. Pourtant, sa pratique auto-réflexive a fait l’objet de très peu de recherches. Afin d’éclairer le rapport qu’entretient Patrice Desbiens avec l’écriture et avec la poésie, ce mémoire s’intéresse à deux de ses textes, soit La fissure de la fiction (1997) et Désâmé, (2005) en accordant davantage d’espace au premier, que je considère comme un texte-charnière dans la production poétique de Desbiens. Dans un premier temps, mon travail présente ainsi la précarité qui caractérise le protagoniste de La fissure de la fiction et, sous un autre angle, le sujet lyrique de Désâmé. Dans cette optique, la figure du poète est étudiée dans La fissure de la fiction à la lumière de la reprise ironique du mythe de la malédiction littéraire et du sens que la réactualisation de ce mythe confère au personnage dans ce récit poétique. Dans un second temps, ce mémoire s’attache à montrer que la cohérence et la vraisemblance des univers mis en scène dans La fissure de la fiction et Désâmé sont minées. C’est à l’aune de ces analyses que peut ensuite être envisagé le rôle d’une poésie qui, en dernière instance, comporte malgré tout un caractère consolateur, en dépit ou en raison de l’esthétique du grotesque, tantôt comique, tantôt tragique, dans laquelle elle s’inscrit et que nous tâcherons de mettre en lumière.
Resumo:
Depuis les débuts de la deuxième vague féministe, la participation quasi-universelle des femmes au marché du travail a causé la perte, pour les pères de famille, du rôle de pourvoyeur exclusif que ces derniers avaient tenu depuis si longtemps. Les femmes hétérosexuelles de la société contemporaine sont dorénavant plus scolarisées et atteignent des carrières plus avancées que leurs contreparties masculines. Alors que les femmes soutiennent davantage la famille par leurs emplois, les hommes doivent proportionnellement assumer des rôles plus actifs et participatifs à la maison. En cette période de transition, de transformation et de redéfinition rapides des rôles genrés à l’intérieur de l’économie familiale hétérosexuelle, les pères participent de manière plus équitable à l’éducation des enfants et à l’entretien du domicile, ces rôles ayant longtemps été attribués presque exclusivement aux femmes. Ces nouvelles responsabilités détonnent avec les représentations stéréotypées des hommes dans la culture populaire, ainsi qu’avec les modèles d’identification de la masculinité normative que les hommes ont requis et requièrent toujours sous l’égide de l’hétérosexualité imposée. De ce fait, les hommes occidentaux de moins de cinquante ans se trouvent souvent à cheval entre deux mondes d’exigences concurrentes. La place que peuvent et doivent prendre les pères au sein de leurs familles requiert un questionnement critique. L’ironie de la place du père peut être comprise comme la tension entre les normes du genre rétrogrades ou conservatrices et les exigences – à la fois politiques et pragmatiques – de la masculinité de la classe moyenne contemporaine. Cette tension fondamentale et structurante de la masculinité contemporaine est vécue par l’anxiété d’association au genre, ainsi qu’à travers des difficultés filiales, paternelles et intergénérationnelles. Ce mémoire de maîtrise adopte une approche déconstructiviste envers l’analyse de constructions contemporaines de la masculinité reproductive. À travers les gender studies, la théorie queer ainsi que la psychanalyse, le mémoire offre des lectures analytiques du discours de croissance personnelle de John Stoltenberg, de la fiction autobiographique de Karl Ove Knausgaard, ainsi que de la série télévisée américaine Dexter.