410 resultados para Complexité spatiale de rivière
Resumo:
Thèse effectuée en cotutelle avec l’Université de Montréal et l’Université Paris 1 Panthéon-Sorbonne (IHPST)
Resumo:
Les westerns de l’âge d’or étasunien (1948-1962) mettent en scène un "gender trouble" en créant des personnages de femmes et d’hommes qui empruntent les uns et les autres aux caractéristiques genrées associées par la société nord-américaine et occidentale en général aux genres binaires du féminin et du masculin. Ce trouble genré se développe entre autres par la volonté de trois hommes de recréer la cellule familiale nucléaire conventionnelle dans "Red River" (1948) de Howard Hawks, par le rapport de peur et d’oppression du groupe social sur les individus dans "High Noon" (1952) de Fred Zinnemann et "Johnny Guitar" (1954) de Nicholas Ray, ainsi que par la rencontre opposant l’homme de l’Est et l’homme de l’Ouest dont les idéologies et les valeurs divergent dans "The Man Who Shot Liberty Valance" (1962) de John Ford.
Resumo:
Notre thèse a pour objectif de déterminer la nature des liens entre la multiplication des processus de macro-régionalisation, dans un contexte de mondialisation, et le renouvellement des politiques d’aménagement du territoire à travers la mise en place de nouvelles formes de coopération décentralisée entre villes et territoires. Notre projet de recherche cherche ainsi à établir comment la régionalisation permet la mise en place d’une gouvernance à niveaux multiples mettant en relation des acteurs territoriaux, à différents échelons de décision (supranational, national et infranational) dans le but de faire face à la complexité grandissante des problèmes actuels à l’échelle mondiale. Parmi ces projets régionaux qui émergent dans plusieurs parties du monde, nous avons choisi le Partenariat euro-méditerranéen comme cas d'étude en s'intéressant de manière particulière aux projets et programmes de coopération décentralisée et transfrontalière qui se mettent en place autour de la Méditerranée et qui mettent en relation plusieurs villes et régions riveraines. Afin de répondre à ces questions, nous avons décliné notre argumentation en plusieurs axes de réflexion. Un premier axe de réflexion tourne autour de la nature du projet régional euro-méditerranéen et de son implication au niveau des stratégies territoriales principales. Un deuxième axe concerne le contenu et les processus de mise en œuvre des programmes et projets de coopération décentralisée et transfrontalière et leur pertinence au niveau du développement local des territoires du Sud. Un troisième axe s’intéresse au rôle de l’État central en face du développement de ces initiatives qui le contourne. Enfin, un quatrième axe de réflexion concerne l’attitude de l’échelon local par rapport à ces initiatives qui l’interpellent et le sollicitent en tous sens.
Resumo:
Cette recherche porte un regard critique sur les interfaces de spatialisation sonore et positionne la composition de musique spatiale, un champ d’étude en musique, à l’avant plan d’une recherche en design. Il détaille l’approche de recherche qui est centrée sur le processus de composition de musique spatiale et les modèles mentaux de compositeurs électroacoustiques afin de livrer des recommandations de design pour le développement d’une interface de spatialisation musicale nommée Centor. Cette recherche montre qu’un processus de design mené à l’intersection du design d’interface, du design d’interaction et de la théorie musicale peut mener à une proposition pertinente et innovatrice pour chacun des domaines d’étude. Nous présentons la recherche et le développement du concept de spatialisation additive, une méthode de spatialisation sonore par patrons qui applique le vocabulaire spectromorphologique de Denis Smalley. C’est un concept d’outil de spatialisation pour le studio qui complémente les interfaces de composition actuelles et ouvre un nouveau champ de possibilités pour l’exploration spatiale en musique électroacoustique. La démarche de recherche présentée ici se veut une contribution au domaine du design d’interfaces musicales, spécifiquement les interfaces de spatialisation, mais propose aussi un processus de design pour la création d’interfaces numériques d’expression artistique.
Resumo:
Internet évolue avec la société et les nouvelles technologies, mais ses usages restent centrés sur le principe communicationnel de partager ses idées, ses histoires avec d’autres personnes. Comprendre les modes de communication des internautes offre des défis de taille aux chercheurs. Malgré une riche littérature sur les usages d’Internet, peu d’études se sont penchées sur l’analyse en profondeur des habitudes des internautes ordinaires. Cette thèse a pour objet d’étude le partage de contenus en ligne, car il s’agit d’une pratique permettant de réfléchir sur le rapport des usagers à la technologie. En m’inspirant des travaux d’Henri Lefebvre et de Michel de Certeau, je mobilise le concept de la vie quotidienne, concept qui met en lumière les processus à travers laquelle les gens font sens de leur vie. Afin de mieux saisir le quotidien, lequel est mobile, fluide et multiple, des métaphores spatiales tirées d’études des sciences, technologies et société (STS) seront mobilisées. Les concepts d’espace fluide et de feu sont idéaux pour étudier les pratiques de partage de vidéo que l’on peut qualifier de mutables et adaptables. Dans cette thèse, l’accent est mis sur les expériences subjectives des internautes ; ainsi, j’ai adopté une méthodologie qualitative pour recueillir les témoignages d’une dizaine de participants décrivant longuement leurs pratiques. En effet, j’ai rencontré chaque personne à plusieurs reprises et nous avons discuté d’exemples spécifiques. À travers les thèmes récurrents qui ont émergé des verbatims, et dans la tradition de la théorisation ancrée, la première partie de l’analyse fournit une riche description du quotidien des participants. J’explore en particulier la façon dont les internautes adaptent leur partage sur leurs expériences des sites de réseaux sociaux, comment la vidéo est utilisée dans le maintien de leurs relations sociales, et comment le partage des vidéos complémente leurs conversations. Sachant que les pratiques en ligne et hors ligne se fondent l’une dans l’autre, la deuxième partie de l’analyse articule la complexité de la vie quotidienne et la fluidité des pratiques de partage à l’aide du concept de l’objet fluide pour traiter des aspects complexes, dynamiques et souples des pratiques des internautes ordinaires. Cette recherche qualitative fournit un portrait de l’expérience humaine qui est autant détaillé que possible. Elle permet de souligner que c’est dans une variété contextes non remarquables – car faisant partie intégrante de la vie quotidienne – que les Internautes naviguent et que les activités humaines sont sans cesse construites et transformées, ouvrant des possibilités vers de nouvelles façons de faire et de penser. La thèse poursuit un dialogue interdisciplinaire entre la communication (les Internet Studies notamment) et les études des sciences, technologies et société (STS), tout en apportant de nombreuses données empiriques sur les pratiques des internautes « ordinaires ». De plus, la thèse offre des métaphores capables d’ouvrir de nouvelles perspectives pour l’analyse des usages du Web social. Elle apporte également une contribution originale en intégrant des approches théoriques des pratiques quotidiennes avec la théorisation ancrée. Tant les fondements conceptuels et des approches méthodologiques développées ici seront des exemples très utiles pour d’autres chercheurs intéressés à poursuivre la compréhension des pratiques quotidiennes impliquant l’Internet, surtout quand ces derniers impliquent le visuel, l’émotif et le relationnel.
Resumo:
La recherche, construction et révision de l’identité nationale ont très longtemps constitué les éléments propulseurs de la production littéraire et intellectuelle de Porto Rico. Pourtant vers le milieu des années 90, un nouveau consensus émerge entre les écrivains qui revendiquent massivement la fin de la littérature en tant que lieu d’où forger la conscience nationale et refuse le leadership intellectuel qui avait jusqu’alors définit le travail littéraire. Les auteurs qui commencent à se manifester à ce moment se désintéressent du nationalisme comme thème littéraire. Le militantisme politique et la volonté de confrontation, modes représentationnels caractéristiques de la génération antérieure, disparaissent pour laisser place à une écriture exploratoire, centrée sur ses propres procédés, et apparemment apolitique. Une telle perte d’ancrages nationaux et territoriaux est significative de la conscience exacerbée que possèdent ces écrivains de la complexité des dynamiques culturelles qui régissent le monde postmoderne et globalisé, ainsi que de la « valeur » et de la position « marginale » qu’on leur attribue dans l’écologie mass-médiatique culturelle actuelle. La production narrative de Mayra Santos-Febres est paradigmatique de ces changements. J’aborde dans son écriture une série de dispositifs métalittéraires, autoréflexifs, « érographiques », et historiographiques qui, bien qu’ils résistent à une catégorisation homogène, démontrent un même intérêt pour des phénomènes interstitiels. En me basant sur les concepts de liminalité, principalement depuis la perspective de Victor Turner et d’écriture auto-réflexive (Patricia Waugh, Linda Hutcheon), j’analyse le positionnement liminal qu’assume Santos-Febres dans la structure culturelle globalisée actuelle, et la façon dont sa prise de position, également liminale, c’est-à-dire, sa prise de parole et son engagement se traduisent par un rapprochement narcissique à l’exercice littéraire autant dans les formes qu’elle crée qu’au niveau sémantique, narratif et discursif. Le premier chapitre analyse les contes « Dilcia M. » et « Acto de Fe » (Pez de vidrio) comme témoignages de l’érosion du patriotisme et militantisme antérieur; « La escritora» (Pez de vidrio) qui marque pour l’auteure un passage vers une esthétique centrée sus ses propres procédés créatifs; et le roman Cualquier miércoles soy tuya qui dramatise le positionnement assumé par les écrivains dans la chaine culturelle globalisée actuelle. Le second chapitre aborde la configuration des corps, espaces urbains et de l’écriture dans El cuerpo correcto qui, à travers une exubérance sexuelle/textuelle, projette des variantes réactualisées de la traditionnelle dichotomie corps/écriture. Le troisième chapitre se penche sur la configuration du travesti dans Sirena Selena vestida de pena. J’y propose de voir le travestisme, le boléro et l’écriture comme un triple exercice métalittéraire. Le dernier chapitre aborde le procédé de re-signification littéraire des images sédimentées de subordination et d’infériorité de sujet « noir ». Nuestra Señora de la Noche se penche sur la re-signification de l’hyper-sexualisation et « exotisation » qui a cimenté la construction de « l’immoralité » de la femme noire. Fe en disfraz aborde le sadomasochisme comme espace de re-signification des schèmes de domination et soumission inscrits dans l’histoire esclavagiste de Porto Rico et du trauma qui origine, et subsiste, d’une telle hiérarchie.
Resumo:
Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.
Resumo:
Ce mémoire explore la question du rapport intérieur-extérieur chez Le Corbusier se questionnant sur la façon dont la notion d’interpénétration spatiale, postulat majeur de l’architecture moderne, est présente dans son discours. À travers l’étude des croquis, photos et notes de son Voyage d’Orient, ainsi que de certains principes architecturaux énoncés dans ses ouvrages théoriques emblématiques des années 1920, nous allons saisir chez Le Corbusier une pensée qui transcende l’idée d’objet architectural et révèle un intérêt spécial porté au site et à la dialectique horizontale-verticale. Certains dispositifs ou éléments architecturaux, tels que la colonnade et la colonne, vont se révéler aux yeux du maître, lorsqu’ils se trouvent dans des espaces de transition entre l’intérieur et l’extérieur, porteurs d’une fonction médiatrice entre l’homme et son milieu, et ce sera par le biais d’un outil de mesure : l’angle droit. Cette recherche entend contribuer à la compréhension de la pensée architecturale de Le Corbusier, notamment en ce qui concerne la relation architecture-paysage en tant qu’expérience phénoménale.
Resumo:
Il est relativement bien établi que les crises focales entraînent une augmentation régionale du flot sanguin dans le but de soutenir la demande énergétique en hémoglobine oxygénée des neurones épileptiques. Des changements hémodynamiques précoces ont également été rapportés dans la région homologue controlatérale, bien que ceci ait été moins bien caractérisé. Dans cette étude, notre objectif est de mieux caractériser, lors de crises focales, la nature des changements hémodynamiques précoces dans la région homologue controlatérale au foyer épileptique. L'imagerie optique intrinsèque (IOI) et la microscopie deux-photons sont utilisées pour étudier les changements hémodynamiques dans la région homologue controlatérale au site de crises focales induites par l’injection de 4-aminopyridine (4-AP) dans le cortex somatosensitif ipsilatéral de souris. Dans l'étude d'IOI, des changements de l’oxyhémoglobine (HbO), de la désoxyhémoglobine (HbR) et du débit sanguin cérébral ont été observées dans la région homologue controlatérale au site de crises focales lors de toutes les crises. Toutefois, ces changements étaient hétérogènes, sans patron cohérent et reproduisible. Nos expériences avec la microscopie deux-photons n’ont pas révélé de changements hémodynamiques significatifs dans la région homotopique controlatérale lors de trains de pointes épileptiques. Nos résultats doivent être interprétés avec prudence compte tenu de plusieurs limitations: d’une part absence de mesures électrophysiologiques dans la région d’intérêt controlatérale au foyer simultanément à l’imagerie deux-photons et à l'IOI; d’autre part, lors des expériences avec le deux-photons, incapacité à générer de longues décharges ictales mais plutôt des trains de pointes, couverture spatiale limitée de la région d’intérêt controlatérale, et faible puissance suite au décès prématuré de plusieurs souris pour diverses raisons techniques. Nous terminons en discutant de divers moyens pour améliorer les expériences futures.
Resumo:
Étant donnée une fonction bornée (supérieurement ou inférieurement) $f:\mathbb{N}^k \To \Real$ par une expression mathématique, le problème de trouver les points extrémaux de $f$ sur chaque ensemble fini $S \subset \mathbb{N}^k$ est bien défini du point de vu classique. Du point de vue de la théorie de la calculabilité néanmoins il faut éviter les cas pathologiques où ce problème a une complexité de Kolmogorov infinie. La principale restriction consiste à définir l'ordre, parce que la comparaison entre les nombres réels n'est pas décidable. On résout ce problème grâce à une structure qui contient deux algorithmes, un algorithme d'analyse réelle récursive pour évaluer la fonction-coût en arithmétique à précision infinie et un autre algorithme qui transforme chaque valeur de cette fonction en un vecteur d'un espace, qui en général est de dimension infinie. On développe trois cas particuliers de cette structure, un de eux correspondant à la méthode d'approximation de Rauzy. Finalement, on établit une comparaison entre les meilleures approximations diophantiennes simultanées obtenues par la méthode de Rauzy (selon l'interprétation donnée ici) et une autre méthode, appelée tétraédrique, que l'on introduit à partir de l'espace vectoriel engendré par les logarithmes de nombres premiers.
Resumo:
Les individus autistes présentent un profil cognitif particulier. Par exemple, contrairement aux non-autistes, ils tendent à obtenir des scores plus élevés au test des Matrices progressives de Raven (RSPM) qu’aux tests de QI de Wechsler. Ils peuvent aussi résoudre les items du RSPM plus rapidement. Les mécanismes cérébraux sous-tendant cette différence sont toutefois encore peu connus. Cette étude vise à caractériser comment l’activité du réseau fronto-pariétal de raisonnement est modulée par la complexité de la tâche chez les individus autistes (AUT) en comparaison à un groupe contrôle (Non-AUT) lors d’une tâche de raisonnement fluide. Pour ce faire, nous avons ré-analysé les données d’une étude précédente, dans laquelle 15 AUT et 18 Non-AUT ont résolu les 60 problèmes du RSPM alors qu’ils se trouvaient dans un scanner IRM. Lorsque la complexité du raisonnement augmentait, nous avons observé une augmentation de l’activité dans des aires occipitales chez le groupe AUT, et dans les régions frontales et pariétales chez le groupe Non-AUT. De plus, alors que la complexité du raisonnement augmentait, la modulation de la connectivité entre les régions impliquées dans le raisonnement était moins grande chez les AUT et ces derniers montraient une implication plus ciblée des aires occipitales lors de cette modulation que les Non-AUT. La moins grande modulation du réseau impliqué dans le raisonnement pour une performance semblable suggère que les individus autistes sont moins affectés par la complexité des tâches de raisonnement non verbal. Aussi, ils dépendent plus de processus visuospatiaux pour résoudre les matrices plus complexes que les participants non-autistes. Ces résultats nous apportent une meilleure compréhension des processus cognitifs impliqués dans l’intelligence autistique et de l’influence positive du sur-fonctionnement perceptif autistique sur celle-ci.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Projet de recherche réalisé avec Bernard Angers comme directeur de maîtrise, Denis Réale en tant que co-directeur et grâce à la collaboration active d'Emmanuel Milot.
Resumo:
Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.
Resumo:
Le processus de vieillissement humain est un processus complexe qui varie grandement d’une personne à l’autre. Malgré l’ampleur des recherches faites sur le sujet, il reste encore beaucoup à explorer et à comprendre. Cette thèse propose trois expériences qui nous permettent d’améliorer notre compréhension des changements qui s’opèrent dans la mémoire de travail visuelle et l’attention visuospatiale avec la prise en âge. La première expérience propose d’examiner les changements dans les capacités de mémoire de travail visuelle entre des jeunes adultes, des adultes âgés sains et des personnes atteintes de trouble cognitif léger (TCL). De plus, grâce à un suivi fait avec les personnes ayant un TCL, nous avons pu examiner si des différences existaient au niveau comportemental entre les âgés qui ont déclinés vers un type de démence et ceux dont l’état est resté stable. Plusieurs techniques peuvent être utilisées pour étudier les effets du vieillissement sur le cerveau. Les tests neuropsychologiques et les tâches comportementales présentées dans la première expérience en sont un exemple. La neuroimagerie peut aussi s’avérer particulièrement utile. En effet, certaines mesures électrophysiologiques, aussi appelées potentiels reliés aux évènements (PRE), sont associées à des fonctions cognitives précises. Ces composantes nous permettent de suivre ces processus et d’observer les modulations causées par les caractéristiques des stimuli ou l’âge par exemple. C’est le cas de la N2pc (négativité 2 postérieure controlatérale) et de la SPCN (sustained posterior contralateral negativity), des composantes électrophysiologiques liées respectivement à l’attention visuospatiale et la mémoire de travail visuelle. On connait bien ces deux composantes ainsi que les facteurs qui les modulent, or elles sont peu utilisées pour les changements qui occurrent dans l’attention et la mémoire de travail visuelle dans le cadre du processus de vieillissement. Les deuxième et troisième expériences proposent d’utiliser une tâche de recherche visuelle (nombre d’items de couleur et identification d’une relation spatiale entre deux items de couleur) afin d’explorer les changements observables sur ces composantes électrophysiologiques. La deuxième expérience examine l’efficacité d’un paradigme à présentations multiples (‘multiple frame’) afin de mesurer la N2pc et la SPCN chez de jeunes adultes. La troisième expérience a pour but d’examiner les effets du vieillissement normal sur l’amplitude et la latence de la N2pc et la SPCN en utilisant le même type de tâche de recherche visuelle.