965 resultados para tradition de la représentation
Resumo:
On ne compte plus le nombre de représentations ou d’adaptations sur la scène ou à l’écran de la pièce de théâtre d’Edmond Rostand, Cyrano de Bergerac. Celle-ci a bénéficié d’un succès considérable en France et dans le monde, de la date de sa première représentation, le 28 décembre 1897, jusqu’à nos jours. Son héros, Cyrano de Bergerac, s’appuie librement sur l’écrivain réel, Savinien de Cyrano de Bergerac, qui vécut au XVIIe siècle mais dont pratiquement plus personne ne connaît l’existence. Aujourd’hui, tout le monde éprouve admiration et tendresse à l’égard du duelliste au grand nez qui, par ses lettres amoureuses, aide le beau Christian à conquérir le cœur de Roxane; mais nul ne lit plus Savinien de Cyrano de Bergerac. Sans doute la pièce de Rostand possède-t-elle de réelles valeurs littéraires, une construction rigoureuse, des personnages élaborés, une écriture poétique et légère, de l’humour, de l’émotion… Et cependant, malgré ces qualités indéniables, il demeure difficile d’expliquer son triomphe. Nous posons l’hypothèse selon laquelle, c’est à la manière dont Edmond Rostand a fait de Cyrano de Bergerac un mythe littéraire entouré de symboles propres à une identité dans laquelle les Français sont susceptibles de se reconnaître - et grâce aussi à un contexte sociopolitique dont il a réussi, volontairement ou pas, à tirer grand parti - qu’est attribuable le succès démesuré de la pièce. Rostand a créé un évangile de cape et d’épée sur fond d’Affaire Dreyfus pour un univers théâtral qui intègre les symboles autour desquels les Français se retrouvent volontiers : gastronomie, élégance, faconde, galanterie, fidélité, honneur, patriotisme, … panache.
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Depuis longtemps déjà, les arts visuels se démarquent par leurs rapports proches quoique créatifs avec les développements technologiques des sociétés modernes. Pour les musées, Internet constitue une opportunité de rejoindre des publics qui s’avèrent de prime abord moins accessibles. Ce nouvel acteur dans le monde de l'art occupe une place croissante dans la présentation des oeuvres tout en jouant un rôle déterminant dans la diffusion et donc dans le retentissement qu'elles ont auprès de publics aux attentes changeantes. Alors que le musée diffusait autrefois ses collections et connaissances par les expositions et les catalogues, le cyberespace est aujourd’hui un nouveau lieu public qu’il lui convient d’investir. L’internaute est souvent isolé dans sa quête d’une « trouvaille » parmi la diversité de l’offre technologique. Nous proposons l’image alternative du flâneur comme métaphore opérationnelle afin d’analyser la relation entre l’internaute et l’exposition. Les oeuvres sont transposées dans le virtuel par le médium numérique, le même langage qui sous-tend l’exposition dans son ensemble, un transfert dont les implications sont nombreuses. La reproduction, par sa nature désacralisée, autorise la manipulation virtuelle. C’est une nouvelle forme de participation qui est exigée des spectateurs, non pas en termes d’acquisition rationnelle de connaissances, mais de manière ludoéducative, par cette même manipulation de l’image. Dans le but de souligner l’authenticité de l’oeuvre originale par la présentation de son équivalent numérique, l’exposition virtuelle est souvent médiatrice et documentaire avant tout, privilégiant l’observation technologique didactique.
Resumo:
Les dinoflagellés jouent un rôle très important dans l’écologie des océans en y réalisant une grande partie de la production primaire, en formant une association symbiotique avec les coraux et en ayant la capacité de produire des fleurs d’algues potentiellement toxiques pour les communautés côtières humaines et animales. Malgré tout, la biologie moléculaire des dinoflagellés n’a que très peu été étudiée dans les dernières années, les connaissances de processus de base comme la régulation de la transcription y étant fortement limitées. Une tentative pour élucider ce mécanisme a été réalisée chez les dinoflagellés photosynthétiques Lingulodinium polyedrum et Amphidinium carterae. Une expérience d’induction de la transcription du gène de la Peridinin chlorophyll-a binding protein, le complexe majeur de collecte de lumière, a été réalisée par une baisse de l’intensité lumineuse et a montré une faible augmentation (moins de 2 fois) du transcrit à court et long terme. Des expériences de simple-hybride et de retard sur gel (EMSA) ont été faits pour identifier de potentielles interactions protéine-ADN dans la région intergénique du gène PCP organisé en tandem. Ces essais ont été infructueux pour identifier de telles protéines. Une analyse du transcriptome de L. polyedrum a été effectuée, montrant une importante sous-représentation de domaines de liaison à l’ADN classique (comme Heat-shock factor, bZIP ou Myb) et une surreprésentation du domaine d’origine bactérienne Cold shock en comparaison avec d’autres eucaryotes unicellulaires. Ce travail suggère que les mécanismes de régulation transcriptionnelle des dinoflagellés pourraient différer substantiellement de ceux des autres eucaryotes.
Resumo:
La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.
Resumo:
Ce mémoire veut, de prime abord, porter un regard sur la rue Saint-Laurent qui, depuis ses débuts, joue un rôle fondamental dans le tissu montréalais. Grâce à son visage bigarré et à son hétérogénéité, elle a su marquer l’histoire de la métropole et alimenter l’imaginaire d’un bon nombre d’écrivains. Michel Tremblay demeure un de ceux qui, dans l’ensemble de son oeuvre, explore le plus abondamment les clairs-obscurs et l’étrangeté de ce corridor urbain. Son écriture à la fois crue, marginale et théâtrale, s’inscrit pertinemment dans l’univers de la Main et, plus particulièrement, dans la partie du Redlight où aboutissent et se meuvent ses personnages les plus colorés. Ayant délaissé leur milieu d’origine, ces derniers s’imposent des changements radicaux afin de mieux cadrer avec la nature et les activités de leur terre d’accueil. Ce mémoire visera donc à penser l’« identité trafiquée » des personnages de Tremblay comme condition de leur inscription sur la rue Saint-Laurent. En outre, il sera question de l’esprit théâtral de cette artère qui pousse les travestis et les artistes en tout genre à se donner « en représentation » et à incarner un rôle de composition. Par l’entremise des masques – notamment celui du déguisement, du maquillage et du travestissement, mais aussi celui de la langue qu’ils modulent afin de mieux coller à leur personnage –, ils projettent une identité individuelle instable qui dévoile l’ambiguïté qui les habite. Plus largement, la présente étude s’intéressera à l’ensemble des marginaux qui arpentent la Main et qui cherchent à (re)définir leur identité culturelle, au milieu des cultures américaine et française. Bien qu’elle essaie de se forger une identité propre, cette collectivité peine à se définir sans calquer les modèles dont elle tente de se dissocier. Une telle contradiction évoque à bien des égards le paradoxe auquel se sont heurtées les communautés immigrantes de la rue Saint-Laurent, dont la lente adaptation à la culture nord-américaine s’est faite non sans un difficile constat de pertes et de gains face à la culture d’origine. Il s’agira donc de voir comment ces groupes, en apparence irréconciliables, trouvent dans le même univers un contexte favorable pour mener leur quête identitaire.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Dans ce mémoire, nous présentons la notion de placage développée par DaryushShayegan. Le placage lie dans un espace interépistémique deux épistémès (tradition et modernité) hétéromorphes. Puisque les deux épistémès ne peuvent être mises en relation sans réduction, leur chevauchement aboutit à des distorsions. En adoptant une posture d’herméneute, nous mettons à nu les structures du texte qui définissent la notion de placage. Puis, nous nous interrogeons sur les « implications non claires », ces aprioris de l’auteur qui marquent le texte. Ce processus nous amène à définir la notion de paradigme (Kuhn), celle d’épistémè (Foucault) et de saisir quelle utilisation en fait DaryushShayegan dans la construction du placage. Dans la seconde partie, nous discutons la problématique de la hiérarchisation des épistémès. Alors que la position de DaryushShayegan comporte des relents de néo-orientalisme, nous voyons que les approches rhizomique et traditionaliste dissolvent la problématique en question.
Resumo:
Ma thèse montre la présence et le rôle de la métaphysique dans Vérité et méthode. Elle tente de démontrer que Gadamer s'inspire du néoplatonisme pour surmonter le subjectivisme de la modernité et propose une métaphysique à cette fin. Après avoir expliqué comment Gadamer se réapproprie l’héritage de la pensée grecque pour critiquer la modernité en situant son interprétation de Platon par rapport à celle de Heidegger, je montre que Gadamer s’approprie la conception de l’être de Plotin de façon telle qu’il peut s’y appuyer pour penser l’autoprésentation de l’être dans l’expérience herméneutique de la vérité. L’art va, pour ce faire, redevenir sous la conduite du néoplatonisme source de vérité. Gadamer redonne en effet une dignité ontologique à l’art grâce à la notion d’émanation, notion qui permet de penser qu’il y a une présence réelle du représenté dans sa représentation, celle-ci émanant du représenté sans l’amoindrir, mais lui apportant au contraire un surcroît d’être. La notion d’émanation permet ensuite à Gadamer d’affirmer le lien indissoluble qui unit les mots aux choses. En effet, la doctrine du verbe intérieur de Thomas d’Aquin implique ce lien que Platon avait occulté en réduisant le langage, comme la logique, à n’être qu’un instrument de domination du réel. L’utilisation de la notion néoplatonicienne d’émanation permet donc de dépasser la philosophie grecque du logos et de mieux rendre compte de l’être de la langue. Je montre ensuite comment Gadamer radicalise sa pensée en affirmant que l’être qui peut être compris est langage, ce qui veut dire que l’être, comme chez Plotin, est autoprésentation de soi-même. Pour ce faire, Gadamer rattache l’être du langage à la métaphysique néoplatonicienne de la lumière. Les dernières pages de Vérité et méthode rappellent en effet que la splendeur du beau est manifestation de la vérité de l’être. On rattachera alors le concept de vérité herméneutique à ses origines métaphysiques. La vérité est une manifestation de l’être dont on ne peut avoir part que si on se laisse submerger par sa lumière. Loin d’être affaire de contrôle méthodique, l’expérience de la vérité exige de se laisser posséder par ce qui est à comprendre. Je démontre ainsi que Gadamer a découvert dans le néoplatonisme des éléments permettant de s’opposer à la dictature du sujet moderne, dictature qui doit être renversée, car elle masque le réel rapport de l’homme à la vérité en faisant abstraction de la finitude de son existence concrète. La critique du subjectivisme moderne sous la conduite du néoplatonisme ouvre ainsi le chemin vers une métaphysique de la finitude.
Resumo:
L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.
Resumo:
Cette thèse porte sur les représentations sociales de la pharmacogénomique (PGx) chez deux groupes d’acteurs centraux du développement et des applications en PGx au Québec. L’objectif est de comprendre comment les chercheurs en PGx et les étudiants en médecine se positionnent à l’égard des découvertes en PGx et de leurs éventuelles applications en pratique médicale. Cette étude a aussi pour objectifs de mieux comprendre comment il est possible d’anticiper l’arrivée de la PGx dans la pratique médicale par le contraste des représentations des chercheurs et des étudiants et de concevoir comment les informations circulent entre les deux groupes. Pour atteindre ces objectifs, l’utilisation du cadre théorique des représentations sociales, et plus particulièrement des représentations sociales dites professionnelles, est retenue. Une démarche multiméthodologique est déterminée pour cerner les représentations des deux groupes. En effet, une approche qualitative par entretiens semi-dirigés est réalisée dans un premier temps auprès des chercheurs et, ensuite, une enquête par questionnaire est effectuée auprès des étudiants en médecine. Les positionnements des deux groupes sont contrastés au sujet de trois concepts clés : les médicaments, la génomique et la PGx. Les principes organisateurs des représentations sociales des étudiants en médecine et des chercheurs, eu égard à ces trois concepts, permet de positionner le niveau des représentations sociales des étudiants en médecine vers leur professionnalisation dans un schéma proposé par Bataille (2000). Ainsi, les étudiants en médecine fournissent des représentations des médicaments assez près de celles des chercheurs. Leurs représentations des avancées en génomique sont beaucoup moins professionnalisées, tandis que l’on remarque une organisation restreinte pour ce qui est de leur représentation de la PGx. Le contexte de formation médicale est interrogé dans cette thèse puisqu’il laisse peu de place aux découvertes et aux recherches de pointe. Les chercheurs autant que les étudiants affirment que la solution pour améliorer leurs connaissances dans le domaine de la PGx est d’ajouter ces connaissances dans leur cadre de leur formation médicale.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
L’échange de fichiers musicaux par Internet permet de faire très exactement ce que toute loi sur le droit d’auteur cherche à interdire : priver de leurs droits les compositeurs, interprètes et agents de distribution des œuvres musicales. Pour l’industrie du disque, le défi est à la fois d’ordre juridique et d’ordre technique. Les lois actuelles sur le droit d’auteur suffiront-elles d’une part à protéger ses intérêts, et dans le cas où les tribunaux acquiesceraient à ses nombreuses demandes, lui faudra-t-il d’autre part tenter de mettre un frein aux progrès technologiques grâce auxquels les internautes peuvent télécharger massivement et en toute impunité leurs pièces musicales préférées? La jurisprudence américaine montre bien que dans les cas où on a cherché aux États-Unis à se servir de la loi sur le droit d’auteur pour bloquer l’utilisation d’une technologie innovatrice, les tribunaux, pour des motifs politiques et juridiques, n’ont fait preuve d’aucune sympathie pour les titulaires de droits d’auteur. En fait, lorsque les tribunaux ont cherché à trop restreindre l’utilisation d’un nouveau mode de dissémination des œuvres, le Congrès est intervenu pour rétablir l’équilibre entre les intérêts des créateurs et ceux des utilisateurs de cette technologie. Au Canada, le droit protège très bien les compositeurs et les interprètes, mais beaucoup moins bien les compagnies de disques. En ce moment, la loi canadienne sur le droit d’auteur accorde à ces dernières un droit d’auteur limité sur leurs produits. Elles peuvent multiplier les exemplaires d’un disque, et le « reproduire sur un support matériel quelconque ». C’est ici que naissent les difficultés : les compagnies productrices de disques n’ont pas un droit clairement identifié à l’égard d’une « représentation » de l’œuvre musicale ou d’une « exécution publique » ou d’une « transmission au public par télécommunication ». Le Parlement canadien aura des choix importants à faire.
Resumo:
Pour la pensée humaine, l’image a toujours constitué une interrogation laissée sans réponse définitive : de l’interdit biblique à la possibilité technologique infinie, l’image a traversé des étapes conceptuelles complexes et hétérogènes. Aujourd’hui, on conçoit l’image comme une présence incontournable de l’existence quotidienne et comme une forme de réflexion mystérieuse. Cette thèse propose une analyse de la vision sur l’image chez Walter Benjamin et Aby Warburg à travers quelques concepts essentiels : image de pensée, survivance, espace de pensée, coupure, représentation de l’histoire. Située énigmatiquement entre les arts visuels et la pensée philosophique, l’image devient un sujet de réflexion à la fin du 19e siècle et au début du 20e siècle; les deux penseurs mentionnés ont été les premiers à interroger les valeurs conceptuelles de l’image et à chercher de l’évoquer en tant que spectre de la pensée. Les morceaux aphoristiques et les articles critiques de Benjamin rencontrent discrètement les études esthétiques de Warburg au point où l’idée de l’image amorce toute réflexion. Pour l’imaginaire contemporain, les structures conceptuelles bâties par Benjamin et Warburg constituent des éléments dominants dans l’engrenage réflexif atonal d’aujourd’hui. Lorsque le Denkraum (espace de pensée) et le Denkbild (image de pensée) gèrent la dynamique de la philosophie de Benjamin et Warburg, le Nachleben (survie) et la coupure nuancent le grand tableau de l’histoire (Geschichtsdarstellung). L’analyse comparatiste de ces concepts aboutit à la conclusion que l’image est intimement et paradoxalement liée à la vision de l’histoire; en fait, l’image n’est qu’une représentation de l’histoire qui, à son tour, se représente dans chaque image.
Resumo:
Ce mémoire démontre que la pratique littéraire de l’écrivain américain Ralph Waldo Emerson s’inscrit dans le sillage de la tradition des exercices spirituels mise au jour par l’helléniste Pierre Hadot et qu’elle permet de penser une modernité insoupçonnée par ce dernier. La production de textes littéraires devient alors une manière d’établir « une relation originale avec l’univers » (cf. l’introduction de Nature). Le premier chapitre explique la spécificité de la spiritualité traditionnelle, où l’écriture consiste à implanter en soi le texte de la tradition. La pratique littéraire de Marc Aurèle, Sénèque et saint Augustin est étudiée afin de montrer comment ils tâchent de vivre conformément à la conception de la transcendance qui est la leur : personnelle chez les stoïciens, institutionnelle chez les chrétiens. Le deuxième chapitre montre comment Emerson renverse le rapport traditionnel au texte dans la vie de l’esprit en arguant que la révélation du Christ est, à l’origine, une expérience personnelle de la transcendance qui n’est pas institutionnalisable. Il se dégage de cette confrontation romantique avec le christianisme un concept de littérature lié au mysticisme et inséparable d’une compréhension « expressiviste » du langage (Charles Taylor). Le dernier chapitre examine l’ascèse littéraire d’Emerson : sa conception antiscolastique du « scholar » est étudiée puis mise en relief avec sa façon d’arrimer sa pratique de la pensée à une conception fluctuante de l’univers. La dernière section porte sur la façon dont son mode de vie expérimental suppose une conception de la littérature en tant que processus.