396 resultados para Philippe le Beau, roi de Castille. Poème de Molinet sur cet événement
Resumo:
Ce mémoire revient sur la première tutelle de la Ville de Montréal, imposée par le gouvernement provincial de 1918 à 1921. Pour l’occasion, le Lieutenant-gouverneur du Québec nomme cinq administrateurs afin de gérer les affaires courantes de la municipalité. Peu connu des historiens et du public, cet événement suscite des changements profonds dans les structures politiques et administratives de la Ville qui laissent des empreintes dans la vie quotidienne actuelle des Montréalais. Puisqu’ils ne sont pas redevables devant la population, les commissaires mettent en œuvre plusieurs réformes souvent impopulaires qui permettent de rétablir l’équilibre budgétaire de la Ville. Au passage, ils tentent de moderniser l’administration municipale dont le fonctionnement est jusque-là incompatible avec les réalités d’une population grandissante et d’un espace urbain accru par les nombreuses annexions. Notre étude souligne les réformes implantées par la Commission administrative au niveau de la fiscalité, de l’organisation des services municipaux et des politiques d'urbanisme. Elles s’inspirent de réformes mises en œuvre dans plusieurs villes nord-américaines de grande taille. Durant leur mandat, les nouveaux administrateurs cherchent à imposer un modèle d’administration s’inspirant de grandes entreprises privées et réussissent à réduire de manière substantielle le déficit de la Ville. Enfin, une attention particulière est accordée à la fin du mandat de la Commission administrative et au régime administratif qui lui fait suite.
Resumo:
Ce cahier de recherche fait état des travaux menés au cours de la première étape (2013-2014) du projet « Archives et création : nouvelles perspectives sur l’archivistique ». Il comprend les textes suivants : Yvon Lemay et Anne Klein, « Introduction », p. 4-6; Yvon Lemay, « Archives et création : nouvelles perspectives sur l’archivistique », p. 7-19; Anne-Marie Lacombe, « Exploitation des archives à des fins de création : un aperçu de la littérature », p. 20-59; Simon Côté-Lapointe, « Archives sonores et création : une pratique à la croisée des chemins », p. 60-83; Hélène Brousseau, « Fibres, archives et société », p. 84-104; Annie Lecompte-Chauvin, « Comment les archives entrent dans nos vies par le biais de la littérature », p. 105-120; Aude Bertrand, « Valeurs, usages et usagers des archives », p. 121-150; Laure Guitard, « Indexation, émotions, archives », p. 151-168; Anne Klein, Denis Lessard et Anne-Marie Lacombe, « Archives et mise en archives dans le champ culturel. Synthèse du colloque « Archives et création, regards croisés : tournant archivistique, courant artistique », p. 169-178. De plus, dans le but de situer le projet dans un contexte plus large, le cahier inclut une bibliographie des travaux effectués sur les archives et la création depuis 2007, p. 179-182.
Resumo:
Différents dessins d’implants de prothèse totale de genou (PTG) sont utilisés en pratique clinique et chacun présente des caractéristiques biomécaniques spécifiques. Aucun implant n’a réussi à ce jour à reproduire parfaitement la biomécanique du genou naturel. Les objectifs de cette étude sont de comparer les résultats cliniques et biomécaniques tridimensionnels (3D) de deux types de PTG chez le même patient, puis de comparer la cinématique des PTG à celle d’un groupe de genoux asymptomatiques. Une cohorte de quinze patients avec un implant traditionnel dans un genou et un implant de nouvelle génération permettant un pivot dans le genou contralatéral a été étudiée. Le groupe contrôle était composé de trente-cinq genoux asymptomatiques. L’analyse de la cinématique 3D a été réalisée avec l’outil KneeKG (Emovi Inc. Canada) lors de la marche sur tapis roulant. L’évaluation clinique comprenait l’amplitude de mouvement ainsi que les questionnaires de perception articulaire, KOOS, Womac et SF-12. La comparaison de la cinématique des deux types de PTG a démontré quelques différences statistiquement significatives dans les plans sagittal et frontal alors que la comparaison des PTG et des genoux asymptomatiques a révélé plusieurs différences significatives dans les trois plans. Les scores cliniques des deux PTG ne comportaient pas de différence significative. Dans notre cohorte de patients, le design de l’implant a eu peu d’influence sur les résultats biomécaniques et cliniques. Les PTG n’ont pas reproduit une cinématique normale de genou. Beaucoup de travail et de recherche dans le développement de nouveaux implants sont encore nécessaires afin d’améliorer les résultats cliniques et de mieux reproduire la cinématique du genou naturel.
Resumo:
La collusion est une pratique anticoncurrentielle qui a pour but la coopération de personnes morales afin d’atteindre un but commun tel que le profit. Cette méthode se retrouve dans le milieu de la construction notamment par la rotation de contrat, par la fixation de prix ou le débalancement de bordereaux. Bien que la collusion dans la construction soit souvent associée au crime organisé, cette étude propose l’hypothèse d’un contrôle du marché par le crime organisant et non le crime organisé. Ainsi, l’industrie de la construction serait influencée par une organisation en mouvance et en développement constant pouvant s’organiser tout en organisant d’autres noyaux. En analysant le marché de l’industrie de la construction, cette étude a pu relever qu’il était possible à l’aide d’outils quantitatifs tels que l’analyse de classification d’identifier des irrégularités au sein du marché, au fil des années. Des entrevues passées auprès d’acteurs du domaine de la construction sont venues confirmer l’hypothèse d’un contrôle du marché par le crime organisant et non le crime organisé. L’analyse qualitative se penchait ainsi sur les motivations des acteurs à entreprendre des pratiques anticoncurrentielles et sur la compréhension de l’émergence de la collusion dans la construction. La discussion identifie les opportunités criminelles, de même que les problématiques survenant dans le milieu de la construction et pouvant influencer l’émergence de la collusion. Ces problématiques concernent les contributions aux partis politiques, le truquage des devis et bordereaux par les firmes de consultants, l’impunité des autorités, l’historicité des entrepreneurs, l’idéologie de marché et les problématiques liées au cautionnement. Enfin, des solutions adaptées à la réalité de l’industrie de la construction en tenant compte des facteurs de risque ont été identifiées.
Resumo:
La concentration locale des messagers chimiques sécrétés par les cellules peut être mesurée afin de mieux comprendre les mécanismes moléculaires liés à diverses maladies, dont les métastases du cancer. De nouvelles techniques analytiques sont requises pour effectuer ces mesures locales de marqueurs biologiques à proximité des cellules. Ce mémoire présentera le développement d’une nouvelle technique basée sur la réponse plasmonique sur des leviers AFM, permettant d’étudier les réactions chimiques et biologiques à la surface des leviers grâce au phénomène de résonance des plasmons de surface (SPR), ainsi qu’à la diffusion Raman exaltée par effet de pointe (TERS). En effet, il est possible de localiser l’amplification du signal Raman à la pointe d’un levier AFM, tout comme le principe de la diffusion Raman exaltée par effet de surface (SERS) basée sur la diffusion de la lumière par des nanoparticules métalliques, et permettant une large amplification du signal Raman. La surface du levier est recouverte d’une nano-couche métallique d’or, suivi par des réactions biologiques pour l’immobilisation d’un récepteur moléculaire, créant ainsi un biocapteur sur la pointe du levier. Une détection secondaire utilisant des nanoparticules d’or conjuguées à un anticorps secondaire permet également une amplification du signal SPR et Raman lors de la détection d’antigène. Ce mémoire démontrera le développement et la validation de la détection de l’immunoglobuline G (IgG) sur la pointe du levier AFM.Dans des projets futurs, cette nouvelle technique d’instrumentation et d’imagerie sera optimisée grâce à la création d’un micro-détecteur protéique généralement adapté pour l’étude de la communication cellulaire. En intégrant le signal SPR à la microscopie AFM, il sera alors possible de développer des biocapteurs SPR couplés à une sonde à balayage, ce qui permettra d’effectuer une analyse topographique et de l’environnement chimique d’échantillons cellulaires en temps réel, pour la mesure des messagers moléculaires sécrétés dans la matrice extracellulaire, lors de la communication cellulaire.
Resumo:
Depuis plus de trente ans, le Québec a pris position en faveur d’un mouvement de professionnalisation de l’enseignement. Ce choix se fonde principalement sur la volonté de moderniser les systèmes d’éducation grâce à la consolidation d’une expertise du travail enseignant. Elle a donc engendré toute une série de réformes visant à formaliser les pratiques des enseignants, à les appuyer sur les résultats de la recherche et à développer un code de pratiques responsables. Cependant, dans une perspective critique, ce processus de professionnalisation entre également dans le cadre plus large d’un processus de rationalisation étatique. Il exige de plus en plus des enseignants de faire preuve d’efficacité à tout prix, mais cette exigence ne tient pas compte de l’incertitude de l’action et des valeurs en jeu. Cette thèse vise à analyser, à partir d’une perspective critique, la conception de l’articulation entre la recherche et la pratique sous-jacente au mouvement de professionnalisation en vue de proposer une conception plus adéquate en regard de la réalité pratique: la traduction. Ce faisant, la thèse propose une réflexion sur le rôle transformateur du langage dans tout processus de transmission des connaissances. L’approche de la traduction s'inspire à la fois de la tradition herméneutique et de la critique poststructuraliste, et remet en question la conception du langage comme véhicule transparent de la pensée et des connaissances. À la lumière de ce cadre, je propose une analyse empirique (analyses discursive et sémiotique) des mécanismes de traduction qui assurent le passage du monde de la recherche vers le monde de l'enseignement. Cette partie repose sur une analyse comparative d’articles provenant de la revue Vie pédagogique, analyse qui se concentre sur les processus de traductions à l’œuvre dans trois concepts centraux du mouvement de professionnalisation : la pratique réflexive, la compétence et la collaboration. Elle met en lumière la manière dont le cadre actuel de la professionnalisation est réducteur, totalisant, et nie le caractère traductif du langage et de l’activité humaine. Je conclus avec une reconceptualisation de l'enseignement en tant que traduction et acte de profession de foi.
Resumo:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.
Resumo:
Il s'agit d'une hypothèse largement répandue que l’égo-dystonie et l’égo-syntonie caractérisent les obsessions dans les troubles des conduites alimentaires (TCA) et que ces facteurs sont cliniquement pertinents pour la conceptualisation et le traitement des TCA. Cependant, les résultats empiriques sur ce sujet sont rares. Compte tenu du chevauchement reconnu entre les TCA, notamment l'anorexie et la boulimie (BN), et le trouble obsessionnel-compulsif (TOC) dans la phénoménologie et les caractéristiques psychologiques, un programme de thérapie cognitive basée sur les inférences (TBI) de 24 semaines, démontré efficace dans le traitement des TOC, a été adapté pour traiter les TCA. La recherche sur le TOC suggère que la transformation des pensées intrusives en obsessions est liée à la mesure dans laquelle les pensées intrusives menacent des perceptions fondamentales du soi et de l’identité. Cette thèse a pour objectif d'examiner le lien entre l’égo-dystonie et les TCA. Pour se faire, nous avons exploré le lien entre la nature égo-dystone des obsessions chez les patients souffrant d'un TCA et la peur de l'image de soi. Nous avons également étudié la relation entre la sévérité des symptômes TCA et l’égo-dystonie dans les obsessions. En outre, nous avons investigué les différences dans la présence de pensées égo-dystones et de peur face à son identité entre des sujets non-cliniques et des personnes atteintes d’un TCA. Enfin, nous avons comparé le degré d’égo-dystonie dans les pensées de personnes atteintes d’un TCA à celui dans les pensées d’individus souffrant d’un TOC. L’égo-dystonie dans les pensées a été mesurée par l'Ego Dystonicity Questionnaire (EDQ) et le degré de peur face à l’identité a été mesuré par le Fear of Self Questionnaire (FSQ) d’une part dans un échantillon de femmes souffrant d’un TCA (n = 57) et d’autre part dans un échantillon de participantes non-cliniques (n = 45). Les résultats révèlent que l’égo-dystonie et la peur face à l’identité étaient fortement corrélées à la fois dans l’échantillon clinique et non-clinique. Les scores de l’EDQ n’étaient pas significativement corrélés à la sévérité des symptômes TCA à l'exception de la sous-échelle d’irrationalité de l’EDQ qui était fortement associée à la sévérité des comportements compulsifs compensatoires. Les participantes souffrant d'un TCA avaient des scores significativement plus élevés à l’EDQ et au FSQ que les sujets non-cliniques. Ensuite, une étude de cas décrit l’application du programme de thérapie cognitive TBI pour une femme de 35 ans avec un diagnostic de BN. La pathologie TCA s’est significativement améliorée au cours de la TBI et six mois suivant la thérapie. Cette étude de cas met en évidence l'importance de cibler les idées surévaluées, les doutes et le raisonnement face au soi et à l’identité dans le traitement psychologique pour les TCA. Enfin, l’objectif final de cette thèse était d’examiner les changements au niveau (1) des symptômes TCA, (2) du degré d’égo-syntonie dans les obsessions, et (3) des mesures de peur face à l’identité, de motivation, d’humeur et d’anxiété au cours de la TBI et au suivi post six mois. L’égo-dystonie, la peur face à l’identité, les symptômes TCA et le stade motivationnel ont été mesurés chez 15 femmes souffrant de BN au cours du traitement et six mois après la TBI. Quatre vingt pourcent de l’échantillon, soit 12 des 15 participantes, ont démontré une diminution cliniquement significative des symptômes TCA et 53% ont cessé leurs comportements compensatoires au suivi post six mois. Les retombées cliniques relatives au traitement des TCA sont discutées.
Resumo:
Ce mémoire présente une analyse des représentations de dix-sept enseignants quant à l’intégration linguistique, socioscolaire, scolaire et sociale d’élèves allophones immigrants dans trois écoles secondaires pluriethniques de la région de Montréal. Cette étude a eu lieu dans le cadre d’un projet visant à décrire les modèles de services destinés aux élèves allophones immigrants à travers les perceptions d’acteurs scolaires québécois (De Koninck, Z. et F. Armand, 2012). Les représentations de huit enseignants de classes d’accueil et celles de neuf enseignants de classes ordinaires ont été dégagées à partir d’une analyse thématique de leur discours recueilli au moyen de six entrevues de groupe. Le questionnaire d’entrevue a mené les enseignants à dresser des bilans de l’intégration d’élèves allophones immigrants et à porter un regard sur leurs rôles. L’interprétation des résultats a permis de situer les représentations de l’intégration des enseignants sur un continuum d’acculturation. Les résultats révèlent que les enseignants de classes d’accueil ont généralement mis l’accent sur le bien-être affectif de leurs élèves et sur l’enseignement du français langue seconde, alors que les enseignants de classes ordinaires ont souvent rapporté traiter tous leurs élèves de manière égale. Par contre, des préoccupations en lien avec la place de la langue française au Québec ont mené plusieurs enseignants à justifier des dynamiques de ségrégation et à se représenter la langue maternelle et le milieu familial des élèves allophones immigrants comme des obstacles à l’intégration. Lorsqu’on les situe sur un continuum d’acculturation, les représentations de l’intégration de certains enseignants tendent vers le modèle interculturel, alors que celles d’autres enseignants se rapprochent de l’assimilation.
Resumo:
La musique est universelle et le chant est le moyen d’expression musicale le plus accessible à tous. Les enfants chantent spontanément entre un an et un an et demi (Ostwald, 1973). Pourtant, le développement de cette habileté est très peu étudié en neuropsychologie et ce, malgré le fait qu’elle représente une immense source d’informations sur le traitement de la musique par le cerveau. Les études proposées ici visaient à mieux comprendre le développement normal et pathologique des fonctions perceptives et vocales. Dans un premier temps, une étude sur le chant normal chez les enfants de 6 à 11 ans est présentée. Le développement du chant de 79 enfants d’âge scolaire y est analysé de manière systématique et objective. Cette étude se penche plus particulièrement sur l’influence de l’âge ainsi que d’autres facteurs (le genre, la perception musicale, la présence de paroles et la présence d’un accompagnement vocal) sur la qualité du chant. Les jeunes participants ont chanté une chanson familière dans différentes conditions, soit avec et sans paroles, après un modèle ainsi qu’à l’unisson avec ce dernier. Suite à l’analyse acoustique des performances, différentes variables mélodiques et rythmiques telles que le nombre d’erreurs d’intervalles, le nombre d’erreurs de contours, la taille des déviations d’intervalles, le nombre d’erreurs rythmiques, la taille des déviations temporelles et le tempo, ont été calculés. Les résultats montrent que certaines habiletés de base liées au chant se développent toujours après 6 ans. Toutefois, le rythme est maîtrisé plus tôt, et les enfants d’âges scolaires réussissent parfois mieux que les adultes sur le plan rythmique. De plus, il est plus difficile pour les enfants de chanter avec des ii paroles que sur une syllabe et chanter à l’unisson représente un défi plus grand que chanter après un modèle. Par ailleurs, le nombre d’erreurs de contours, d’intervalles et de rythme, de même que la taille des erreurs rythmiques, sont liés à nos mesures de perception musicale. La seconde étude présente le premier cas documenté d’amusie congénitale chez l’enfant. Elle implique l’analyse de la perception musicale et du chant d’une fillette de 10 ans nous ayant été référée par son directeur de chorale. De sévères déficits ont été relevés chez elle et un diagnostic d’amusie congénitale fut posé. En effet, ses résultats aux tests visant à évaluer sa perception musicale indiquent d’importantes difficultés tant sur le plan de la discrimination des différences mélodiques et rythmiques, qu’au niveau de la mémoire des mélodies. La fillette présente des lacunes claires quant à la perception des fines différences de hauteurs. L’analyse des réponses cérébrales en potentiels évoqués suggère que l’enfant souffre de déficits situés tôt au cours des processus de traitement auditif, tel que démontré par l’absence de négativité de discordance (MMN). Le chant de la jeune fille est lui aussi déficitaire, particulièrement en ce qui concerne le nombre d’erreurs d’intervalles et leurs tailles. En conclusion, nos études montrent que les aptitudes pour le chant sont toujours en développement au cours des premières années de scolarisation. Ce développement peut être entravé par la présence d’un déficit lié spécifiquement à la perception musicale. Pour la première fois, l’amusie congénitale, sera décrite chez l’enfant.
Resumo:
Les archives sont aujourd’hui utilisées et envisagées hors de leur lieu traditionnel qu’est le service d’archives et souvent même hors de l’action des archivistes. Cette thèse de doctorat propose un renversement dialectique benjaminien dans la conception de l’archivistique dont le point central devient l’utilisation des archives définitives plutôt que la production des documents. Les premiers chapitres retracent les différentes compréhensions des archives depuis la création des institutions nationales au 19e siècle jusqu’au renouvellement opéré par certains archivistes se réclamant de la postmodernité à la fin du 20e siècle. Cette histoire des archives et de l’archivistique montre que les archives définitives sont caractérisées au regard du rapport au passé qu’elles permettent et que les archivistes pensent leur objet depuis la question historiographique de l’écriture de l’histoire. Ainsi, deux conceptions générales des archives coexistent aujourd’hui et apparaissent comme essentiellement contradictoires en ce que l’une (traditionnelle) est centrée sur le créateur des documents et le passé compris comme l’ensemble des actes posés par le créateur, tandis que l’autre (postmoderne) se fonde sur les fonctions sociales des archives et sur le rôle de l’archiviste. L’élément commun à ces deux visions est l’absence de prise en charge théorique des utilisateurs et de l’exploitation des documents. Or, en suivant les traces et la pensée de Walter Benjamin, nous proposons de penser la double nature des archives comme documents et comme témoignage tout en articulant cette pensée à l’archive comme modalité d’inscription de soi dans le temps. Il en ressort que les archives peuvent être considérées comme une objectivation du passé relevant d’une temporalité chronologique au cœur de laquelle réside, à l’état latent, l’archive potentiellement libératrice. L’exploitation artistique des archives, telle qu’elle est présentée dans le cinquième chapitre, montre comment la notion d’archives explose. En outre, l’observation de ce type particulier d’exploitation permet de mettre au jour le fait que les archives sont toujours inscrites dans des conditions d’utilisation (contexte, matérialité, dispositif, rapport au public) qui sont autant de conditions d’existence de l’archive. Parmi les questions abordées par les artistes celles de la mémoire, de l’authenticité, des archives comme moyen d’appropriation du monde et comme objet poétique sont alors autant de points d’entrée possibles pour revisiter l’archivistique. Le dernier chapitre synthétise l’ensemble des renouvellements proposés au fil de la thèse de manière implicite ou explicite. Nous y envisageons une temporalité non chronologique où les archives sont un objet du passé qui, saisi par un présent dialectique singulier, sont tournées à la fois vers le passé et vers l’avenir. De nouvelles perspectives sont ouvertes pour l’archivistique à partir des caractéristiques assignées aux archives par les artistes. Finalement, c’est le cycle de vie des archives qui peut être revu en y incluant l’exploitation comme dimension essentielle.
Resumo:
La nature iconoclaste de l'ère postmoderne se manifeste dans une révolution contre les normes littéraires préétablies. Cet iconoclasme est plus flagrant dans la fantaisie urbaine. Dans un environnement désordonné, fragmenté et très stéréotypé, la fantaisie urbaine est considérée comme un événement qui défie tout jugement, et toute stratification sociale. Bien qu'elle ait été bien accueillie par les lecteurs et qu'elle a obtenue de fortes ventes, c'est seulement depuis deux décennies que ces genres ont commencé à attirer l'attention académique. Ce travail peut être considéré comme une tentative pour comprendre la fantaisie urbaine à travers la série d'une de ses écrivains les plus éminents, Laurell K. Hamilton. En conséquence, j’ai choisi trois romans de sa série Anita Blake: Guilty Pleasures (1993), Circus of the Damned (1995) et Blue Moon (1998). Les paramètres stylistiques et thématiques dans ses romans créent une philosophie postmoderne de subversion, qui valide et invalide les discussions sur la structure du signe, la violence, et la réaction du lecteur. Le premier chapitre étudie la construction du sens à travers la structure de la langue de la fantaisie urbaine. Il traite la signification que le résultat de l'interaction entre les différents signes linguistiques. Il suit également l'évolution de ce que Derrida appelle «inflated signs», qui sont au coeur de la régénération du sens à travers les romans. La saturation dans ces signes implique une «absence» qui s'affiche à travers la désintégration du système de la langue et les ruptures récurrentes de sa structure globale. Le deuxième chapitre se concentre sur les tendances de la violence dans les romans de la fantaisie urbaine qui rendent les jeux de pouvoir des personnages truculents et leurs réactions apparaissent inadmissibles. Il examine la violence par rapport à ses causes et sa ii logique. Grâce aux concepts de Derrida de l’‘arché-violence’, de ‘décision’ et de ‘sacrifice,’ je démontre que la violence est inévitable dans le monde créé de Hamilton et dans le monde qu'elle simule. Le troisième chapitre examine la réaction du lecteur sur les événements exotiques et la caractérisation paranormale des romans de Hamilton. Il révèle comment la fantaisie urbaine conteste la conception de Wolfgang Iser de réaction du lecteur et le concept d'‘apparence’ de Jean Baudrillard. J’insiste sur le fait que les lecteurs de la fantaisie urbaine ne sont plus des interprètes ou des réceptifs passifs d'images paranormaux. En effet, l'interaction entre l’auteur et le lecteur, que ces romans entrainent, défie ces conceptions réductrices de la réaction du lecteur.
Resumo:
L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.
Resumo:
Notre thèse décrit et analyse les conditions esthétiques, matérielles et idéelles qui rendent possibles les agencements sonores du cinéma contemporain. Au cours des 30 dernières années, le raffinement des outils de manipulation du son, l’importance grandissante du concepteur sonore et le nouvel espace de cohabitation des sons (favorisé par le Dolby et la diffusion multicanal) sont des facteurs qui ont transformé la création et l’écoute du son au cinéma. Ces transformations révèlent un nouveau paradigme : le mixage s’est graduellement imposé comme le geste perceptif et créateur qui rend compte de la sensibilité contemporaine. Notre thèse explore les effets de la pensée du mixage (qui procède par résonance, simultanéité, dosage et modulation) sur notre écoute et notre compréhension de l'expérience cinématographique. À l'aide de paroles de concepteurs sonores (Murch, Beaugrand, Thom, Allard…), de textes théoriques sur le son filmique (Cardinal, Chion, Campan), de documentaires sur des musiciens improvisateurs (Lussier, Glennie, Frith), de films de fiction à la dimension sonore affirmée (Denis, Van Sant), de textes philosophiques sur la perception (Leibniz, James, Straus, Szendy…), d'analyses du dispositif sonore cinématographique, notre thèse rend audibles des tensions, des récurrences, de nouveaux agencements, des problèmes actuels et inactuels qui forgent et orientent l'écoute du théoricien, du créateur et de l'auditeur. En interrogeant la dimension sonore de la perception, de l’action, de l’espace et de la pensée, cette thèse a pour objectif de modifier la façon dont on écoute, crée et pense le son au cinéma.
Resumo:
Ce mémoire traite de la question suivante: est-ce que les cobordismes lagrangiens préservent l'uniréglage? Dans les deux premiers chapitres, on présente en survol la théorie des courbes pseudo-holomorphes nécessaire. On examine d'abord en détail la preuve que les espaces de courbes $ J $-holomorphes simples est une variété de dimension finie. On présente ensuite les résultats nécessaires à la compactification de ces espaces pour arriver à la définition des invariants de Gromov-Witten. Le troisième chapitre traite ensuite de quelques résultats sur la propriété d'uniréglage, ce qu'elle entraine et comment elle peut être démontrée. Le quatrième chapitre est consacré à la définition et la description de l'homologie quantique, en particulier celle des cobordismes lagrangiens, ainsi que sa structure d'anneau et de module qui sont finalement utilisées dans le dernier chapitre pour présenter quelques cas ou la conjecture tient.