999 resultados para Point de vue
Resumo:
L’aspect visuel dans les Illuminations de Rimbaud nous a amenés à nous demander s’il était possible d’adapter ces poèmes au cinéma. Il y a eu bien sûr plusieurs recherches sur le cinéma des années 20 qui exploraient la création poétique. D’autres recherches ont été menées pour trouver des traces de poésie dans des films narratifs un peu plus conventionnels. Bien que ces études soient fort intéressantes, nous voulions tendre vers une démarche plus radicale. Notre travail de recherche avait pour but de trouver le moyen de faire une adaptation de poème complètement autonome de l’œuvre originelle. Bien que nous nous soyons penchés sur les textes Surréalistes par l’entremise de Man Ray, nous avons aussi étudié des tentatives plus récentes d’adaptation de poèmes au cinéma. Nous avons découvert un lien entre ces adaptations et la notion d’altérité. C’est pourquoi nous avons décidé de traiter de notre sujet sous l’angle de l’altérité du point de vue philosophique. D’ailleurs, les trois films que nous avons retenus pour notre travail de recherche présentent des situations de marginalisation. La marginalisation est l’un des aspects de l’altérité qui nous intéressent. Le premier chapitre de ce mémoire est destiné à établir ce que nous entendons par altérité. Dans le deuxième chapitre, nous abordons l’adaptation de la poésie au cinéma en lien avec l’altérité. Nous avons adapté dix-huit poèmes des Illuminations de Rimbaud sous la forme d’un scénario dans la deuxième partie de ce mémoire afin de tenter d’explorer ce que nous avons établi dans notre partie théorique.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
L’asthme professionnel est une maladie fréquente, qui coûte cher, qui touche des travailleurs jeunes, dont le diagnostic est difficile et avec d’importantes conséquences socio-économiques. La prévention occupe une place centrale dans la gestion de l’asthme professionnel, d’un point de vue de santé publique. Ce mémoire de maîtrise présente trois articles rapportant des développements récents en matière de prévention de l’asthme professionnel. Tout d’abord, une revue de la littérature sur les agents sensibilisants de bas poids moléculaire dans l’asthme professionnel entre 2000 et 2010 recense 41 nouveaux agents et insiste sur l’importance de mettre à jour régulièrement les bases de données afin d’améliorer la prévention primaire. Ensuite, basé sur un cas clinique, la deuxième publication présente l’utilité potentielle du modèle d’analyse de risque QSAR (Quantitative Structure-Activity Relationship) dans le processus diagnostique de l’asthme professionnel, notamment lors d’une exposition multiple à des agents sensibilisants. Enfin, le troisième article présente la performance en milieu clinique du premier questionnaire de dépistage spécifique à l’asthme professionnel. Un modèle simple associant 8 items du questionnaire, l’âge des travailleurs et leur durée d’exposition professionnelle permet de discriminer 80% des 169 sujets adressés pour suspicion d’asthme professionnel. Un tel modèle pourrait être intégré dans les programmes de surveillance médicale qui constituent la base de la prévention secondaire. Ces trois publications insistent sur les possibilités d’explorer de nouveaux outils préventifs dans le domaine de l’asthme professionnel, outils qui ouvrent des perspectives de développements futurs dont les implications cliniques et socio-économiques peuvent être importantes.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Co-auteurs de l'article: Karine Morin, Jacalyn Guy, Claudine Habak, Hugh, R. Wilson, Linda S.Pagani, Laurent Mottron, Armando Bertone
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Réalisé en cotutelle avec l'Université de Paris-Sorbonne (Paris IV).
Resumo:
Les risques liés à l’environnement immédiat, notamment le manque d’accès à l’eau potable, à l’assainissement, à un logement décent et à un milieu de vie sain constituent un des facteurs à l’origine de la mauvaise santé des enfants de moins de cinq ans dans les pays en développement. Les objectifs principaux poursuivis dans cette recherche sont de mesurer l’influence de ces risques de l’environnement immédiat sur la prévalence des symptômes des troubles oculaires et celle des symptômes des troubles cutanés chez les enfants de moins de cinq ans à Ouagadougou et de rechercher les autres déterminants sous-jacents de la prévalence de ces symptômes dans cette ville. Nous utilisons les données de l’enquête réalisée en février 2010 sur l’état de santé et le comportement sanitaire associé aux maladies et symptômes récents et les données sur les événements démographiques et sur les conditions de vie des ménages collectées en mai 2009 durant le round 1 de l’enquête ménage. L’échantillon de l’étude est constitué de 950 enfants issus de 736 ménages sélectionnés aléatoirement dans cinq quartiers périphériques de la ville de Ouagadougou. Nous avons recouru à l’analyse descriptive fondée sur les tableaux croisés et les tests du chi-2, et à l’analyse de la régression logistique multivariée ayant permis d’étudier les risques relatifs de la survenue desdits symptômes. L’analyse descriptive montre que certaines variables de l’environnement immédiat, en l’occurrence le mode d’évacuation des ordures ménagères, le type de toilette utilisé le plus souvent par la plupart des membres du ménage et le type de quartier de résidence, sont associés à la prévalence des troubles oculaires. Mais une analyse approfondie à l’aide de la régression logistique multivariée n’a confirmé que l’effet du type de quartier de résidence. Concernant la prévalence des symptômes des troubles cutanés, en analyse bi-variée, les variables de l’environnement immédiat qui y sont associées sont la nature du sol intérieur et le mode d’évacuation des eaux usées. L’analyse multivariée semble confirmer les effets de ces variables. Nous avons relevé quelques limites des données utilisées, notamment la faible taille de l’échantillon, la non-confirmation par voie médicale des données sanitaires et le caractère transversal desdites données. Toutefois, les résultats trouvés pourront être utiles aux planificateurs et décideurs qui ont la charge de la gestion de l’espace urbain dans le but de mieux concevoir de nouvelles politiques urbaines mettant l’accent sur la restructuration des quartiers précaires afin de mieux combattre les maladies évitables. En conclusion, en tenant compte des limites relevées, il serait utile de procéder à d’autres investigations afin de tirer des conclusions moins sujettes à débat du point de vue méthodologique.
Resumo:
Le sujet visé par cette dissertation est la logique ordinale de Turing. Nous nous référons au texte original de Turing «Systems of logic based on ordinals» (Turing [1939]), la thèse que Turing rédigea à Princeton sous la direction du professeur Alonzo Church. Le principe d’une logique ordinale consiste à surmonter localement l’incomplétude gödelienne pour l’arithmétique par le biais de progressions d’axiomes récursivement consistantes. Étant donné son importance considérable pour la théorie de la calculabilité et les fondements des mathématiques, cette recherche méconnue de Turing mérite une attention particulière. Nous retraçons ici le projet d’une logique ordinale, de ses origines dans le théorème d’incomplétude de Gödel jusqu'à ses avancées dans les développements de la théorie de la calculabilité. Nous concluons par une discussion philosophique sur les fondements des mathématiques en fonction d’un point de vue finitiste.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les données sont analysées par le logiciel conçu par François Courtemanche et Féthi Guerdelli. L'expérimentation des jeux a eu lieu au Laboratoire de recherche en communication multimédia de l'Université de Montréal.
Resumo:
Ce mémoire explore la place de l’interartialité, des relations entre les arts, dans le cinéma de Peter Greenaway, et les fonctions qu’elle y remplit. À l’occasion de l’analyse de deux films qui centralisent la figure du peintre et la forme du contrat - The Draughtsman’s Contract et Nightwatching – et prenant comme point de départ théorique les travaux de Walter Moser, nous identifions et analysons quelques-unes des relations interartielles à l’oeuvre dans ces films, pour montrer que la mise en relation des arts de la peinture, du théâtre et du cinéma, dans leurs rapports biartials et pluriartials, constituent la trame fondamentale des films de Greenaway, dans une « interartialité non hiérarchique ». Nous concluons que le recours au dialogue interartiel permet au cinéaste d’esquisser, en filigrane, une posture critique sur l’art et l’artiste, une « théorie de l’art », par laquelle il exprime un point de vue sur le rôle et le statut de l’artiste au sein de la société.
Resumo:
Ce mémoire vise à comprendre le processus menant à un acte de confiance dans un contexte organisationnel en étudiant l’implantation du télétravail. Il explore la manière dont un gestionnaire franchit les différentes étapes du processus menant à un état d’attentes positives à l’égard d’un employé et, sur cette base, prendre le risque de lui autoriser le télétravail. D’un point de vue théorique, j’adopte une vision dynamique de la confiance en mobilisant notamment l’approche processuelle ainsi que le concept de suspension (Möllering, 2001, 2006). Cette étude est basée sur des entrevues semi-structurées réalisées auprès de six gestionnaires ayant autorisé le travail à domicile. Les participants ont été rencontrés à deux reprises et ont chacun rédigé une courte réflexion écrite sur le thème de la confiance. Leurs témoignages ont été analysés selon la méthode d’analyse inductive. Mes résultats révèlent que lorsqu’un gestionnaire envisage d’autoriser le télétravail, il mobilise une banque de connaissances qu’il a préalablement acquises à travers ses interactions avec l’employé pour construire une fiction optimiste de l’avenir. Cet exercice imaginatif lui permet de suspendre son incertitude et d’anticiper avec optimisme le comportement de ses télétravailleurs. La prise du risque que représente l’autorisation du travail à domicile ne découle cependant pas uniquement de cet état d’attentes favorables. Dans les grandes entreprises, la concrétisation de cet acte de confiance semble également reposer sur une suspension collective de l’incertitude et de la vulnérabilité organisationnelle.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.