990 resultados para Caméra numérique
Resumo:
La vision est un élément très important pour la navigation en général. Grâce à des mécanismes compensatoires les aveugles de naissance ne sont pas handicapés dans leurs compétences spatio-cognitives, ni dans la formation de nouvelles cartes spatiales. Malgré l’essor des études sur la plasticité du cerveau et la navigation chez les aveugles, les substrats neuronaux compensatoires pour la préservation de cette fonction demeurent incompris. Nous avons démontré récemment (article 1) en utilisant une technique d’analyse volumétrique (Voxel-Based Morphometry) que les aveugles de naissance (AN) montrent une diminution de la partie postérieure de l’hippocampe droit, structure cérébrale importante dans la formation de cartes spatiales. Comment les AN forment-ils des cartes cognitives de leur environnement avec un hippocampe postérieur droit qui est significativement réduit ? Pour répondre à cette question nous avons choisi d’exploiter un appareil de substitution sensorielle qui pourrait potentiellement servir à la navigation chez les AN. Cet appareil d’affichage lingual (Tongue display unit -TDU-) retransmet l’information graphique issue d’une caméra sur la langue. Avant de demander à nos sujets de naviguer à l’aide du TDU, il était nécessaire de nous assurer qu’ils pouvaient « voir » des objets dans l’environnement grâce au TDU. Nous avons donc tout d’abord évalué l’acuité « visuo »-tactile (article 2) des sujets AN pour les comparer aux performances des voyants ayant les yeux bandées et munis du TDU. Ensuite les sujets ont appris à négocier un chemin à travers un parcours parsemé d’obstacles i (article 3). Leur tâche consistait à pointer vers (détection), et contourner (négociation) un passage autour des obstacles. Nous avons démontré que les sujets aveugles de naissance non seulement arrivaient à accomplir cette tâche, mais encore avaient une performance meilleure que celle des voyants aux yeux bandés, et ce, malgré l’atrophie structurelle de l’hippocampe postérieur droit, et un système visuel atrophié (Ptito et al., 2008). Pour déterminer quels sont les corrélats neuronaux de la navigation, nous avons créé des routes virtuelles envoyées sur la langue par le biais du TDU que les sujets devaient reconnaitre alors qu’ils étaient dans un scanneur IRMf (article 4). Nous démontrons grâce à ces techniques que les aveugles utilisent un autre réseau cortical impliqué dans la mémoire topographique que les voyants quand ils suivent des routes virtuelles sur la langue. Nous avons mis l’emphase sur des réseaux neuronaux connectant les cortex pariétaux et frontaux au lobe occipital puisque ces réseaux sont renforcés chez les aveugles de naissance. Ces résultats démontrent aussi que la langue peut être utilisée comme une porte d’entrée vers le cerveau en y acheminant des informations sur l’environnement visuel du sujet, lui permettant ainsi d’élaborer des stratégies d’évitement d’obstacles et de se mouvoir adéquatement.
Resumo:
La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) de la colonne vertébrale et de la cage thoracique à potentiel évolutif pendant la croissance. Cette déformation 3D entraîne des asymétries de la posture. La correction de la posture est un des objectifs du traitement en physiothérapie chez les jeunes atteints d’une SI afin d’éviter la progression de la scoliose, de réduire les déformations morphologiques et leurs impacts sur la qualité de vie. Les outils cliniques actuels ne permettent pas de quantifier globalement les changements de la posture attribuables à la progression de la scoliose ou à l’efficacité des interventions thérapeutiques. L’objectif de cette thèse consiste donc au développement et à la validation d’un nouvel outil clinique permettant l’analyse quantitative de la posture auprès de personnes atteintes d’une SI. Ce projet vise plus spécifiquement à déterminer la fidélité et la validité des indices de posture (IP) de ce nouvel outil clinique et à vérifier leur capacité à détecter des changements entre les positions debout et assise. Suite à une recension de la littérature, 34 IP représentant l’alignement frontal et sagittal des différents segments corporels ont été sélectionnés. L’outil quantitatif clinique d’évaluation de la posture (outil 2D) construit dans ce projet consiste en un logiciel qui permet de calculer les différents IP (mesures angulaires et linéaires). L’interface graphique de cet outil est conviviale et permet de sélectionner interactivement des marqueurs sur les photographies digitales. Afin de vérifier la fidélité et la validité des IP de cet outil, la posture debout de 70 participants âgés entre 10 et 20 ans atteints d'une SI (angle de Cobb: 15º à 60º) a été évaluée à deux occasions par deux physiothérapeutes. Des marqueurs placés sur plusieurs repères anatomiques, ainsi que des points de référence anatomique (yeux, lobes des oreilles, etc.), ont permis de mesurer les IP 2D en utilisant des photographies. Ces mêmes marqueurs et points de référence ont également servi au calcul d’IP 3D obtenus par des reconstructions du tronc avec un système de topographie de surface. Les angles de Cobb frontaux et sagittaux et le déjettement C7-S1 ont été mesurés sur des radiographies. La théorie de la généralisabilité a été utilisée pour déterminer la fidélité et l’erreur standard de la mesure (ESM) des IP de l’outil 2D. Des coefficients de Pearson ont servi à déterminer la validité concomitante des IP du tronc de l’outil 2D avec les IP 3D et les mesures radiographiques correspondantes. Cinquante participants ont été également évalués en position assise « membres inférieurs allongés » pour l’étude comparative de la posture debout et assise. Des tests de t pour échantillons appariés ont été utilisés pour détecter les différences entre les positions debout et assise. Nos résultats indiquent un bon niveau de fidélité pour la majorité des IP de l’outil 2D. La corrélation entre les IP 2D et 3D est bonne pour les épaules, les omoplates, le déjettement C7-S1, les angles de taille, la scoliose thoracique et le bassin. Elle est faible à modérée pour la cyphose thoracique, la lordose lombaire et la scoliose thoraco-lombaire ou lombaire. La corrélation entre les IP 2D et les mesures radiographiques est bonne pour le déjettement C7-S1, la scoliose et la cyphose thoracique. L’outil est suffisamment discriminant pour détecter des différences entre la posture debout et assise pour dix des treize IP. Certaines recommandations spécifiques résultents de ce projet : la hauteur de la caméra devrait être ajustée en fonction de la taille des personnes; la formation des juges est importante pour maximiser la précision de la pose des marqueurs; et des marqueurs montés sur des tiges devraient faciliter l’évaluation des courbures vertébrales sagittales. En conclusion, l’outil développé dans le cadre de cette thèse possède de bonnes propriétés psychométriques et permet une évaluation globale de la posture. Cet outil devrait contribuer à l’amélioration de la pratique clinique en facilitant l’analyse de la posture debout et assise. Cet outil s’avère une alternative clinique pour suivre l’évolution de la scoliose thoracique et diminuer la fréquence des radiographies au cours du suivi de jeunes atteints d’une SI thoracique. Cet outil pourrait aussi être utile pour vérifier l’efficacité des interventions thérapeutiques sur la posture.
Resumo:
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques.
Resumo:
Le projet de territoire n’aura jamais suscité autant de débats et de passions. Son devenir mobilise à bien des égards la construction collective d’un dessein se matérialisant par des formes qui informent des forces tout autant que par des forces qui investissent des formes lesquelles traduisent les valeurs du moment. Par conséquent, cette projection dans un avenir partagé amène des exigences sociales en matière d’édification du projet de territoire mettant à l’ordre du jour la complexité d’une telle entreprise. L’enchevêtrement d’actions et de logiques qui s’y opèrent et qui s’y expriment pour en élaborer, dans la plus grande incertitude, les contours d’un futur souhaité nous presse de s’y prononcer : la construction complexe d’un dessein territorial s’exhibant nous interpelle quant à son évaluation voire quant à sa reformulation. Parmi les modalités d’expression qui permettent une telle délibération, il y a l’énoncé visuel. Médiation discursive privilégiée, elle autorise l’élaboration et la mise en scène collective d’un devenir territorial possible. Or depuis quelques années, au couple projet / représentation, vient se superposer une autre médiation, celle du numérique. Portée par le développement des technologies de l’information, celle-ci s’invite dans le champ de l’édification du projet de territoire. En s’alliant avec la puissance de l’image, elle recompose les représentations d’un dessein territorial collectivement formulé, ouvrant un nouvel espace d’actions à l’occasion d’une démarche de planification. Démarche de plus en plus complexe. De surcroit, la présente recherche tient cette complexité non comme un mot «fourre-tout» ou une tare dont il faudrait se débarrasser, mais se résout à l’affronter en s’inscrivant dans un paradigme en pleine gestation, celui de la «pensée complexe». La fécondité autant conceptuelle qu’opératoire d’une telle inscription permettra de jeter un regard renouvelé sur une pratique à travers une de ses modalités discursives à la fois la plus manifeste et la moins questionnée, à savoir l’énoncé visuel. En fin de compte, les représentations notamment celles construites et véhiculées par le numérique sauront-elles rendre compte et relever le défi de l’édification collective d’un projet de territoire qui se pose dans toute sa complexité ? Telle est en substance le questionnement dont cette recherche s’attellera à apporter des éléments de réponse et à esquisser de nouvelles perspectives.
Resumo:
À partir d’observations personnelles sur l’importance de la technique et des technologies dans la production musicale, le projet de ce mémoire fut élaboré autour de la sociologie de la musique de Weber. En premier lieu, un questionnement du rapport entre musique, technologie et société permet d’établir de nombreuses voies pour la recherche concernant les médiations techniques de la musique. Ces médiations sont maintenant caractérisées par les changements issus de l’implantation de l’informatique dans de nombreuses sociétés et la modification des rapports de pouvoir et des rapports sociaux par les possibilités nouvelles offertes par le médium numérique. Si Internet semble avoir bouleversé l’industrie de la musique, de nouvelles possibilités de dépasser les limitations des technologies traditionnelles de la musique sont toutefois aussi apparues au sein de ce « système sociotechnique ». Ces modifications prennent la forme de philosophies, mais aussi de pratiques sociales qui se répandent, avant tout, auprès de la jeune génération, ce qu’il est possible d’observer par les changements dans les pratiques musicales. À partir des outils conceptuels de Weber, deux idéaltypes seront créés qui représentent autant de modes de diffusion de musique sur Internet. L’accent est mis sur la différence entre les pratiques sociales et musicales de ces modes de diffusions : l’un est basé sur des pratiques traditionnelles et greffé sur la nouvelle plateforme Internet, l’autre emprunte les caractéristiques de la diffusion de l’information en réseau caractéristique de la culture Internet et se caractérise par des pratiques dites réflexives. Ces idéaltypes, ainsi que les cas qui les constituent et qu’ils mettent en lumière, sont mis à profit pour discuter des motifs de l’action chez différents agents au cœur des pratiques de diffusion et, finalement, des modalités variées que prend la rationalisation de la diffusion de la musique à partir du médium numérique.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Le présent travail porte sur ce qui détermine et garantit la valeur primaire des documents dans l’environnement numérique, notamment dans le contexte des organisations. L’écrit est-il demeuré la meilleure preuve à l’ère numérique? En quoi les conditions électroniques d’écriture, de relations entre supports et informations ont-elles changé la situation? Du « tout papier » qui fut la norme jusqu’aux années 80, les entreprises ont basculé dans une « économie mixte » où le papier et le numérique cohabitent, voire, où le numérique a entièrement supplanté le papier. Toutefois, le caractère exact de ce changement au niveau des aspects de preuve, d’authenticité, voire légaux des documents numériques semble demeurer dans le vague. En s'appuyant sur une revue de la littérature, ce travail tente de clarifier les concepts nécessaires à la garantie de la valeur primaire des documents numériques, et de les mettre en lien avec l’environnement papier, de manière à comparer les deux. Ce travail suggère que si les principes de base de l’évaluation en matière de valeur primaire s’appliquent toujours, les conceptions juridiques ont en revanche évolué pour reconnaître dans le numérique non pas un « remplaçant » de l’écrit papier, mais un équivalent fonctionnel.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Cette thèse s'intéresse à des aspects du tournage, de la projection et de la perception du cinéma stéréo panoramique, appelé aussi cinéma omnistéréo. Elle s'inscrit en grande partie dans le domaine de la vision par ordinateur, mais elle touche aussi aux domaines de l'infographie et de la perception visuelle humaine. Le cinéma omnistéréo projette sur des écrans immersifs des vidéos qui fournissent de l'information sur la profondeur de la scène tout autour des spectateurs. Ce type de cinéma comporte des défis liés notamment au tournage de vidéos omnistéréo de scènes dynamiques, à la projection polarisée sur écrans très réfléchissants rendant difficile l'estimation de leur forme par reconstruction active, aux distorsions introduites par l'omnistéréo pouvant fausser la perception des profondeurs de la scène. Notre thèse a tenté de relever ces défis en apportant trois contributions majeures. Premièrement, nous avons développé la toute première méthode de création de vidéos omnistéréo par assemblage d'images pour des mouvements stochastiques et localisés. Nous avons mis au point une expérience psychophysique qui montre l'efficacité de la méthode pour des scènes sans structure isolée, comme des courants d'eau. Nous proposons aussi une méthode de tournage qui ajoute à ces vidéos des mouvements moins contraints, comme ceux d'acteurs. Deuxièmement, nous avons introduit de nouveaux motifs lumineux qui permettent à une caméra et un projecteur de retrouver la forme d'objets susceptibles de produire des interréflexions. Ces motifs sont assez généraux pour reconstruire non seulement les écrans omnistéréo, mais aussi des objets très complexes qui comportent des discontinuités de profondeur du point de vue de la caméra. Troisièmement, nous avons montré que les distorsions omnistéréo sont négligeables pour un spectateur placé au centre d'un écran cylindrique, puisqu'elles se situent à la périphérie du champ visuel où l'acuité devient moins précise.
Resumo:
Travail personnel dans le cadre de SCI6850, recherche individuelle, en vue d'obtenir trois crédits. Présenté à l'École de bibliothéconomie et des sciences de l'information.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal