12 resultados para foreground object removal
em Université de Montréal, Canada
Resumo:
La recherche sur le phénomène sonore, depuis les théorisations de Pierre Schaeffer entourant le concept de « l’objet sonore », a largement évolué nous permettant d’en saisir toute sa complexité. Poursuivant ce même dessein, nous proposons une approche compréhensive du phénomène sonore dans l’espace public urbain en nous penchant plus spécifiquement sur l’interprétation sonore des usagers empruntant les grandes rues commerciales de la ville et en l’occurrence, celles de Montréal. Au quotidien, le citadin déambule et chemine dans l’espace public en prenant conscience de son environnement à l’aide de ses sens. Outre l’aspect visuel, l’ensemble des autres sens sont, pour la plupart du temps, négligés par les designers de l’espace urbain. Il en résulte une conception du projet urbain relativement pauvre au niveau sonore. Dans ce mémoire, il sera question d’aborder le son sous l’angle de l’expérience subjective telle qu’elle est vécue par les usagers. L’objectif de nos travaux tend donc à approfondir la compréhension de l’expérience sonore de l’usager dans l’espace public urbain afin d’en intégrer les principes en amont du processus de conception. Les théories et méthodes issues du domaine de l’environnement sonore voient leur champ d’investigation élargi par l’anthropologie des sens. La richesse de cette approche permet de mieux saisir les multiples dimensions qui façonnent le vécu sonore des usagers. Le cadre de références puise également dans les pratiques artistiques. L’analyse de ces dernières fait émerger des dimensions utiles à la compréhension de l’expérience sonore. Cette expérimentation a été effectuée à l’aide de différentes méthodes de collecte de données permettant de recueillir un maximum de matière qualitative. Ainsi, des observations, des parcours d’écoute qualifiée, des parcours commentés et finalement des entretiens en profondeur ont été menés. Cette recherche a permis de mieux comprendre le dialogue existant entre le son, l’espace et l’usager en révélant les différentes dimensions de l’expérience sonore de la grande rue commerciale et notamment, celles entourant la culture des sens.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
En concevant que toute société a deux clivages dominants, l’un social et l’autre partisan, cette thèse développe une théorie sur le changement institutionnel. L’hypothèse initiale, selon laquelle les groupes sociaux créés par le premier clivage agiront pour restreindre le changement institutionnel et que le changement aura lieu lors de l’émergence d’un groupe partisan capable de croiser le clivage social, fut testée par les processus traçant les changements qui furent proposés et qui ont eu lieu au sein des conseils nominés en Amérique du Nord britannique. Ces conseils furent modifiés un bon nombre de fois, devenant les chambres secondaires de législatures provinciales avant d’être éventuellement abolies. La preuve supporte l’hypothèse, bien qu’il ne soit pas suffisant d’avoir un groupe partisan qui puisse croiser le clivage qui mène le changement : un débat partisan sur le changement est nécessaire. Ceci remet aussi en cause la théorie prédominante selon laquelle les clivages sociaux mènent à la formation de partis politiques, suggérant qu’il est plus bénéfique d’utiliser ces deux clivages pour l’étude des institutions.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications importantes au niveau de la présentation clinique de cette condition.
Resumo:
Chronic liver failure leads to hyperammonemia and consequently increased brain ammonia concentrations, resulting in hepatic encephalopathy. When the liver fails to regulate ammonia concentrations, the brain, devoid of a urea cycle, relies solely on the amidation of glutamate to glutamine through glutamine synthetase, to efficiently clear ammonia. Surprisingly, under hyperammonemic conditions, the brain is not capable of increasing its capacity to remove ammonia, which even decreases in some regions of the brain. This non-induction of glutamine synthetase in astrocytes could result from possible limiting substrates or cofactors for the enzyme, or an indirect effect of ammonia on glutamine synthetase expression. In addition, there is evidence that nitration of the enzyme resulting from exposure to nitric oxide could also be implicated. The present review summarizes these possible factors involved in limiting the increase in capacity of glutamine synthetase in brain, in chronic liver failure.
Resumo:
BACKGROUND/AIMS: It has been proposed that, in acute liver failure, skeletal muscle adapts to become the principle organ responsible for removal of blood-borne ammonia by increasing glutamine synthesis, a reaction that is catalyzed by the cytosolic ATP-dependent enzyme glutamine synthetase. To address this issue, glutamine synthetase expression and activities were measured in skeletal muscle of rats with acute liver failure resulting from hepatic devascularization. METHODS: Glutamine synthetase protein and gene expression were investigated using immunoblotting and semi-quantitative RT-PCR analysis. Glutamine synthetase activity and glutamine de novo synthesis were measured using, respectively, a standard enzymatic assay and [13C]-nuclear magnetic resonance spectroscopy. RESULTS: Glutamine synthetase protein (but not gene) expression and enzyme activities were significantly up-regulated leading to increased de novo synthesis of glutamine and increased skeletal muscle capacity for ammonia removal in acute liver failure. In contrast to skeletal muscle, expression and activities of glutamine synthetase in the brain were significantly decreased. CONCLUSIONS: These findings demonstrate that skeletal muscle adapts, through a rapid induction of glutamine synthetase, to increase its capacity for removal of blood-borne ammonia in acute liver failure. Maintenance of muscle mass together with the development of agents with the capacity to stimulate muscle glutamine synthetase could provide effective ammonia-lowering strategies in this disorder.
Resumo:
Avant tout réputé pour avoir hissé l’herméneutique au premier plan du paysage philosophique contemporain, H.-G. Gadamer est aussi reconnu pour l’originalité de ses écrits en histoire des idées et notamment pour la grande singularité des travaux qu’il a consacrés à la philosophie de Platon. Mais s’agit-il là de deux registres théoriques distincts, l’herméneutique d’un côté et l’exégèse de Platon de l’autre ? Ou bien s’agit-il de deux facettes d’un même projet concerté, deux ouvertures sur un même objet philosophique ? C’est cette deuxième option que notre étude a pour objectif de défendre. Pour ce faire, nous approfondissons, à la lumière de ses écrits sur Platon, les raisons qui poussent Gadamer à développer, dans Vérité et Méthode, son idée de dialogue herméneutique en référence constante à la dialectique platonicienne, pour ensuite montrer comment l’ontologie herméneutique qu’esquisse la dernière partie de Vérité et Méthode est solidaire, voire tributaire, de l’interprétation de la pensée platonicienne que défend généralement Gadamer, et ce, malgré l’instrumentalisme du langage qu’il dénonce chez Platon.
Resumo:
We study the problem of assigning indivisible and heterogenous objects (e.g., houses, jobs, offices, school or university admissions etc.) to agents. Each agent receives at most one object and monetary compensations are not possible. We consider mechanisms satisfying a set of basic properties (unavailable-type-invariance, individual-rationality, weak non-wastefulness, or truncation-invariance). In the house allocation problem, where at most one copy of each object is available, deferred-acceptance (DA)-mechanisms allocate objects based on exogenously fixed objects' priorities over agents and the agent-proposing deferred-acceptance-algorithm. For house allocation we show that DA-mechanisms are characterized by our basic properties and (i) strategy-proofness and population-monotonicity or (ii) strategy-proofness and resource-monotonicity. Once we allow for multiple identical copies of objects, on the one hand the first characterization breaks down and there are unstable mechanisms satisfying our basic properties and (i) strategy-proofness and population-monotonicity. On the other hand, our basic properties and (ii) strategy-proofness and resource-monotonicity characterize (the most general) class of DA-mechanisms based on objects' fixed choice functions that are acceptant, monotonic, substitutable, and consistent. These choice functions are used by objects to reject agents in the agent-proposing deferred-acceptance-algorithm. Therefore, in the general model resource-monotonicity is the «stronger» comparative statics requirement because it characterizes (together with our basic requirements and strategy-proofness) choice-based DA-mechanisms whereas population-monotonicity (together with our basic properties and strategy-proofness) does not.
Resumo:
Les marais filtrants artificiels sont des écosystèmes recréés par l’homme dans le but d’optimiser l’épuration des eaux usées. Lors de la sélection d’espèces végétales pour la mise en place de ces marais filtrants, l’utilisation d’une polyculture ainsi que d’espèces indigènes non invasives est de plus en plus recommandée. Néanmoins, la plupart des marais filtrants existants sont des monocultures utilisant des plantes envahissantes, probablement à cause du manque d’évidences scientifiques sur les avantages de la diversité végétale et de la performance des espèces locales. Ainsi, les questions de recherche autour desquelles s’oriente ma thèse sont: Les polycultures présentent-elles un potentiel épuratoire aussi ou plus grand que les monocultures, et une espèce indigène est-elle aussi efficace et performante qu’une espèce exotique envahissante dans des marais filtrants ? Trois expériences ont été conduites afin de répondre à ces questions. J’ai d’abord testé l’influence de la richesse végétale sur l’élimination des polluants en deux dispositifs expérimentaux: 1) comparant deux espèces de plantes émergentes en monoculture ou combinées séquentiellement, et 2) évaluant la performance de quatre espèces flottantes plantées en monoculture par rapport à des associations de deux (avec toutes les combinaisons possibles) et de quatre espèces. Une troisième expérience a été réalisée afin de comparer l’efficacité épuratoire de l’haplotype européen envahissant du roseau commun (Phragmites australis) et de la sous-espèce locale non-invasive (P. australis subsp. americanus). La composition en espèces végétales a produit un effet notable sur la performance des marais filtrants. La comparaison des performances en mono- et en polyculture n’a pas permis de démontrer clairement les avantages de la diversité végétale pour l’élimination des polluants dans les marais filtrants. Toutefois, les marais filtrants plantés avec une combinaison d’espèces étaient aussi efficaces que les monocultures des espèces les plus performantes. La comparaison entre les deux sous-espèces de P. australis indiquent que la sous-espèce indigène pourrait remplacer le roseau exotique envahissant, évitant ainsi les potentiels risques environnementaux sans toutefois compromettre l’efficacité du traitement. Les résultats prometteurs de la sous-espèce indigène de P. australis doivent encore être testés dans des expériences à grande échelle avant d’utiliser largement cette espèce dans les marais filtrants. Nos résultats suggèrent que, dans des conditions où la performance des macrophytes disponibles est inconnue ou ne peut être déterminée, l’utilisation d’une combinaison d’espèces présente les meilleures chances d’accomplir le plus haut niveau possible d’élimination de polluants. De plus, même si la diversité végétale ne présente pas un avantage mesurable en termes d’efficacité épuratoire, celle-ci améliore la résilience des marais filtrants et leur résistance aux stress et aux maladies.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.