977 resultados para Système informatique
Resumo:
Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Le système endocannaboïde (eCB) est constitué des ligands, des récepteurs – les plus étudiés étant les récepteurs CB1 et CB2 – et les enzymes de synthèse et de dégradation. Les ligands étant lipophiles, ils ne sont pas encapsulés dans des vésicules, ce qui place les enzymes de synthèse et de dégradation dans une position de régulateurs clés. Plusieurs études démontrent une participation du système eCB à des processus de développement dans le système nerveux central (SNC). La rétine est un modèle important pour l’étude de ces processus car elle contient plusieurs types cellulaires bien connus, dont le patron de développement est clairement établi. Pour l’instant très peu est connu sur l’expression du système eCB durant le développement rétinien. C’est dans ce cadre que les patrons d’expression du récepteur CB1 et de l’enzyme de dégradation FAAH ont été étudiés pendant le développement rétinien postnatal chez le rat. Pour identifier les types cellulaires exprimant ces protéines, des co-marquages ont été accomplis pour le récepteur CB1 ou FAAH et des marqueurs des types cellulaires rétiniens. À P1, les cellules ganglionnaires, amacrines, horizontales et mitotiques expriment le récepteur CB1. Les cellules ganglionnaires et amacrines cholinergiques sont FAAH-positives. Au cours du développement, certains types cellulaires démontrent une expression transitoire de ces deux protéines, suggérant une implication du système eCB dans les processus de développement. Nos données démontrent également une importante expression du système eCB dans la rétine adulte, ce qui soutient l’hypothèse de son implication dans la réponse rétinienne. En bref, des études fonctionnelles in vitro sur des rétines de non-mammifères ont révélées que le récepteur CB1 modulait la réponse des cônes et des cellules bipolaires. Malgré la récente démonstration de sa présence dans la rétine, il n’existe pas de d’étude sur le rôle du récepteur CB2 dans la rétine. Dans cette thèse, les conséquences fonctionnelles de l’élimination des récepteurs CB1 ou CB2 ont été évaluées chez des souris transgéniques. Les réponses rétiniennes ont été enregistrées par électrorétinographie chez des souris cnr1-/- (CB1R-KO) et cnr2-/- (CB2R-KO). Nos données suggèrent une implication différente pour chaque récepteur dans la formation de la réponse rétinienne
Resumo:
Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.
Resumo:
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.
Resumo:
Ce mémoire s’intéresse au système binaire massif CV Serpentis, composé d’une Wolf- Rayet riche en carbone et d’une étoile de la séquence principale, de type spectral O (WC8d + O8-9IV). D’abord, certains phénomènes affectant les étoiles massives sont mentionnés, de leur passage sur la séquence principale à leur mort (supernova). Au cours du premier cha- pitre, un rappel est fait concernant certaines bases de l’astrophysique stellaire observa- tionnelle (diagramme Hertzsprung-Russell, phases évolutives, etc...). Au chapitre suivant, un des aspects les plus importants de la vie des étoiles massives est abordé : la perte de masse sous forme de vents stellaires. Un historique de la découverte des vents ouvre le chapitre, suivi des fondements théoriques permettant d’expliquer ce phénomène. Ensuite, différents aspects propres aux vents stellaires sont présentés. Au troisième chapitre, un historique détaillé de CV Ser est présenté en guise d’introduc- tion à cet objet singulier. Ses principales caractéristiques connues y sont mentionnées. Finalement, le cœur de ce mémoire se retrouve au chapitre 4. Des courbes de lumière ultra précises du satellite MOST (2009 et 2010) montrent une variation apparente du taux de perte de masse de la WR de l’ordre de 62% sur une période orbitale de 29.701 jours. L’analyse des résidus permet de trouver une signature suggérant la présence de régions d’interaction en corotation (en anglais corotating interaction regions, ou CIR) dans le vent WR. Une nouvelle solution orbitale est présentée ainsi que les paramètres de la région de collision des vents et les types spectraux sont confirmés.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Le système de recombinaison Xer est impliqué dans la monomerisation des réplicons bactériens, comme les plasmides et les chromosomes, dans une grande variété de bactéries. Ce système est un système de recombinaison site-spécifique composé de deux tyrosine recombinases, soit XerC et XerD. Ils agissent ensemble afin de convertir les chromosomes dimériques en monomères en agissant à un site spécifique près du terminus de la réplication, appelé le site dif. Les gènes Xer et leur site d’action sont identifiés dans plusieurs bactéries gram positives et gram négatives. Staphylococcus aureus représente une bactérie gram positive qui contient un système XerCD/dif. Elle est impliqué dans plusieurs maladies humaines, tels que des infections cutanées, des gastroentérites, et le syndrome de choc toxique, pour en nommer quelques unes. Bien que les gènes codant les protéines XerC et XerD ont été identifiés, il y a beaucoup d’inconnu sur leur mode d’action au site dif. Des mutations dans XerC ont été obtenues, mais aucune dans XerD, suggérant que ce gène pourrait être essentiel pour cet organisme. Les études présentées dans ce mémoire ont permis de commencer à mieux caractériser XerD de S. aureus, en séquençant le gène et en faisant des tests de liaison à l’ADN. Elles ont montré que la recombinase XerD se lie au site dif d’Eschericia coli seul et de façon coopérative avec la recombinase XerC d’E. coli. XerD de S. aureus est, aussi, efficace dans la complémentation de XerD muté d’E. coli dans la réaction de recombinaison chromosomique. Cependant, elle ne démontre pas cette même capacité de complémentation lors de la recombinaison plasmidique aux sites cer.
Resumo:
L'attaque de retransmission sélective est une menace sérieuse dans les réseaux de capteurs sans fil (WSN), en particulier dans les systèmes de surveillance. Les noeuds peuvent supprimer de manière malicieuse certains paquets de données sensibles, ce qui risque de détruire la valeur des données assemblées dans le réseau et de diminuer la disponibilité des services des capteurs. Nous présentons un système de sécurité léger basé sur l'envoi de faux rapports pour identifier les attaques de retransmission sélective après avoir montré les inconvénients des systèmes existants. Le grand avantage de notre approche est que la station de base attend une séquence de faux paquets à un moment précis sans avoir communiqué avec les noeuds du réseau. Par conséquent, elle sera capable de détecter une perte de paquets. L'analyse théorique montre que le système proposé peut identifier ce type d'attaque et peut alors améliorer la robustesse du réseau dans des conditions d'un bon compromis entre la fiabilité de la sécurité et le coût de transmission. Notre système peut atteindre un taux de réussite élevé d‟identification face à un grand nombre de noeuds malicieux, tandis que le coût de transmission peut être contrôlé dans des limites raisonnables.
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
Suite à l‘éclatement de la bulle des « subprimes » en 2008, le tournant décisif de cette période de crise, toutes les attentions se sont focalisées sur la crise de la « finance mondialisée », masquant d‘autres conséquences de la crise aussi lourdes et perverses que l‘essor du chômage et le resserrement du crédit (Carfantan 2009). Ce travail se consacre ainsi aux autres aspects de la crise tels que vécus à la campagne, en particulier la crise alimentaire et la crise des sociétés paysannes. Le point central de cette recherche porte plus particulièrement sur la montée de « l‘alternative de la souveraineté alimentaire » en réponse à la crise agraire de manière à poser un véritable défi au modèle agroalimentaire du néolibéralisme (Desmarais 2008; Holt-Giménez 2009). La présente recherche étudie donc les déterminants sociopolitiques qui conduisent à l‘édification des politiques de souveraineté alimentaire malgré la pression du régime alimentaire néolibéral. Ce mémoire avance que les politiques de souveraineté alimentaire sont issues de contre-mouvements paysans qui parviennent, en premier lieu, à établir une structure domestique agraire de nature « populaire-démocratique » et « antisystémique », et en second lieu, à transnationaliser cette structure de manière à défier le régime alimentaire néolibéral en crise. En adaptant la théorie intermédiaire de « structures domestiques » à l‘étude critique des structures agraires autour de trois différentes variables (Risse-Kappen 1999), le mémoire soutient que l‘émergence des politiques de souveraineté alimentaire nécessite la décentralisation de la prise de décision et la collectivisation du secteur agricole à travers une transformation agraire radicale et agroécologique (variable de « structure politique »), de même que l‘émergence d‘une structure sociétale agraire robuste construite sur des réseaux politiques consensuels, en présence d‘un État puissant et d‘une société civile agraire mobilisée (variables de « structure sociétale » et de « réseaux politiques »). Au niveau conceptuel, la recherche repose sur la théorie du système-monde, et consiste en une étude comparative modelée sur une étude de cas contrastes; le cas de Cuba, caractérisé par une forte résistance aux défis agroalimentaires du système-monde contemporain, et celui du Mexique, marqué par l‘adoption des politiques alimentaires néolibérales.
Resumo:
Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.
Resumo:
Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.
Resumo:
Chez les bactéries à chromosome circulaire, la réplication peut engendrer des dimères que le système de recombinaison site-spécifique dif/Xer résout en monomères afin que la ségrégation des chromosomes fils et la division cellulaire se fassent normalement. Ses composants sont une ou deux tyrosines recombinases de type Xer qui agissent à un site de recombinaison spécifique, dif, avec l’aide de la translocase FtsK qui mobilise l’ADN au septum avant la recombinaison. Ce système a été d’abord identifié et largement caractérisé chez Escherichia coli mais il a également été caractérisé chez de nombreuses bactéries à Gram négatif et positif avec des variantes telles que les systèmes à une seule recombinase comme difSL/XerS chez Streptococcus sp et Lactococcus sp. Des études bio-informatiques ont suggéré l’existence d’autres systèmes à une seule recombinase chez un sous-groupe d’ε-protéobactéries pathogènes, dont Campylobacter jejuni et Helicobacter pylori. Les acteurs de ce nouveau système sont XerH et difH. Dans ce mémoire, les premières recherches in vitro sur ce système sont présentées. La caractérisation de la recombinase XerH de C. jejuni a été entamée à l’aide du séquençage de son gène et de tests de liaison et de clivage de l’ADN. Ces études ont montré que XerH pouvait se lier au site difSL de S. suis de manière non-coopérative : que XerH peut se lier à des demi-sites de difSL mais qu’elle ne pouvait, dans les conditions de l’étude effectuer de clivage sur difSL. Des recherches in silico ont aussi permis de faire des prédictions sur FtsK de C. jejuni.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal