519 resultados para Réseau de phénotypes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur le rôle que jouent les médias de masse dans la construction de la personnalité publique des nouveaux chefs de partis politiques. Lorsqu’un individu est nommé à la tête d’un parti politique, il est la plupart du temps peu connu du grand public. Or, comme une écrasante majorité de citoyens n’a jamais l’occasion d’entrer en contact directement avec les hommes et les femmes politiques, c’est exclusivement par le biais des médias que la plupart des gens apprennent à connaître leurs représentants politiques – ou ceux qui aspirent à jouer ce rôle. Or les médias ne se contentent pas de répéter ce que les politiciens disent. Les informations qu’ils décident d’inclure dans leurs reportages, les mots qu’ils utilisent et les cadrages qu’ils retiennent contribuent à définir la personnalité des leaders émergents dont ils parlent. Les médias choisissent aussi de mettre l’accent sur certains traits de personnalité et décident d’en ignorer d’autres. Afin de mieux comprendre ce phénomène, nous avons étudié le cas de l’ex-chef du Parti québécois, André Boisclair. Nous avons cherché à savoir si la couverture dont ce dernier a fait l’objet a été stable ou si elle a suivi certains cycles, et nous nous sommes intéressés aux critères retenus par les médias pour évaluer sa personnalité. Pour ce faire, nous avons étudié le volume, le format, le ton, les objets et les cadrages qui caractérisent la couverture dont a été l’objet André Boisclair à l’antenne de la Société Radio-Canada et du Réseau TVA entre le 4 juin 2005 et le 21 février 2007. Nos conclusions sont à l’effet que la couverture a bel et bien suivi un cycle, et que les critères retenus par les médias sont très similaires à ceux qui sont réputés être importants pour la population dans le choix d’un leader politique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les cellules eucaryotes, le trafic intracellulaire de nombreuses protéines est assuré par des vésicules de transport tapissées de clathrine. Les complexes adaptateurs de clathrine (AP) sont responsables de l’assemblage de ces vésicules et de la sélection des protéines qui seront transportées. Nous avons étudié cinq familles atteintes du syndrome neurocutané MEDNIK qui est caractérisé par un retard mental, une entéropathie, une surdité, une neuropathie périphérique, de l’icthyose et de la kératodermie. Tous les cas connus de cette maladie à transmission autosomique récessive sont originaires de la région de Kamouraska, dans la province de Québec. Par séquençage direct des gènes candidats, nous avons identifié une mutation impliquant le site accepteur de l’épissage de l’intron 2 du gène codant pour la sous-unité σ1 du complexe AP1 (AP1S1). Cette mutation fondatrice a été retrouvée chez tous les individus atteints du syndrome MEDNIK et altère l’épissage normal du gène, menant à un codon stop prématuré. Afin de valider l’effet pathogène de la mutation, nous avons bloqué la traduction de cette protéine chez le poisson zébré en injectant une séquence d’oligonucléotides antisenses spécifique à AP1S1. À 48 heures après la fertilisation, les larves knock down pour AP1S1 montrent une réduction de la pigmentation, une désorganisation de la structure de l’épiderme et une perturbation du développement moteur. Alors que la surexpression de l’AP1S1 humain dans ce modèle a permis la récupération du phénotype normal, l’expression de l’AP1S1 mutant fut sans effet sur les phénotypes moteurs et cutanés des larves knock down. Les résultats obtenus montrent que la mutation du AP1S1 responsable du syndrome de MEDNIK est associée à une perte de fonction et que la sous-unité σ1 du complexe AP1 joue un rôle crucial dans l’organisation de l’épiderme et le développement de la moelle épinière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Occupé depuis près de 10 000 ans, le Témiscouata est un lieu clé pour mieux comprendre la préhistoire du Québec, en raison de son emplacement stratégique entre l’Atlantique et la vallée du Saint-Laurent et de la cinquantaine de sites archéologiques connus dans la région. Le site CjEd-8 est le seul site associé à l’Archaïque supérieur (6 000 à 4 000 ans avant aujourd’hui) connu dans la région. Cette recherche palethnographique porte sur l’analyse de la collection lithique du site archéologique CjEd-8. Nos questions de recherche sont les suivantes : quel était le mode de vie et les activités des occupants du site CjEd-8? Quel était leur environnement et comment s’y sont-ils adapté? Comment l’espace était-il utilisé sur le site? Comment ce site se compare-t-il aux autres sites de l’Archaïque supérieur au Québec et dans le nord-est américain? Est-il possible de relier l’occupation du site CjEd-8 à un plus vaste cadre régional ou culturel, comme un réseau d’interaction, par exemple? Nous avons effectué une analyse techno-morphologique individuelle de tous les outils et du débitage de la collection. Nous avons pu constater que tous les stades de réduction lithique (initial, intermédiaire et final) sont présents sur le site CjEd-8. Les matières premières locales sont représentées dans tous ces stades de réduction, bien que les matières premières exotiques soient surtout présentes au sein du stade initial de réduction, davantage que les matières premières locales. Ceci laisse croire que le dégrossissement initial des blocs et galets de matière première locale se faisait ailleurs que sur le site, fort probablement sur les carrières de chert de la région, et que des matières exotiques ont aussi été travaillées sur le site. Des activités de taille ont eu lieu sur les deux zones du site, probablement autour de deux foyers distincts. Les quelques individus présents y sont demeurés très brièvement, semblent avoir effectué un nombre limité d’activités et sont peut-être repassés quelques temps après. L’Archaïque supérieur est caractérisé par une augmentation de la population et par l’intensification des interactions et de l’appartenance régionale. Or, il semblerait que ce soit l’inverse que l’on observe archéologiquement au Témiscouata. L’assemblage de CjEd-8 ne présente aucune ressemblance particulière avec les sites associés à l’Archaïque supérieur au Québec, bien que pour presque tous ces sites, on constate une exploitation importante des matières premières locales (même si ces dernières sont de qualité moyenne), combinée à l’exploitation de matières premières exotiques de sources très éloignées. L’industrie du quartz, importante dans la plupart des sites de l’Archaïque supérieur, se reflète très peu sur CjEd-8. Bien qu’il nous soit impossible d’associer l’occupation du site CjEd-8 à une tradition culturelle précise, cela ne signifie pas que ses occupants n’étaient pas en interaction avec l’une ou l’autre des entités culturelles de la fin de l’Archaïque, que ce soit avec les groupes de la région de Quoddy, de la Gaspésie, de la Vallée du Saint-Laurent, de l’Outaouais, de la Haute Côte nord, du Vermont, de l’État de New York et de l’intérieur du Maine. La question des modes de subsistance des occupants de CjEd-8 n’a pas été soulevée lors de nos analyses. Nous savons toutefois que les occupants du Témiscouata avaient alors accès à une faune riche et diversifiée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques amènent des transformations profondes de l’environnement arctique. La diminution de l’étendue de la couverture de glace permet un accès facilité aux ressources naturelles et aux communautés nordiques. Au Canada, la région arctique est caractérisée par une géographie archipélagique et un réseau de transport rudimentaire. Le transport maritime est le mode privilégié pour l’acheminement du fret aux communautés et aux sites industriels de l’Arctique. La littérature scientifique présente des lacunes importantes au sujet de la navigation commerciale dans l’Arctique canadien. Peu d’études portent sur le trafic de ravitaillement en raison de son volume peu élevé et de la faible diversité des types de produits transportés, bien qu’il s’agisse d’une activité grandement significative pour les populations et l’économie du Nord. Cette recherche vise à combler cette lacune en dressant un portrait du transport maritime et de la performance des opérations portuaires dans l’Arctique canadien. L’étude est structurée en quatre parties. Une analyse du trafic et des échanges maritimes est d’abord réalisée sous trois échelles : internationale, nationale et intra-arctique. Ensuite, l’étude de la flotte et des routes fait ressortir la distribution géographique des transporteurs. Puis, la performance des ports est mesurée grâce à des indicateurs et un système de cotation. Finalement, une évaluation des opérations maritimes arctiques est menée par l’entremise d’informations récoltées lors d’entrevues avec les membres de l’industrie maritime, de conférences et de travail de terrain. Les sujets abordés concernent l’évolution de la desserte, les défis posés par la navigation en milieu arctique et le développement des ports du Nord canadien. Les résultats de l’étude mènent à la conclusion que le transport maritime dans l’Arctique est caractérisé par une croissance positive du volume acheminé et une implication profonde des transporteurs dédiés à la desserte nordique, mais des infrastructures portuaires et maritimes sous-développées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les détecteurs ATLAS-MPX sont des détecteurs Medipix2-USB recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons lents et des neutrons rapides respectivement. Un réseau de quinze détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Deux détecteurs ATLAS-MPX de référence ont été exposés à des sources de neutrons rapides 252 Cf et 241 AmBe ainsi qu’aux neutrons rapides produits par la réaction 7Li(p, xn) pour l’étude de la réponse du détecteur à ces neutrons. Les neutrons rapides sont principalement détectés à partir des protons de recul des collisions élastiques entre les neutrons et l’hydrogène dans le polyéthylène. Des réactions nucléaires entre les neutrons et le silicium produisent des particules-α. Une étude de l’efficacité de reconnaissance des traces des protons et des particules-α dans le détecteur Medipix2-USB a été faite en fonction de l’énergie cinétique incidente et de l’angle d’incidence. L’efficacité de détection des neutrons rapides a été évaluée à deux seuils d’énergie (8 keV et 230 keV) dans les détecteurs ATLAS-MPX. L’efficacité de détection des neutrons rapides dans la région du détecteur couverte avec le polyéthylène augmente en fonction de l’énergie des neutrons : (0.0346 ± 0.0004) %, (0.0862 ± 0.0018) % et (0.1044 ± 0.0026) % pour des neutrons rapides de 2.13 MeV, 4.08 MeV et 27 MeV respectivement. L’étude pour déterminer l’énergie des neutrons permet donc d’estimer le flux des neutrons quand le détecteur ATLAS-MPX est dans un champ de radiation inconnu comme c’est le cas dans le détecteur ATLAS au LHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Élaborée à partir d’une étude de cas extensive focalisant sur les perspectives multiples et concurrentes ayant émergé lors des négociations sur la gouvernance de l’Internet, thématique ayant dominé l’agenda politique du Sommet mondial sur la société de l’information (SMSI), cette thèse examine les manières avec lesquelles les débats mondiaux sur la gouvernance de l’Internet influencent la notion d’intérêt public en communication. Établie sur la base d’une observation participante extensive, d’entrevues semi-structurées et de l’analyse d’une documentation formelle et informelle associée au SMSI, cette thèse fait état de l’émergence des enjeux associés à la gouvernance de l’Internet au SMSI et présente une analyse approfondie des négociations ayant porté sur cet enjeu. Le cadre théorique développé par Lawrence Lessig au travers duquel « le code est la loi » est appliqué afin d’expliquer comment les différents acteurs ont débattu et ultimement atteint un consensus sur les frontières venant séparer les enjeux normatifs de politique publique et les questions techniques de régulation et de gestion du réseau. Cette thèse discute également de l’évolution des débats autour de la gouvernance mondiale de l’Internet ayant pris place à la suite de la conclusion du SMSI. Sur la base de cette étude de cas, un ensemble de conclusions sont formulées sur les acteurs et les caractéristiques institutionnelles ayant influencé les négociations sur la gouvernance de l’internet. Il est également suggéré que le SMSI a redéfini une discussion étroite sur la gestion d’un ensemble de fonctions techniques de l’Internet en un domaine de politique publique plus large de gouvernance mondiale de l’Internet. Il est également défendu que la notion d’intérêt public dans la gouvernance mondiale de l’Internet est conceptualisée autour des processus de participation et d’intégration des différentes parties prenantes au processus politique. Les implications directes et indirectes qui découlent de ce constat pour comprendre plus largement la notion d’intérêt public dans le domaine de la communication sont également présentées et discutées. En conclusion, cette thèse s’interroge sur les implications programmatiques des éléments ayant été précédemment soulevées pour la recherche médiatique et communicationnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présence d’un récepteur de type RXR a récemment été rapporté chez la pensée de mer, Renilla koellikeri, de même que chez d’autres anthozoaires, et le NO semble jouer des différents rôles physiologiques, chez plusieurs cnidaires. L’acide rétinoïque (AR) et le monoxyde d’azote (NO) sont connus pour leur implication dans l’induction de la croissance des neurites chez les vertébrés ainsi que chez les invertébrés. Mais jusqu’à présent, aucun rôle de ces agents n’a encore été identifié chez ce phylum ancien des invertébrés. Dans le but de montrer que ces agents morphogénétiques ont un rôle dans le développement neuronal chez ces ancêtres des métazoaires bilatéraux, nous avons utilisé des cultures primaires de cellules du cnidaire anthozoaire Renilla koellikeri (pensée de mer), doté d’un système nerveux des plus primitif. Nous avons trouvé que les deux types d’acide rétinoïque, 9-cis et 11-trans, induisent une prolifération cellulaire dose-dépendante en fonction du temps dans les boîtes de pétri enduites de polylysine. Les cultures cellulaires exposées à l’acide rétinoïque dans les boîtes sans polylysine montrent une différenciation en des cellules épithéliales. D’autre part, le NO induit exclusivement une différenciation neuronale dans les boîtes enduites de polylysine. Aucun autre type de cellules subit un différenciation en présence de NO et la densité des cellules dédifférenciées a diminué. Les prolongements des neurones différenciés semblent s’enchevêtrer et former un réseau neuronal assez dense. L’ensemble de ces observations suggère que l’acide rétinoïque, contrairement à NO, est associé à l’activité mitotique, et que l’acide rétinoïque et le NO sont impliqués différemment dans la spécification cellulaire, respectivement épithéliale et neuronale, chez la pensée de mer. Le type d’action déclenchée, qu’il soit la mitogénèse ou la différenciation (épithéliale ou neuronale), varie alors selon l’état d’adhésion des cellules au substrat. Comme les données moléculaires et paléontologiques rapprochent les cnidaires, telle la pensée de mer, des ancêtres des eumétazoaires, nos résultats suggèrent que le rôle morphogénétique de l’acide rétinoïque et du NO est enraciné dans l’ancêtre commun de tous les métazoaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université de Paris-sud XI, France.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de faire un état des lieux des connaissances produites sur les risques environnementaux et la vulnérabilité et appliquer ces connaissances à la ville de Kigali (Rwanda). Après avoir présenté différentes approches, nous avons retenu le cadre d’analyse qui s’inscrit dans l’approche de J.C. Thouret et R.D’Ercole (1996). Cette approche est articulée autour de trois dimensions : enjeux, facteurs de la vulnérabilité et réponses sociales. A travers l’application des éléments pertinents de ces trois dimensions dans le cas de la ville de Kigali, réalisée grâce à une analyse qualitative, centrée sur l’analyse des documents et des entrevues semi-dirigées, voici les principaux résultats que nous avons obtenus: l’analyse des enjeux a révélé que la ville de Kigali est confrontée à plusieurs dommages, parmi lesquels, on peut mentionner les pertes des vies humaines, la démolition des maisons, la contamination des rivières, la prolifération des maladies et la perturbation des besoins de base ( eau potable, électricité, transport) dues aux risques. Cette situation s’explique par la combinaison de plusieurs facteurs dont le relief collinaire, le sol granitique, les pluies violentes, le caractère centrifuge du réseau hydrographique, le sous-dimensionnement des ouvrages d’évacuation et le réseau d’assainissement insuffisant. D’autres facteurs amplifient la vulnérabilité dont l’explosion démographique consécutive à une urbanisation spontanée et inconsciente en zones inondables, l’ensablement des lits des rivières, le vide juridique, les politiques fragmentaires et le dysfonctionnement des acteurs impliqués dans la gestion des risques. Cette situation aurait probablement été améliorée si les réponses sociales étaient efficaces. Or, d’un côté, la faible perception de risque chez les résidants affectés par les risques accélère davantage la vulnérabilité et de l’autre côté, l’intervention significative des CIB n’est pas accompagnée d’actions complémentaires des institutions publiques et des agences internationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis l’élection de Jean Charest en 2003, nous constatons que les dogmes issus du discours idéologique néolibéral (déréglementation, privatisation, libéralisation et réduction des dépenses publiques) ont régulièrement et fortement inondé tous les domaines de l’espace public québécois, tant chez les élus que chez les grands conglomérats de médias écrits et audiovisuels. Nous cherchions à savoir qui exerçait une si grande influence pour que rayonnent ces idées conservatrices dans les discours publics au Québec. Nos recherches nous ont menée à un Think Tank québécois : l’Institut économique de Montréal. L’élite intellectuelle qui compose cette organisation a su user d’une influence importante auprès de certains médias écrits, notamment ceux de Gesca, qui, grâce à l’étendue de son puissant réseau social et à son adhésion aux stratégies d’influence de ses pairs, les Think Tanks partisans, a relayé les idées néolibérales de l’IEDM à l’intérieur du discours public québécois. Ce Think Tank a ainsi fait rayonner ses idées dans les pages des quotidiens parmi les plus lus par les Québécois francophones. De jeunes Think Tanks comme l’IEDM jugent primordial l’accès aux médias pour façonner l’opinion et les politiques publiques. Leur objectif est de réussir à influencer la mise à l’agenda et le cadrage des médias afin qu’ils favorisent leurs propositions et leurs idées. L’analyse de trois cas a permis de montrer, qu’à trois moments différents, l’IEDM a influencé la mise à l’agenda des quotidiens de Gesca et que le cadrage s’est révélé favorable aux propositions de l’IEDM dans une proportion importante.