1000 resultados para Domaine Numérique
Resumo:
Travail de recherche sur le thème de l'évaluation des archives à l'ère du numérique réalisé à l'hiver 2009 dans le cadre du cours BLT6112 L'évaluation des archives sous la direction du professeur Yvon Lemay.
Resumo:
Article accepté pour publication dans Les Cahiers de droit 2009 dont le thème spécial est : Dérives et évolutions du droit pénal. Les auteurs ont la permission de diffuser cet article dans Papyrus jusqu’à sa parution dans Les Cahiers de droit.
Resumo:
Une cascade de facteurs de transcription composée de SIM1, ARNT2, OTP, BRN2 et SIM2 est requise pour la différenciation des cinq types cellulaires qui peuplent le noyau paraventriculaire (PVN) de l’hypothalamus, un régulateur critique de plusieurs processus physiologiques essentiels à la survie. De plus, l’haploinsuffisance de Sim1 est aussi une cause d’hyperphagie isolée chez la souris et chez l’homme. Nous désirons disséquer le programme développemental du PVN, via une approche intégrative, afin d’identifier de nouveaux gènes qui ont le potentiel de réguler l’homéostasie chez l’individu adulte. Premièrement, nous avons utilisé une approche incluant l’analyse du transcriptome du PVN à différents stades du développement de la souris pour identifier de tels gènes. Nous avons comparé les transcriptomes de l’hypothalamus antérieur chez des embryons de souris Sim1+/+ et Sim1-/- à E12.5 issus de la même portée. De cette manière, nous avons identifié 56 gènes agissant en aval de Sim1 dont 5 facteurs de transcription - Irx3, Sax1, Rxrg, Ror et Neurod6. Nous avons également proposé un modèle de développement à deux couches de l’hypothalamus antérieur. Selon ce modèle, les gènes qui occupent un domaine médial dans la zone du manteau caractérisent des cellules qui peupleront le PVN alors que les gènes qui ont une expression latérale identifient des cellules qui donneront plus tard naissance aux structures ventrolatérales de l’hypothalamus. Nous avons aussi démontré que Sim1 est impliqué à la fois dans la différenciation, la migration et la prolifération des neurones qui peuplent le PVN tout comme Otp. Nous avons également isolé par microdissection au laser le PVN et l’hypothalamus médiobasal chez des souris de type sauvage à E14.5 pour en comparer les transcriptomes. Ceci nous a permis d’identifier 34 facteurs de transcription spécifiques au PVN et 76 facteurs spécifiques à l’hypothalamus médiobasal. Ces gènes représentent des régulateurs potentiels du développement hypothalamique. Deuxièmement, nous avons identifié 3 blocs de séquences au sein de la région 5’ d’Otp qui sont conservés chez l’homme, la souris et le poisson. Nous avons construit un transgène qui est composé d’un fragment de 7 kb contenant ces blocs de séquences et d’un gène rapporteur. L’analyse de 4 lignées de souris a montré que ce transgène est uniquement exprimé dans le PVN en développement. Nous avons généré un deuxième transgène dans lequel le fragment de 7 kb est inséré en amont de l’ADNc de Brn2 ou Sim1 et de Gfp. Nous avons obtenu quatre lignées de souris dans lesquels le profil d’expression de Brn2 et de Gfp reproduit celui d’Otp. Nous étudierons le développement du PVN et la prise alimentaire chez ces souris. En parallèle, nous croisons ces lignées avec les souris déficientes en Sim1 pour déterminer si l’expression de Brn2 permet le développement des cellules du PVN en absence de Sim1. En résumé, nous avons généré le premier transgène qui est exprimé spécifiquement dans le PVN. Ce transgène constitue un outil critique pour la dissection du programme développemental de l’hypothalamus. Troisièmement, nous avons caractérisé le développement de l’hypothalamus antérieur chez l’embryon de poulet qui représente un modèle intéressant pour réaliser des études de perte et de gain de fonction au cours du développement de cette structure. Il faut souligner que le modèle de développement à deux couches de l’hypothalamus antérieur semble être conservé chez l’embryon de poulet où il est aussi possible de classer les gènes selon leur profil d’expression médio-latéral et le devenir des régions qu’ils définissent. Finalement, nous croyons que cette approche intégrative nous permettra d’identifier et de caractériser des régulateurs du développement du PVN qui pourront potentiellement être associés à des pathologies chez l’adulte telles que l’obésité ou l’hypertension.
Resumo:
En 1992, la Cour suprême du Canada souligne l'importance de faire la distinction entre l'obligation principale de conseil qui est l'objet principal du contrat et l'obligation d'information qui est accessoire. L'obligation principale de conseil est reconnue à l'égard des professionnels des professions dites libérales à l'époque, comme les avocats et notaires dans un contrat de mandat. Par contre, l'évolution jurisprudentielle récente démontre que l'obligation de conseil ne se limite plus à l'objet principal du contrat, et que la notion de «professionnel» n'a plus le sens restrictif d'autrefois. Au Québec, l'obligation principale de conseil est reconnue dans un premier temps à l'égard des professionnels soumis au Code des professions, notamment avocats et notaires. On reconnaît aussi une telle obligation accessoire de conseil à l'égard d'autres personnes qui, bien qu'elles ne soient pas des «professionnels» au sens du Code des professions, exercent tout de même des activités de nature professionnelle. C'est le cas, par exemple, des courtiers en valeurs mobilières, des courtiers en assurances ou des institutions financières. D'ailleurs, une controverse semble régner dans le domaine bancaire sur l'étendue de l'obligation de conseil et d'information des institutions financières envers un client dans le cadre d'un contrat de prestation de services. Plus particulièrement, les tribunaux semblent partagés sur la reconnaissance ou non d'une obligation de conseil de la banque dans le cadre d'un emprunt. Certaines décisions sont à l'effet que seule une obligation d'information s'impose alors que d'autres préconisent le conseil. Afin d'élucider la confusion qui règne présentement en jurisprudence dans le domaine bancaire ainsi que dans le contrat de services et d'entreprise en général, il faut faire une étude jumelée de l'évolution de l'obligation de conseil accessoire et de l'obligation de conseil principale. Notre étude porte sur l'évolution jurisprudentielle qui tend vers une théorisation dans le contrat de services ou d'entreprise, de l'obligation de conseil qui devient alors une variante ou une intensité de l'obligation accessoire d'information. Par le fait même, on constate qu'une obligation de conseil principale semble également s'étendre à une catégorie plus large de professionnels. Dans ce cas, l'obligation de conseil est similaire, dans son fondement, au devoir de conseil du «professionnel» traditionnel, au sens du Code des professions. On constate alors que l'obligation principale de conseil n'est plus restreinte aux professionnels au sens classique du terme.
Resumo:
Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), sous la direction de M. Yvon Lemay dans le cadre du cours BLT6850 Recherche individuelle, à l'hiver 2009.
Resumo:
La recherche sur le phénomène sonore, depuis les théorisations de Pierre Schaeffer entourant le concept de « l’objet sonore », a largement évolué nous permettant d’en saisir toute sa complexité. Poursuivant ce même dessein, nous proposons une approche compréhensive du phénomène sonore dans l’espace public urbain en nous penchant plus spécifiquement sur l’interprétation sonore des usagers empruntant les grandes rues commerciales de la ville et en l’occurrence, celles de Montréal. Au quotidien, le citadin déambule et chemine dans l’espace public en prenant conscience de son environnement à l’aide de ses sens. Outre l’aspect visuel, l’ensemble des autres sens sont, pour la plupart du temps, négligés par les designers de l’espace urbain. Il en résulte une conception du projet urbain relativement pauvre au niveau sonore. Dans ce mémoire, il sera question d’aborder le son sous l’angle de l’expérience subjective telle qu’elle est vécue par les usagers. L’objectif de nos travaux tend donc à approfondir la compréhension de l’expérience sonore de l’usager dans l’espace public urbain afin d’en intégrer les principes en amont du processus de conception. Les théories et méthodes issues du domaine de l’environnement sonore voient leur champ d’investigation élargi par l’anthropologie des sens. La richesse de cette approche permet de mieux saisir les multiples dimensions qui façonnent le vécu sonore des usagers. Le cadre de références puise également dans les pratiques artistiques. L’analyse de ces dernières fait émerger des dimensions utiles à la compréhension de l’expérience sonore. Cette expérimentation a été effectuée à l’aide de différentes méthodes de collecte de données permettant de recueillir un maximum de matière qualitative. Ainsi, des observations, des parcours d’écoute qualifiée, des parcours commentés et finalement des entretiens en profondeur ont été menés. Cette recherche a permis de mieux comprendre le dialogue existant entre le son, l’espace et l’usager en révélant les différentes dimensions de l’expérience sonore de la grande rue commerciale et notamment, celles entourant la culture des sens.
Resumo:
La sclérose systémique est une maladie autoimmune dont l’une des complications majeures est la fibrose. La DNA topoisomérase I (topo) est l’un des principaux autoantigènes associés à cette maladie. Toutefois, aucun lien n’a encore pu être établi entre la présence des anti-topo et le développement de la fibrose. Les travaux antérieurs du laboratoire d’accueil ont montré une interaction directe de la topo avec la surface des fibroblastes et la matrice extracellulaire. Nous avons voulu caractériser ces interactions du point de vue moléculaire. La topo a donc été exprimée sous forme de 5 fragments, déterminés à partir de ses principaux domaines structuraux et de ses épitopes majeurs, chez E. coli. Les fragments purifiés ont été analysés pour leur interaction avec l’héparine, représentant les héparane sulfates de la surface des fibroblastes, et avec des protéines purifiées de la matrice extracellulaire. Nous avons montré que le fragment topo-N est le principal responsable de l’interaction avec l’héparine, ce qui suggère donc l’implication potentielle de ce domaine dans l’interaction de la topo avec la surface des fibroblastes. Le fragment topo-DIDII est responsable de l’interaction avec la plupart des protéines de la matrice extracellulaire étudiées, alors que le fragment topo-H15 n’interagit qu’avec la vitronectine. Aucune interaction des fragments topo-DIII et topo-C n’a été décelée. Ces résultats pourront maintenant servir à mieux comprendre le rôle potentiel de la topo et des autoanticorps circulants anti-topo dans la fibrose présente chez les personnes atteintes de sclérose systémique en contribuant à l’identification de la cible de la topo sur les fibroblastes.
Resumo:
Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.
Resumo:
Le canal calcique de type L, Cav1.2, joue un rôle clé dans le couplage excitation-contraction des myocytes ventriculaires. Il a été montré que la sous-unité Cavα1 était sujette à l’épissage alternatif et que ce phénomène pouvait mener à une protéine tronquée en C-terminal au niveau de l’exon 45 (Liao, Yong et al. 2005). D’autres groupes ont étudié différentes délétions au niveau de l’extrémité C-terminale (De Jongh, Warner et al. 1991; Gao, Cuadra et al. 2001). Les courants mesurés dans la configuration cellule entière, était significativement plus grands que le canal « pleine longueur ». Nous avons décidé de tester certaines de ces délétions (ΔC2030, ΔC1935, ΔC1856, ΔC1733, ΔC1700) en présence ou en absence de la sous-unité auxiliaire Cavβ3, susceptible d’interagir avec l’extrémité C-terminale de la sous-unité Cavα1 par l’intermédiaire de son domaine SH3 (Lao, Kobrinsky et al. 2008). Les résultats obtenus dans les ovocytes de Xénope ont mis en évidence que les sous-unités Cavα1.2 tronquées montraient des courants globaux plus élevés que le canal « pleine longueur » en présence de la sous-unité auxiliaire Cavβ3 et que les sous-unités Cavα1.2 tronquées donnaient des courants en absence de la sous-unité Cavβ3 contrairement à la sous-unité Cavα1.2 « pleine longueur ». Afin de vérifier si l’augmentation des courants macroscopiques était le résultat d’une augmentation du nombre de sous-unités Cavα1.2 à la membrane, nous avons choisi de quantifier la fluorescence spécifiquement due à cette sous-unité en utilisant la méthode de cytométrie de flux (FACS : « Fluorescence Activated Cell Sorting »). L’épitope HA a été inséré dans une région extracellulaire de la sous-unité Cavα1 du canal calcique Cav1.2 et un anticorps anti-HA couplé au FITC (« Fluorescein IsoThioCyanate ») a été utilisé pour observer la fluorescence. Nos résultats confirment que la sous-unité Cavα1-HA du canal calcique Cav1.2, s’exprime à la membrane plasmique en présence de la sous-unité auxiliaire Cavβ3, et qu’en absence de celle-ci, ne s’exprime que peu ou pas à la membrane. Les mêmes résultats ont été obtenus pour les trois délétions testées dans les mêmes conditions soit Cavα1.2-HA ΔC1935, Cavα1.2-HA ΔC1856 et Cavα1.2-HA ΔC1733. Ensemble, ces résultats suggèrent que l’augmentation des courants macroscopiques observés après une délétion partielle du C-terminal n’est pas causée par une augmentation du nombre de protéines Cavα1.2 à la membrane.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette thèse porte sur les conceptions d’Egon Bahr dans le domaine de la politique à l’Est (Ostpolitik) de la République fédérale d’Allemagne (RFA) entre 1945 et 1975. L’analyse se concentre sur le lien entre l’Ostpolitik et l’idée que Bahr se fait de la place et du rôle de l’Allemagne en Europe. Plus précisément, cette étude veut cerner les buts poursuivis par Bahr dans le cadre de la politique orientale. La première partie traite du développement conceptuel de l’Ostpolitik (1945-1969), tandis que la seconde examine sa mise en application entre l’élection de Willy Brandt comme chancelier de la RFA et la conclusion des accords d’Helsinki (1969-1975). Les principales sources utilisées sont les écrits de Bahr ainsi que des documents inédits se trouvant dans divers centres d’archives non seulement en Allemagne, mais aussi aux États-Unis, en France et en Grande-Bretagne. Pour Bahr, l’Ostpolitik ne saurait se résumer à l’élimination des obstacles qui gênent la diplomatie ouest-allemande durant la guerre froide. Bahr poursuit plutôt un projet nationaliste ambitieux dans le contexte des relations avec le bloc soviétique : créer les conditions d’une redéfinition de la place de l’Allemagne en Europe. Pour lui, l’Ostpolitik constitue un instrument idéal pour faire de l’Allemagne la puissance prépondérante dans un nouvel ordre de paix européen. Trois éléments complémentaires participent à l’accomplissement de cette vision : 1) la consolidation de la paix et de la sécurité continentales; 2) la réunification allemande et 3) l’émancipation de la politique étrangère (ouest-)allemande. Cette thèse éclaire la pensée politique de Bahr et contribue à une meilleure compréhension de la signification de l’Ostpolitik dans le contexte plus large de la politique étrangère de la RFA. Les conceptions de Bahr sont uniques dans l’Allemagne de la guerre froide parce qu’elles sont centrées sur les notions de puissance, d’intérêt national et de « normalité ». En même temps, Bahr comprend que la coopération doit toujours rester l’instrument diplomatique privilégié des Allemands vu leur position géographique centrale. À travers le prisme des conceptions de son « architecte », l’Ostpolitik apparaît comme un véritable effort de réconciliation entre la paix en Europe et l’affirmation de l’influence allemande sur la scène internationale.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.
Resumo:
Malgré une diminution de sa prévalence au cours des dernières décennies, le décrochage scolaire demeure une problématique inquiétante et ses effets ont de lourdes conséquences au niveau de l’individu et de la société. Parmi les nombreux facteurs de risque identifiés par les recherches dans le domaine de l’éducation, le redoublement est l’un des prédicteurs les plus puissants du décrochage scolaire. L’engagement scolaire a quant à lui été à plusieurs reprises identifié comme étant une variable prometteuse dans la prévention et l’intervention de l’abandon des études. L’objectif de cette étude est de vérifier l’effet potentiellement médiateur de l’engagement scolaire sur le lien entre le redoublement et le décrochage scolaire chez une population d’adolescents québécois provenant de milieux défavorisés. Malgré que les résultats ne démontrent pas un effet médiateur, ils permettent d’affirmer la présence d’un effet additif de l’engagement de l’élève au redoublement scolaire dans la prédiction du décrochage scolaire.