699 resultados para Domaine Numérique
Resumo:
Les résultats de cette recherche faite auprès de cadres intermédiaires qui sont les gestionnaires des infirmières travaillant dans des programmes de personnes âgées en perte d'autonomie liée au vieillissement(PALV) montrent qu'il est difficile d'y attirer de nouvelles infirmières en raison du peu de popularité du domaine de la gériatrie.Afin d'y attirer des candidates, les cadres peuvent faire valoir le défi de gérer des situations de santé souvent complexes, la flexibilité des horaires de travail,l'autonomie dont elles disposent dans l'organisation de leur travail, le nombre de week-end de travail moins élevé que dans les hôpitaux et l'absence de travail supplémentaire obligatoire. Selon ces cadres, la rétention des infirmières dans de tels programmes PALV ne crée pas problème. Pour favoriser davantage cette rétention, des mesures élaborées d'orientation et d'encadrement des nouvelles infirmières de même que des mécanismes d'évaluation formelle doivent être mis en place, des efforts doivent être faits pour répartir équitablement les tâches, pour amener les infirmières à agir en tant que gestionnaires de cas et à se délester de tâches au profit des infirmières auxiliaires, et pour les sensibiliser à l'importance de la notion de prise en charge de sa santé par le client; des activités de formation continue significatives pour les infirmières doivent être élaborées à partir de l'analyse de leurs propres besoins et enfin des charges de travail particulières doivent être offertes aux infirmiàres de 55 ans et plus dans le but de les retenir au travail.
Resumo:
Cette étude qui s’inscrit dans la perspective de l’action située, vise à comprendre le phénomène de (re)construction des communautés de pratique (CoPs) en contexte de fusion hospitalière. La recherche repose sur un devis d’étude de cas longitudinale qui combine plusieurs sources de données : documentaires, d’entretiens semi-directifs et d’observations de terrain. La stratégie d’analyse combine deux méthodes : l’une processuelle, permettant un ordonnancement temporel de récits d’événements et d'activités qui ont contribué à situer l’action dans le temps; l’autre selon l’approche de la théorisation ancrée, a permis la comparaison des données par leur regroupement systématique en catégories et sous catégories, tout au long de la collecte des données. La démarche de recherche processuelle adoptée, nous a conduit à révéler la dynamique de construction d’une communauté de pratique (CoP) à partir des caractéristiques inter reliées, identifiées dans la littérature et qui font référence à un engagement mutuel, une entreprise commune et un répertoire partagé. Ainsi, nos analyses montrent que le domaine d’action qui vient délimiter les points de convergence des participants, constitue le dénominateur commun de la pratique de la communauté qui met à jour des savoirs tacites et explicites qui s’échangent et se développent dans le temps. Cette pratique partagée, éminemment sociale, génère des connaissances et des règles négociées et entretenues par les membres dans le cadre de leurs rencontres. Nos analyses révèlent également que le processus d’évolution d’une communauté de pratique, s’inscrit dans une trajectoire d’apprentissages continue où se combinent de façon dynamique, des temps de participation intense, propices à la construction progressive d’une compréhension commune et négociée du domaine d’action (participation) et des temps de mise en forme de ces représentations (réification). Ici, la dialectique participation/réification qui se donne à voir, révèle un véritable travail d’organisation où la construction du sens à donner à l’action s’instruit à l’aune d’une régulation sociale omniprésente. Toutefois, le résultat de la régulation sociale, n’implique pas de facto, la rencontre d’une régulation conjointe. Plutôt, nos résultats mettent à jour un ensemble de régulations, tantôt concurrentes, tantôt en équilibre en regard du contexte dans lequel sont placés les acteurs. Enfin, nos résultats sur la dynamique de (re)construction des communautés de pratique en contexte de fusion, permettent d’appréhender le changement organisationnel non plus sous ses seuls aspects stratégiques et en direction des équipes dirigeantes, mais également sous l’angle des capacités d’acteurs « ordinaires » à l’initier dans une perspective continue et située.
Resumo:
Le repliement des protéines est un processus cellulaire crucial impliquant plusieurs protéines dont la calnexine, une chaperone du réticulum endoplasmique. Notre laboratoire et un autre groupe avons démontré que la calnexine est essentielle à la viabilité de la levure Schizosaccharomyces pombe. Dans le cadre d’études structure-fonction portant sur cette protéine, nous avons découvert un phénomène permettant la viabilité des cellules en absence de la calnexine. Cet état, nommé Cin pour calnexine independence, est induit par un mutant de la calnexine dépourvu du domaine central hautement conservé (Δhcd_Cnx1p). La caractérisation de l’état Cin a révélé plusieurs caractéristiques particulières telle la dominance, sa transmission de façon non-Mendélienne à la progéniture méïotique et sa transmission par des extraits protéiques dépourvus d’acides nucléiques. Toutes ces propriétés suggèrent donc que l’état Cin est médié via un élément de type prion. Le gène cif1+, pour calnexin independence factor, a été isolé lors de criblages visant à identifier des gènes impliqués dans l’état Cin. Il encode pour une protéine orpheline dont la surexpression induit de façon stable un état de viabilité en l’absence de la calnexine. Cet état diffère génétiquement et phénotypiquement de l’état Cin induit par le mutant Δhcd_Cnx1p préalablement caractérisé, ce qui suggère deux voies parallèles de signalisation du phénomène Cin. Une caractérisation exhaustive de Cif1p a permis de démontrer qu’il ne s’agissait pas du prion responsable de l’état Cin, malgré que cette protéine possède certaines propriétés typiques des prions in vitro. Finalement, Cif1p est une protéine nucléolaire dont la bonne localisation est essentielle à sa capacité à induire l’état Cin. Ceci suggère une interaction entre la fonction essentielle de la calnexine et une fonction exécutée dans le nucléole. Lors d’études visant à élucider la fonction cellulaire de Cif1p, il a été établi qu’elle interagissait avec certaines protéines de la grosse sous-unité du ribosome telle la protéine L3. Cependant, Cif1p ne co-sédimente pas avec des sous-unités ribosomales assemblées, des ribosomes ou des polysomes. De plus, des cellules contenant une délétion génomique de cif1 voient leur contenu en ribosomes perturbé lors de la phase stationnaire. Il semble donc que Cif1p joue un rôle dans la biosynthèse des ribosomes lors de la phase stationnaire. Ce rôle spécifique à cette phase de croissance coincide avec un clivage de la portion N-terminale de Cif1p, clivage qui a lieu lors de l’entrée des cellules en phase stationnaire. De plus, des études effectuées récemment dans notre laboratoire proposent que la calnexine joue un rôle important dans la signalisation de l’apoptose, et ce particulièrement en phase stationnaire. Ainsi, une voie impliquant Cif1p, sa fonction nucléolaire dans la biosynthèse des ribosomes en phase stationnaire, la calnexine et la médiation de l’apoptose semble se dessiner. D’autres travaux, notamment sur la fonction exacte de Cif1p, le rôle de son clivage et les autres composantes impliquées dans le phénomène Cin nous permettront de dessiner un portrait plus complet de cette voie cellulaire inédite.
Resumo:
Travail de recherche sur le thème de l'évaluation des archives à l'ère du numérique réalisé à l'hiver 2009 dans le cadre du cours BLT6112 L'évaluation des archives sous la direction du professeur Yvon Lemay.
Resumo:
Article accepté pour publication dans Les Cahiers de droit 2009 dont le thème spécial est : Dérives et évolutions du droit pénal. Les auteurs ont la permission de diffuser cet article dans Papyrus jusqu’à sa parution dans Les Cahiers de droit.
Resumo:
Une cascade de facteurs de transcription composée de SIM1, ARNT2, OTP, BRN2 et SIM2 est requise pour la différenciation des cinq types cellulaires qui peuplent le noyau paraventriculaire (PVN) de l’hypothalamus, un régulateur critique de plusieurs processus physiologiques essentiels à la survie. De plus, l’haploinsuffisance de Sim1 est aussi une cause d’hyperphagie isolée chez la souris et chez l’homme. Nous désirons disséquer le programme développemental du PVN, via une approche intégrative, afin d’identifier de nouveaux gènes qui ont le potentiel de réguler l’homéostasie chez l’individu adulte. Premièrement, nous avons utilisé une approche incluant l’analyse du transcriptome du PVN à différents stades du développement de la souris pour identifier de tels gènes. Nous avons comparé les transcriptomes de l’hypothalamus antérieur chez des embryons de souris Sim1+/+ et Sim1-/- à E12.5 issus de la même portée. De cette manière, nous avons identifié 56 gènes agissant en aval de Sim1 dont 5 facteurs de transcription - Irx3, Sax1, Rxrg, Ror et Neurod6. Nous avons également proposé un modèle de développement à deux couches de l’hypothalamus antérieur. Selon ce modèle, les gènes qui occupent un domaine médial dans la zone du manteau caractérisent des cellules qui peupleront le PVN alors que les gènes qui ont une expression latérale identifient des cellules qui donneront plus tard naissance aux structures ventrolatérales de l’hypothalamus. Nous avons aussi démontré que Sim1 est impliqué à la fois dans la différenciation, la migration et la prolifération des neurones qui peuplent le PVN tout comme Otp. Nous avons également isolé par microdissection au laser le PVN et l’hypothalamus médiobasal chez des souris de type sauvage à E14.5 pour en comparer les transcriptomes. Ceci nous a permis d’identifier 34 facteurs de transcription spécifiques au PVN et 76 facteurs spécifiques à l’hypothalamus médiobasal. Ces gènes représentent des régulateurs potentiels du développement hypothalamique. Deuxièmement, nous avons identifié 3 blocs de séquences au sein de la région 5’ d’Otp qui sont conservés chez l’homme, la souris et le poisson. Nous avons construit un transgène qui est composé d’un fragment de 7 kb contenant ces blocs de séquences et d’un gène rapporteur. L’analyse de 4 lignées de souris a montré que ce transgène est uniquement exprimé dans le PVN en développement. Nous avons généré un deuxième transgène dans lequel le fragment de 7 kb est inséré en amont de l’ADNc de Brn2 ou Sim1 et de Gfp. Nous avons obtenu quatre lignées de souris dans lesquels le profil d’expression de Brn2 et de Gfp reproduit celui d’Otp. Nous étudierons le développement du PVN et la prise alimentaire chez ces souris. En parallèle, nous croisons ces lignées avec les souris déficientes en Sim1 pour déterminer si l’expression de Brn2 permet le développement des cellules du PVN en absence de Sim1. En résumé, nous avons généré le premier transgène qui est exprimé spécifiquement dans le PVN. Ce transgène constitue un outil critique pour la dissection du programme développemental de l’hypothalamus. Troisièmement, nous avons caractérisé le développement de l’hypothalamus antérieur chez l’embryon de poulet qui représente un modèle intéressant pour réaliser des études de perte et de gain de fonction au cours du développement de cette structure. Il faut souligner que le modèle de développement à deux couches de l’hypothalamus antérieur semble être conservé chez l’embryon de poulet où il est aussi possible de classer les gènes selon leur profil d’expression médio-latéral et le devenir des régions qu’ils définissent. Finalement, nous croyons que cette approche intégrative nous permettra d’identifier et de caractériser des régulateurs du développement du PVN qui pourront potentiellement être associés à des pathologies chez l’adulte telles que l’obésité ou l’hypertension.
Resumo:
En 1992, la Cour suprême du Canada souligne l'importance de faire la distinction entre l'obligation principale de conseil qui est l'objet principal du contrat et l'obligation d'information qui est accessoire. L'obligation principale de conseil est reconnue à l'égard des professionnels des professions dites libérales à l'époque, comme les avocats et notaires dans un contrat de mandat. Par contre, l'évolution jurisprudentielle récente démontre que l'obligation de conseil ne se limite plus à l'objet principal du contrat, et que la notion de «professionnel» n'a plus le sens restrictif d'autrefois. Au Québec, l'obligation principale de conseil est reconnue dans un premier temps à l'égard des professionnels soumis au Code des professions, notamment avocats et notaires. On reconnaît aussi une telle obligation accessoire de conseil à l'égard d'autres personnes qui, bien qu'elles ne soient pas des «professionnels» au sens du Code des professions, exercent tout de même des activités de nature professionnelle. C'est le cas, par exemple, des courtiers en valeurs mobilières, des courtiers en assurances ou des institutions financières. D'ailleurs, une controverse semble régner dans le domaine bancaire sur l'étendue de l'obligation de conseil et d'information des institutions financières envers un client dans le cadre d'un contrat de prestation de services. Plus particulièrement, les tribunaux semblent partagés sur la reconnaissance ou non d'une obligation de conseil de la banque dans le cadre d'un emprunt. Certaines décisions sont à l'effet que seule une obligation d'information s'impose alors que d'autres préconisent le conseil. Afin d'élucider la confusion qui règne présentement en jurisprudence dans le domaine bancaire ainsi que dans le contrat de services et d'entreprise en général, il faut faire une étude jumelée de l'évolution de l'obligation de conseil accessoire et de l'obligation de conseil principale. Notre étude porte sur l'évolution jurisprudentielle qui tend vers une théorisation dans le contrat de services ou d'entreprise, de l'obligation de conseil qui devient alors une variante ou une intensité de l'obligation accessoire d'information. Par le fait même, on constate qu'une obligation de conseil principale semble également s'étendre à une catégorie plus large de professionnels. Dans ce cas, l'obligation de conseil est similaire, dans son fondement, au devoir de conseil du «professionnel» traditionnel, au sens du Code des professions. On constate alors que l'obligation principale de conseil n'est plus restreinte aux professionnels au sens classique du terme.
Resumo:
Travail réalisé à l'École de bibliothéconomie et des sciences de l'information (EBSI), sous la direction de M. Yvon Lemay dans le cadre du cours BLT6850 Recherche individuelle, à l'hiver 2009.
Resumo:
La recherche sur le phénomène sonore, depuis les théorisations de Pierre Schaeffer entourant le concept de « l’objet sonore », a largement évolué nous permettant d’en saisir toute sa complexité. Poursuivant ce même dessein, nous proposons une approche compréhensive du phénomène sonore dans l’espace public urbain en nous penchant plus spécifiquement sur l’interprétation sonore des usagers empruntant les grandes rues commerciales de la ville et en l’occurrence, celles de Montréal. Au quotidien, le citadin déambule et chemine dans l’espace public en prenant conscience de son environnement à l’aide de ses sens. Outre l’aspect visuel, l’ensemble des autres sens sont, pour la plupart du temps, négligés par les designers de l’espace urbain. Il en résulte une conception du projet urbain relativement pauvre au niveau sonore. Dans ce mémoire, il sera question d’aborder le son sous l’angle de l’expérience subjective telle qu’elle est vécue par les usagers. L’objectif de nos travaux tend donc à approfondir la compréhension de l’expérience sonore de l’usager dans l’espace public urbain afin d’en intégrer les principes en amont du processus de conception. Les théories et méthodes issues du domaine de l’environnement sonore voient leur champ d’investigation élargi par l’anthropologie des sens. La richesse de cette approche permet de mieux saisir les multiples dimensions qui façonnent le vécu sonore des usagers. Le cadre de références puise également dans les pratiques artistiques. L’analyse de ces dernières fait émerger des dimensions utiles à la compréhension de l’expérience sonore. Cette expérimentation a été effectuée à l’aide de différentes méthodes de collecte de données permettant de recueillir un maximum de matière qualitative. Ainsi, des observations, des parcours d’écoute qualifiée, des parcours commentés et finalement des entretiens en profondeur ont été menés. Cette recherche a permis de mieux comprendre le dialogue existant entre le son, l’espace et l’usager en révélant les différentes dimensions de l’expérience sonore de la grande rue commerciale et notamment, celles entourant la culture des sens.
Resumo:
La sclérose systémique est une maladie autoimmune dont l’une des complications majeures est la fibrose. La DNA topoisomérase I (topo) est l’un des principaux autoantigènes associés à cette maladie. Toutefois, aucun lien n’a encore pu être établi entre la présence des anti-topo et le développement de la fibrose. Les travaux antérieurs du laboratoire d’accueil ont montré une interaction directe de la topo avec la surface des fibroblastes et la matrice extracellulaire. Nous avons voulu caractériser ces interactions du point de vue moléculaire. La topo a donc été exprimée sous forme de 5 fragments, déterminés à partir de ses principaux domaines structuraux et de ses épitopes majeurs, chez E. coli. Les fragments purifiés ont été analysés pour leur interaction avec l’héparine, représentant les héparane sulfates de la surface des fibroblastes, et avec des protéines purifiées de la matrice extracellulaire. Nous avons montré que le fragment topo-N est le principal responsable de l’interaction avec l’héparine, ce qui suggère donc l’implication potentielle de ce domaine dans l’interaction de la topo avec la surface des fibroblastes. Le fragment topo-DIDII est responsable de l’interaction avec la plupart des protéines de la matrice extracellulaire étudiées, alors que le fragment topo-H15 n’interagit qu’avec la vitronectine. Aucune interaction des fragments topo-DIII et topo-C n’a été décelée. Ces résultats pourront maintenant servir à mieux comprendre le rôle potentiel de la topo et des autoanticorps circulants anti-topo dans la fibrose présente chez les personnes atteintes de sclérose systémique en contribuant à l’identification de la cible de la topo sur les fibroblastes.
Resumo:
Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.
Resumo:
Le canal calcique de type L, Cav1.2, joue un rôle clé dans le couplage excitation-contraction des myocytes ventriculaires. Il a été montré que la sous-unité Cavα1 était sujette à l’épissage alternatif et que ce phénomène pouvait mener à une protéine tronquée en C-terminal au niveau de l’exon 45 (Liao, Yong et al. 2005). D’autres groupes ont étudié différentes délétions au niveau de l’extrémité C-terminale (De Jongh, Warner et al. 1991; Gao, Cuadra et al. 2001). Les courants mesurés dans la configuration cellule entière, était significativement plus grands que le canal « pleine longueur ». Nous avons décidé de tester certaines de ces délétions (ΔC2030, ΔC1935, ΔC1856, ΔC1733, ΔC1700) en présence ou en absence de la sous-unité auxiliaire Cavβ3, susceptible d’interagir avec l’extrémité C-terminale de la sous-unité Cavα1 par l’intermédiaire de son domaine SH3 (Lao, Kobrinsky et al. 2008). Les résultats obtenus dans les ovocytes de Xénope ont mis en évidence que les sous-unités Cavα1.2 tronquées montraient des courants globaux plus élevés que le canal « pleine longueur » en présence de la sous-unité auxiliaire Cavβ3 et que les sous-unités Cavα1.2 tronquées donnaient des courants en absence de la sous-unité Cavβ3 contrairement à la sous-unité Cavα1.2 « pleine longueur ». Afin de vérifier si l’augmentation des courants macroscopiques était le résultat d’une augmentation du nombre de sous-unités Cavα1.2 à la membrane, nous avons choisi de quantifier la fluorescence spécifiquement due à cette sous-unité en utilisant la méthode de cytométrie de flux (FACS : « Fluorescence Activated Cell Sorting »). L’épitope HA a été inséré dans une région extracellulaire de la sous-unité Cavα1 du canal calcique Cav1.2 et un anticorps anti-HA couplé au FITC (« Fluorescein IsoThioCyanate ») a été utilisé pour observer la fluorescence. Nos résultats confirment que la sous-unité Cavα1-HA du canal calcique Cav1.2, s’exprime à la membrane plasmique en présence de la sous-unité auxiliaire Cavβ3, et qu’en absence de celle-ci, ne s’exprime que peu ou pas à la membrane. Les mêmes résultats ont été obtenus pour les trois délétions testées dans les mêmes conditions soit Cavα1.2-HA ΔC1935, Cavα1.2-HA ΔC1856 et Cavα1.2-HA ΔC1733. Ensemble, ces résultats suggèrent que l’augmentation des courants macroscopiques observés après une délétion partielle du C-terminal n’est pas causée par une augmentation du nombre de protéines Cavα1.2 à la membrane.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette thèse porte sur les conceptions d’Egon Bahr dans le domaine de la politique à l’Est (Ostpolitik) de la République fédérale d’Allemagne (RFA) entre 1945 et 1975. L’analyse se concentre sur le lien entre l’Ostpolitik et l’idée que Bahr se fait de la place et du rôle de l’Allemagne en Europe. Plus précisément, cette étude veut cerner les buts poursuivis par Bahr dans le cadre de la politique orientale. La première partie traite du développement conceptuel de l’Ostpolitik (1945-1969), tandis que la seconde examine sa mise en application entre l’élection de Willy Brandt comme chancelier de la RFA et la conclusion des accords d’Helsinki (1969-1975). Les principales sources utilisées sont les écrits de Bahr ainsi que des documents inédits se trouvant dans divers centres d’archives non seulement en Allemagne, mais aussi aux États-Unis, en France et en Grande-Bretagne. Pour Bahr, l’Ostpolitik ne saurait se résumer à l’élimination des obstacles qui gênent la diplomatie ouest-allemande durant la guerre froide. Bahr poursuit plutôt un projet nationaliste ambitieux dans le contexte des relations avec le bloc soviétique : créer les conditions d’une redéfinition de la place de l’Allemagne en Europe. Pour lui, l’Ostpolitik constitue un instrument idéal pour faire de l’Allemagne la puissance prépondérante dans un nouvel ordre de paix européen. Trois éléments complémentaires participent à l’accomplissement de cette vision : 1) la consolidation de la paix et de la sécurité continentales; 2) la réunification allemande et 3) l’émancipation de la politique étrangère (ouest-)allemande. Cette thèse éclaire la pensée politique de Bahr et contribue à une meilleure compréhension de la signification de l’Ostpolitik dans le contexte plus large de la politique étrangère de la RFA. Les conceptions de Bahr sont uniques dans l’Allemagne de la guerre froide parce qu’elles sont centrées sur les notions de puissance, d’intérêt national et de « normalité ». En même temps, Bahr comprend que la coopération doit toujours rester l’instrument diplomatique privilégié des Allemands vu leur position géographique centrale. À travers le prisme des conceptions de son « architecte », l’Ostpolitik apparaît comme un véritable effort de réconciliation entre la paix en Europe et l’affirmation de l’influence allemande sur la scène internationale.