1000 resultados para La Vallière, Mme de
Resumo:
Avec une mondialisation omniprésente, les études sur l’aspect interculturel des organisations deviennent de plus en plus d’actualité et fascinent les chercheurs comme les praticiens. Notre étude suit donc cette voie et porte sur la construction du sens de l’expérience interculturelle au sein d’une entreprise multinationale. Nous avons cherché à comprendre, d’un point de vue interprétatif, comment les acteurs construisent le sens des caractères multinationaux et interculturels de l’entreprise, à travers leurs expériences au sein d’une multinationale québécoise. La recherche existante discute les aspects culturels et communicatifs tels que le contexte, la langue et le flux de message, identifiés par E.T. Hall (Hall, 1976, 1990) comme centraux dans la problématique générale de la communication interculturelle. Nous avons cependant abordé ces mêmes aspects depuis la perspective de la théorie du sensemaking (Weick, 1995) en nous centrant sur les points de vue des acteurs et de leurs expériences. Sur la base d’entrevues en profondeur, la recherche montre que, bien qu’il soit fortement valorisé par tous les interviewés, l’aspect interculturel n’a pas été profondément intégré dans les pratiques communicatives de tous les jours, comme nous aurions pu le croire. Néanmoins, cet aspect exerce une influence réelle et considérable pour certains employés, comme les gestionnaires des ressources humaines et des relations publiques, due essentiellement à la nature même de leurs fonctions. Les résultats suggèrent également que l’aspect interculturel est vécu de manière fort différente selon l’identité qui est attachée à l’organisation. Cette dernière est en effet parfois considérée comme (1) une organisation « locale », c’est-à-dire en référence à son origine québécoise, comme (2) une organisation multinationale, en référence aux interactions entre les parties de l’organisation dispersées dans le monde entier, et enfin (3) comme une firme étrangère du point de vue des acteurs des pays hôtes. Dans les trois cas les enjeux interculturels pour les acteurs varient considérablement tout comme, en conséquence, le sens qui est accordé à cet aspect de l’organisation. Mots-clés : Expérience interculturelle, organisation multinationale, théorie du sensemaking, communication interculturelle.
Resumo:
La question de recherche « Conserver ou restaurer ? » est le point de départ d’une aventure invitant le lecteur à répondre à qu’est-ce qui oriente nos interventions en matière de conservation du patrimoine bâti. Sachant que ces positions rivales ont toutes une prétention à la vérité, cette thèse fait l’hypothèse d’une médiation entre les deux approches en clarifiant ses différentes interprétations. À partir d'un regard critique de la théorie de Cesare Brandi fondée sur la dialectique historique-artistique de l’œuvre d’art ainsi que d'une réflexion sur la nature fonctionnelle de l’œuvre architecturale, cette thèse démontre qu’il n’y a pas lieu a priori de donner une prédominance à l’une des deux options, ni à établir une échelle de valeurs prédéterminées, mais dévoile un dénominateur commun qui est le temps. Ce dernier ne se restreint pas au passé et au présent, mais implique la puissance destructrice du temps de la nature et le temps historique fondé sur un présent durable riche du passé et ouvert sur l'avenir. Les résultats de la recherche révèlent enfin un dialogue possible entre nos deux alternatives, en proposant une éthique disciplinaire axée sur la dialectique du temps. Savoir « quand conserver ou quand restaurer » demande la reconnaissance de ce que l’on retient de plus significatif à travers l’existence de l’œuvre. Situer cette signification dans un passé révolu désigne l’œuvre comme témoignage d’un temps passé, en lui reconnaissant sa fonction mémorielle ou remémorative ; d’où l’approche à prédominance conservative visant à faire reculer la puissance destructrice du temps de la nature et à préserver le témoignage matériel de la dégradation. Au contraire, situer cette signification dans un présent vivant, c’est reconnaître sa vocation identitaire destinée à la représentation d’une culture ; d’où l’approche à prédominance restaurative (ré-intégrative) fondée sur le temps historique, d’un présent durable riche du passé et ouvert sur l'avenir visant à en révéler le sens. En bref, en ce qui concerne tout le patrimoine bâti, on ne peut parler que d’une dialectique fondamentale issue de la nature même de ces œuvres, à interpréter sous leur fonction mémorielle et leur vocation identitaire. Par conséquent, conserver ou restaurer devraient être réinterprétés par préserver la mémoire ou révéler l’identité. Ainsi, la conservation et la restauration ne doivent plus être entendues comme deux options antagonistes, mais comme deux modalités d’interprétation au service de la médiation de l’œuvre architecturale à travers le temps.
Resumo:
De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.
Resumo:
Le site de la carrière du mont Royal (BjFj-97), découvert en 1993 par Yvon Codère et inventorié en 1997 par l’équipe d’Ethnoscop Inc., constitue une énigme archéologique intéressante pour quiconque s’intéresse à la préhistoire de l’île de Montréal et de sa région adjacente. Lors des activités archéologiques de 1997, quelques idées furent émises quant à son affiliation chronologique et sa nature, suggérant une occupation remontant à l’Archaïque terminal (4000 à 3000 AA) orientée vers l’extraction et la transformation de la cornéenne, une pierre métamorphique résultant de la transformation du substrat rocheux en place suite à des intrusions magmatiques lors du Crétacé qui ont créé les Montérégiennes. Le matériel, comprenant plus de 10 000 déchets de taille et un peu plus de 70 artéfacts divers, ne fît pas l’objet d’analyses poussées hormis la datation approximative du site par un examen sommaire des pointes de projectile. Ce mémoire reprend les données de 1997 et apporte une perspective nouvelle au site en décrivant morphologiquement et technologiquement le débitage de la pierre de façon à comprendre la chaîne opératoire de la cornéenne, une matière peu étudiée, mais fort commune au Québec méridional, appréhender les possibilités de la matière et aborder les questions de datation. L’ensemble du matériel lithique fît l’objet d’une analyse lithique poussée axée sur le débitage et les produits finis et propose la prépondérance de la taille bifaciale, ponctuée par un débitage sur éclat conséquent. L’ensemble des étapes de la chaîne opératoire est présent sur le site de la carrière du mont Royal. La cornéenne est une matière difficile à tailler en raison de son imprévisibilité, liée à la structure même de la matière, menant à un fort taux d’échecs lors de l’élaboration des outils. La datation de l’occupation principale du site pointe vers l’Archaïque terminal, mais le caractère équivoque des diverses classes d’objets rend difficile sa définition absolue, faute d’objets parfaitement diagnostiques. Le site BjFj-97 ressemble grandement à un site homologue en Nouvelle-Angleterre où la cornéenne fût travaillée suivant le même schéma opératoire, suggérant un apparentement culturel possible. La cornéenne abonde et domine dans les assemblages archéologiques de la région montréalaise, substituant ainsi des matières de meilleure qualité absentes régionalement. Leurs correspondances chronologiques transcendent celles établies lors de l’analyse du matériel de la carrière et montrent un étalement chronologiquement plus étendu, de l’Archaïque laurentien au Sylvicole supérieur. La cornéenne se retrouve habituellement sous forme d’outils bifaciaux fonctionnels (bifaces, couteaux et pointes de projectile) de piètre facture et d’outils sur éclats (grattoirs et racloirs) rudimentaires, suggérant une signification strictement utilitaire, le propre des matières de basse qualité. Les modes d’extraction de la cornéenne restent inconnus sur le mont Royal. Le mont Royal est plus qu’un vulgaire point défensif, il constitue la base de la subsistance des populations préhistoriques de jadis où se trouvent les matériaux nécessaires à la taille d’outils de prédation liés à un mode de vie mobile où domine la chasse.
Resumo:
Nous nous proposons d’éclairer la question de l’éthique au travail par l’étude de la philosophie de Jan Patočka, dont les publications permettent de sortir de l’antagonisme apparent entre une éthique pensée par le sujet et une éthique donnée. En effet, ses écrits, n’ouvrent-ils pas sur une approche a-subjective de l’éthique au travail mais aussi sur une pensée de l’éthique comme expérience de la liberté ? Ces deux interrogations correspondent aux deux premières parties de notre article et leur discussion est en soi un apport. Dans un troisième temps, nous partirons du caractère « non atomisable » du monde, tel que Patočka l’amène, pour profiler une éthique qui en serait l’horizon. Au final, il en ressort que l’éthique au travail est indissociable de la notion même d’humanité.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Resumo:
Selon la théorie de la double hérédité, les processus de transmission sociale des connaissances permettraient aux cultures humaines d'évoluer de manière darwinienne. On parvient à cette conclusion en inférant que, étant donné qu'une analogie profonde peut être établie entre les mécanismes de transmission génétique et ceux de transmission sociale, on devrait non seulement concevoir que les processus cognitifs d'apprentissage social constituent bel et bien un système d'hérédité distinct du système d'hérédité génétique, mais qu’il est aussi légitime, sur la base de cette même analogie, de transférer les concepts explicatifs et outils formels issus de la biologie évolutionnaire et de les adapter à l'étude des cultures humaines en vue de constituer une théorie darwinienne de l'évolution culturelle. Cette analogie de l’hérédité culturelle fait depuis longtemps l'objet de controverses tant au sein de la littérature scientifique que dans les discussions philosophiques. On ne semble pas s'entendre sur la nature même de cette analogie ni non plus sur la force de justification épistémique qu'une telle analogie donnerait à la mise en place d'une théorie darwinienne de l'évolution culturelle. Néanmoins, à travers plus de quarante années de débats, la structure de cette analogie n'a jamais été examinée en détail et on a rarement examiné l'épistémologie des inférences par analogie dans un tel contexte. L'objectif principal de la présente thèse consistera à offrir une première analyse systématique de la nature, de la structure, de la fonction et de la justification épistémique de l'analogie de l'hérédité culturelle, fondement conceptuel de la théorie de la double hérédité. En portant ici une attention particulière à la structure logique de cette analogie, on pourra constater l'ampleur de sa complexité, complexité passant souvent inaperçue dans les critiques de la théorie de la double hérédité. On défendra ici la thèse selon laquelle l'analogie de l'hérédité culturelle est en fait composée de deux analogies constitutives qui, conjointement, ouvrent la voie à la mise en place et à l’organisation d’un programme de recherche visant à mettre au point une théorie darwinienne de l’évolution culturelle.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal www.bib.umontreal.ca/MU).
Resumo:
Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.
Resumo:
Le fer, un métal de transition, est requis pour la survie de presque tout les organismes vivant à cause de son habilité à accepter ou donner un électron et donc à catalyser plusieurs réactions biochimique fondamentales. Cependant, la même propriété permet aussi au fer ionique d’accélérer la formation de radicaux libres et donc le fer peut potentiellement avoir des effets néfastes. Conséquemment, l’homéostasie du fer doit être étroitement régulé, tant au niveau cellulaire que systémique. Notre étude met l’emphase sur deux molécules importante pour régulation du métabolisme du fer : la lipocaline 2 (Lcn2) et l’hepcidine. Lcn2, une protéine de phase aiguë, est impliquée dans le transport du fer par les sidérophores. Lcn2 est un candidat potentiel comme transporteur du fer qui pourrait être responsable de l’accumulation excessive du fer non lié à la transferrine dans le foie des patients atteints d’hémochromatose héréditaire (HH). Nous avons généré des souris double-déficiente HfeLcn2 pour évaluer l’importance de Lcn2 dans la pathogenèse de surcharge en fer hépatique dans les souris knock-out Hfe (Hfe -/-). Notre étude révèle que la délétion de Lcn2 dans les souris Hfe-/- n’influence pas leur accumulation de fer hépatique ou leur réponse à une surcharge en fer. Le phénotype des souries HfeLcn2-/- demeure indiscernable de celui des souris Hfe-/-. Nos données impliquent que Lcn2 n’est pas essentiel pour la livraison du fer aux hépatocytes dans l’HH. L’hepcidine, un régulateur clé du métabolisme du fer, est un petit peptide antimicrobien produit par le foie et qui régule l’absorption intestinale du fer et son recyclage par les macrophages. L’expression de l’hepcidine est induite par la surcharge en fer et l’inflammation, tandis que, à l'inverse, elle est inhibée par l'anémie et l'hypoxie. Dans certaine situations pathologique, l’hepcidine est régulée dans des directions opposées par plus d’un régulateur. Nous avons, en outre, analysé comment les différents facteurs influencent l’expression de l’hepcidine in vivo en utilisant un modèle de souris avec un métabolisme du fer altéré. Nous avons examiné la régulation de l’hepcidine en présence de stimuli opposés, ainsi que la contribution des médiateurs et des voix de signalisation en aval de l’expression de l’hepcidine. Nous avons démontré que l'érythropoïèse, lorsque stimulé par l’érythropoïétine, mais pas par l’hypoxie, diminue l’expression de l’hepcidine d’une façon dépendante de la dose, même en présence de lipopolysaccharides ou de surcharge de fer alimentaire, qui peuvent agir de manière additive. De plus, l’entraînement érythropoïétique inhibe tant la voix inflammatoire que celle de détection du fer, du moins en partie, par la suppression du signal IL-6/STAT3 et BMP/SMAD4 in vivo. Au total, nos données suggèrent que le niveau d’expression de l’hepcidine en présence de signaux opposés est déterminé par la force du stimulus individuel plutôt que par une hiérarchie absolue. Ces découvertes sont pertinentes pour le traitement de l’anémie des maladies chronique et les désordres de surcharge en fer.
Resumo:
La fibrose kystique (FK) est la maladie autosomique récessive la plus fréquente chez les individus de race caucasienne. Elle est secondaire à la mutation du gène Cystic Fibrosis Transmembrane Regulator (CFTR). Grâce à des traitements plus agressifs, la médiane de l’espérance de vie des individus atteints de la FK a augmenté et cette augmentation est associée à l’émergence du diabète secondaire ou associé à la FK (DAFK), une complication associée à une augmentation du taux de mortalité. La pathophysiologie du DAFK n’est pas parfaitement comprise. Par exemple, la cause de l’accélération de la perte de la fonction pulmonaire, qui débute des années avant l’apparition du DAFK, n'est pas élucidée. Tous les patients atteints de la FK, même ceux sans le DAFK, présentent de l’hyperglycémie et des fluctuations glycémiques. D’ailleurs, une étude a démontré que la réactivité immunitaire est affectée par l’hyperglycémie dans un modèle animal de la FK et il y a des évidences que les lymphocytes sans CFTR fonctionnel ou en présence d’un excès de glucose ont des réactions inflammatoires anormales. Donc, nous avons émis l’hypothèse que les patients atteints de la FK, surtout ceux non-diabétiques et pré-diabétiques, auront une plus grande proportion de lymphocytes Th17 et Treg produisant la cytokine pro-inflammatoire IL-17A comparativement aux sujets sains et que l’augmentation de cette cytokine pourrait influencer la chute accélérée des fonctions pulmonaires avant l’apparition du DAFK. Des niveaux élevés d’IL-17A sont retrouvés dans les poumons des patients atteints de la FK et dans le sang périphérique des patients avec le diabète de type 1 (DT1) et de type 2 (DT2). L’IL-17A peut aussi être produite par les lymphocytes Treg dysfonctionnels. Habituellement, ces lymphocytes atténuent les réponses inflammatoires excessives, mais lorsqu’ils sont dysfonctionnels, ils peuvent produire de l’IL-17A, contribuant ainsi à l’état inflammatoire. De plus, nous avons supposé que les proportions de Th17 et Treg produisant de l’IL-17A seront associées aux fonctions pulmonaires des patients atteints de la FK et que l’alimentation, l’activité physique et la composition corporelle influenceraient ces relations. Les résultats de cette thèse ont montré que, malgré une association entre la proportion de lymphocytes dans le sang périphérique et les indices de fluctuations glycémiques, celles-ci n’influençaient pas les proportions de lymphocytes Th17 et Treg produisant de l’IL-17A lorsqu’ils étaient mis en culture pour 24 ou 48 heures dans des milieux contenant soit 5 mM ou 25 mM de glucose et stimulés par le phorbol 12-myristate 13-acetate (PMA) et le phytohemagglutinine (PHA) ou, encore, non stimulés. De plus, ces proportions étaient semblables entre les patients atteints de la FK et les individus en santé. Toutefois, les proportions de lymphocytes Treg stimulés produisant de l’IL-17A des sujets sains étaient plus élevées que les proportions de lymphocytes Treg non stimulés de tous les participants (patients atteints de la FK et individus en santé). Tout ceci suggérant donc que les Treg des sujets sains et atteints de la FK ne réagissaient pas de la même façon à la stimulation. D’ailleurs, la durée d’incubation affectait les proportions de Th17 produisant de l’IL-17A, mais elle n’avait aucun effet sur les proportions de Treg produisant cette cytokine. Donc, ces types cellulaires réagissaient différemment dans les mêmes milieux de culture. De plus, nous avons observé que seulement l’énergie provenant des glucides affectait modestement les indices de fluctuations glycémiques et que les proportions de Th17 et Treg produisant de l’IL-17A n’étaient pas associées aux fonctions pulmonaires des patients atteints de la FK. En conclusion, les patients atteints de la FK avaient plus d’hyperglycémie et de fluctuations glycémiques, mais elles n’influençaient pas les proportions de lymphocytes Th17 et Treg produisant de l’IL-17A ex vivo. Dans des études futures, il faudrait étudier le rôle de l’IL-17A dans les poumons des patients avec et sans le DAFK et réaliser une étude prospective pour déterminer si une augmentation des niveaux d’IL-17A chez les patients sans le DAFK se traduit par une chute accélérée des fonctions pulmonaires avant l’apparition de cette complication.
Resumo:
Ce mémoire est constitué d’une analyse du texte intitulé « Quel doit être le point de départ de la science ? » situé en ouverture de la Science de la logique. Partant de l’affirmation de Hegel selon laquelle le commencement de la Logique est inanalysable et indéfinissable, nous rapprochons la notion de définition de celle de spekulativer Satz et proposons d’étudier le concept de commencement en distinguant une perspective épistémologique d’une perspective ontologique. Cette distinction permettra de mettre en évidence la possibilité de définir le commencement d’une façon positive si l’on tient compte du choix (Entschluss) et de l’ordre qui émergent de l’abandon de la perspective épistémologique. Cette définition s’appuie sur la présence dans le texte d’un registre prescriptif et permet de rendre compte du fait que le commencement doit être à la fois absolu et unilatéral. Si la difficulté posée par cette définition demeure, c’est en raison de la nature même du commencement, où tout manque, même la stabilité d’une définition, sans pour autant que cette instabilité ne soit conforme au mouvement inhérent à la proposition spéculative.
Resumo:
Dans cette thèse, nous étudions la period room présentée dans le musée d’art. À travers un examen de sa spécificité matérielle, spatiale et temporelle, nous analysons les mécanismes propres à cette stratégie de mise en exposition et nous identifions ses principales conditions de possibilité. Ce faisant, nous étudions les différents savoirs qui sont sollicités par la period room, leurs interactions ainsi que l’apport réciproque de cette stratégie de mise en exposition à la construction de ces savoirs et ce, de manière à établir les fondements d’une épistémologie de la period room. Nous montrons ainsi quelle est sa contribution particulière à l’élaboration et à la médiation de l’histoire dans l’espace muséal. Grâce à cette étude, nous posons des assises conceptuelles qui permettent de repenser le rôle de la period room pour la discipline de l’histoire de l’art, déjouant par le fait même les apories de l’historicisme et de l’authenticité en vertu desquelles la period room est le plus souvent discréditée. Nous procédons par études de cas à partir d’un corpus principalement composé de period rooms ayant pour référents des intérieurs français de la seconde moitié du 18ième siècle et qui sont présentées dans des musées d’art américains (Frick Collection, Metropolitan Museum of Art, Philadelphia Museum of Art) et dans un musée canadien d’histoire naturelle et culturelle (Royal Ontario Museum). Dans la première partie de la thèse, nous établissons la typologie muséographique de la period room et nous envisageons les enjeux, notamment idéologiques, associés à la question de son « authenticité » à travers une analyse de son double statut de pastiche et de simulacre. Nous posons en outre l’un des fondements théoriques de notre étude en montrant que, parce qu’elle est formée de l’articulation entre pouvoirs et savoirs, la period room est un dispositif au sens où l’entendent Michel Foucault (1977) et Giorgio Agamben (2007). Dans la seconde partie, nous examinons la spécificité matérielle de la period room en démontrant comment elle est simultanément une réunion d’objets et un « tout », c’est-à-dire un objet muséographique en elle-même. Nous étudions les implications épistémologiques de cette idée pour la représentation de l’histoire proposée au moyen de la period room, tout en portant une attention particulière aux enjeux politiques qui informent cette représentation dans l’espace muséal. Dans la troisième partie, nous nous concentrons sur les particularités spatiales et temporelles de cette stratégie de mise en exposition et nous démontrons que, en dépit de son apparente unité de lieu et de temps, la period room est composée de plusieurs espaces et concentre plusieurs temps. En puisant dans la spécificité même de ce dispositif, nous élaborons des outils théoriques et méthodologiques inédits qui contribuent à repenser la fonction de la period room pour la mise en forme et la transmission de l’histoire. En conclusion, nous présentons une dernière étude de cas qui, examinant l’intervention de Valerie Hegarty dans trois period rooms du Brooklyn Museum (2013), synthétise les principaux enjeux traités dans la thèse et défend la valeur d’actualité de la period room.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.