602 resultados para Représentation de l’action
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Cette thèse s'intéresse au lien qui existe entre le système électoral et deux comportements importants de la vie civique, soit la participation à une élection et la désertion stratégique du candidat préféré vers un autre candidat. Ces thèmes sont abordés dans de nombreux et de très importants ouvrages en science politique. En passant par la théorie (Downs, 1957) jusqu'à des études de terrain par l'entremise de sondages (Abramson, 2010; Blais, 2010), diverses méthodologies ont été employées pour mieux expliquer les choix des électeurs. Ma contribution à l'avancement des connaissances dans ce domaine passe par l'usage de la méthode expérimentale pour mieux saisir les similitudes et différences dans les comportements des électeurs sous le système uninominal à un tour (UT) et la représentation proportionnelle (RP) ainsi que les mécanismes au niveau individuel qui produisent ces similitudes et différences. Le cœur de la thèse est composé des trois articles dont voici les résumés : Article 1. Des élections expérimentales faites à Montréal, Paris et Bruxelles permettent d'estimer l’influence directe du mode de scrutin sur la décision des électeurs de voter ou non, et de voter pour leur parti préféré ou non. En tout, 16 groupes de 21 électeurs votent sous différents systèmes électoraux, soit le UT et la RP. Les préférences sont attribuées aléatoirement et connues de tous les participants. Nos résultats indiquent que le vote n'est pas globalement plus sincère et que la participation électorale n'est pas plus élevée sous le système proportionnel. Toutefois, nous observons moins de désertion d'un petit parti sous le système proportionnel. Article 2. Les expériences permettent également d'expliquer pourquoi les électeurs votent parfois pour un parti autre que leur parti préféré. La conclusion principale est que la décision de voter de façon sincère ou non est influencée par les préférences individuelles, mais aussi par les perceptions des chances de gagner des candidats ainsi que des chances que son propre vote puisse décider le résultat de l'élection. Les électeurs qui désertent leur premier choix prennent en considération quel candidat est le plus près de leurs positions politiques, mais également de la viabilité de cette alternative. De plus, les électeurs qui aiment prendre des risques ont davantage tendance à déserter. Article 3. Le modèle de l'électeur pivot est mis à l'épreuve pour mieux comprendre la décision de voter ou non lors d'une élection. Nos expériences permettent de répliquer, avec un devis expérimental différent, les résultats importants des travaux de Duffy et Tavits (2008). Nos résultats confirment que la perception d'être pivot augmente la participation, que ces perceptions sont sujettes à la surestimation et que cette surestimation ne décline pas complètement dans le temps. Nous allons également plus loin que les recherches de Duffy et Tavits et nous trouvons que la participation n'est pas plus forte sous RP que sous UT et que la probabilité d'être pivot a un impact plus important chez les électeurs évitant de prendre des risques.
Resumo:
L’effondrement et le démantèlement de l’Empire ottoman à la suite de la Première Guerre mondiale ont conduit les Grandes puissances européennes à opérer un partage territorial du Proche-Orient, légitimé par le système des mandats de la Société des Nations (SDN). Sans précédent, cette administration internationale marqua le point de départ de l’internationalisation de la question de la Palestine, dont le droit international allait servir de socle à une nouvelle forme de colonialisme. Au lendemain de la Seconde Guerre mondiale, l’Organisation des Nations Unies (ONU) continua l’action entreprise par la SDN en s’occupant également de cette question sur la demande des Britanniques. En novembre 1947, l’ONU décida du partage de la Palestine en deux Etats pour résoudre les conflits entre sionistes et nationalistes arabes. Si ce partage fut accepté par les sionistes, il fut rejeté par les Etats arabes voisins et de nombreux Arabes palestiniens. Les affrontements opposant nationalistes arabes et sionistes de Palestine laissèrent place au conflit israélo-arabe après la proclamation d’Indépendance de l’Etat d’Israël en mai 1948. Au commencement de la guerre froide, les Etats-Unis et l’URSS prirent conscience de l’intérêt géostratégique de cette région, progressivement désinvestie par la France et la Grande-Bretagne. Dans cette étude, nous verrons comment la scène interétatique et la communauté internationale, successivement composée de la SDN puis de l’ONU, ont en partie scellé le sort du Proche et Moyen-Orient. Nous consacrerons également une analyse au rôle joué par les idéologies nationalistes arabes et sionistes, qui tiennent une place centrale au sein de ce conflit.
Resumo:
Les thiols et le sélénium peuvent jouer un rôle important dans la méthylation du mercure des environnements aquatiques. Pour démontrer la présence des thiols et du sélénium et leur relation avec le mercure dans certains écosystèmes d'eau douce québécois, une campagne d’échantillonnage fut réalisée durant l’été 2010, dans le parc national du Mont-Tremblant (Laurentides, Québec). Il existe une corrélation significative entre le sélénium et le mercure total dans l’eau des lacs du parc. Cependant, les concentrations de sélénium sont très faibles dans les lacs, les étangs de castor et les ruisseaux. Par ailleurs, les lacs du parc national du Mont-Tremblant ont des concentrations relativement élevées de méthylmercure avec une moyenne de 0,33 ng L-1 et des maximums allant jusqu’à 3,29 ng L-1. Les étangs de castor peuvent aussi être considérés comme des lieux de contamination au méthylmercure, avec une concentration moyenne de 0,95 ng L-1. Toutefois, la présence d’une colonie de castors sur le bassin versant d’un lac ne semble pas influencer les concentrations de mercure que l’on y retrouve. Deux thiols sont détectables dans l’eau de surface des Laurentides, soit le glutathion et l’acide thioglycolique. La concentration de ce dernier thiol est corrélée significativement avec celle du mercure total et du méthylmercure. Les thiols peuvent jouer un rôle important dans les processus de méthylation en favorisant le transport du mercure inorganique à l’intérieur des bactéries sulfato-réductrices. Afin de mieux comprendre l’action antagoniste entre le sélénium et le mercure, des études devraient être réalisées au niveau des tissus des organismes vivants dans ces zones pauvres en sélénium.
Resumo:
Les cellules beta pancréatiques sécrètent l’insuline lors d’une augmentation post-prandiale du glucose dans le sang. Ce processus essentiel est contrôlé par des facteurs physiologiques, nutritionnels et pathologiques. D’autres sources d’énergie, comme les acides aminés (leucine et glutamine) ou les acides gras potentialisent la sécrétion d’insuline. Une sécrétion d’insuline insuffisante au besoin du corps déclanche le diabète. Le rôle que joue l’augmentation du calcium intracellulaire et les canaux K+/ATP dans la sécrétion d’insuline est bien connu. Bien que le mécanisme exact de la potentialisation de la sécrétion d’insuline par les lipides est inconnu, le cycle Glycérolipides/Acides gras (GL/FFA) et son segment lipolytique ont été reconnu comme un composant essentiel de la potentialisation lipidique de la sécrétion d’insuline. Le diacylglycérol, provenant de la lipolyse, a été proposé comme un signal lipidique important d’amplification. Cependant, l’hydrolyse des triglycérides et des diacylglycérides a été démontrée essentielle pour la sécrétion d’insuline stimulée par le glucose, en suggérant un rôle du monoacylglycérol (MAG) dans ce processus. Dans cette étude, on démontre que la réduction de la sécrétion d’insuline stimulée par le glucose, lors d’une inhibition de la lipolyse, est restaurée par l’addition de MAG. Dans les cellules beta pancréatiques, le niveau de MAG augmente en présence des concentrations élevées du glucose, et également lorsqu’on inhibe l’enzyme MAG hydrolase abhydrolase-6 (ABHD6) avec l’inhibiteur spécifique WWL70. L’analyse lipidomique a démontré qu’après la stimulation des cellules beta pancréatiques avec le glucose et aussi avec le WWL70, l’espèce la plus accumulée de MAG était le 1-stearoylglycérol (1-SG). L’addition de 1-SG, de 1-palmitoylglycérol (1-PG) ou de WWL70 augmente la sécrétion d’insuline stimulée par le glucose, et cette augmentation est indépendante de la génération de acides gras à partir de MAG. Cela suggère que le MAG est un signal lipidique pour la potentialisation de la sécrétion d’insuline stimulée par le glucose. De plus, la surexpression du gène d’ABHD6 dans les cellules INS832/13 cause une réduction de la sécrétion d’insuline, due probablement à la diminution des niveaux intracellulaire de MAG. Avec le but de comprendre le mécanisme moléculaire impliqué dans la potentialisation de la sécrétion d’insuline par le MAG, on a bloqué l’action du récepteur vanilloid-1 (TRPV1) liant le MAG par l’agent pharmacologiste, AMG9810. Le traitement des cellules beta pancréatique par AMG9810 entraîne une diminution de la potentialisation de la sécrétion de l’insuline induite par le MAG. Il est a noter que le MAG pourrait activer TRPV1 par une liaison physique dans la membrane cellulaire interne; ce qui entraînerai l’entrée du calcium dans la cellule, et ensuite la stimulation de l’exocytose des granules à insuline. En soutien de cette hypothèse, on a trouvé une diminution du calcium intracellulaire lorsqu’on traite au AMG9810 des cellules beta pancréatique de rat (provenant des îlots dispersés) stimulées au glucose et au WWL70. L’ensemble des résultats suggère que le MAG est un médiateur de la potentialisation lipidique de la sécrétion d’insuline stimulée par le glucose. Vu que l’inhibition pharmacologique d’ABHD6 augmente la sécrétion d’insuline, on pourra conclure que cette enzyme représente une cible thérapeutique potentielle dans le développement des médicaments anti-diabétiques, visant une augmentation de la sécrétion d’insuline.
Resumo:
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat.
Resumo:
La question de recherche « Conserver ou restaurer ? » est le point de départ d’une aventure invitant le lecteur à répondre à qu’est-ce qui oriente nos interventions en matière de conservation du patrimoine bâti. Sachant que ces positions rivales ont toutes une prétention à la vérité, cette thèse fait l’hypothèse d’une médiation entre les deux approches en clarifiant ses différentes interprétations. À partir d'un regard critique de la théorie de Cesare Brandi fondée sur la dialectique historique-artistique de l’œuvre d’art ainsi que d'une réflexion sur la nature fonctionnelle de l’œuvre architecturale, cette thèse démontre qu’il n’y a pas lieu a priori de donner une prédominance à l’une des deux options, ni à établir une échelle de valeurs prédéterminées, mais dévoile un dénominateur commun qui est le temps. Ce dernier ne se restreint pas au passé et au présent, mais implique la puissance destructrice du temps de la nature et le temps historique fondé sur un présent durable riche du passé et ouvert sur l'avenir. Les résultats de la recherche révèlent enfin un dialogue possible entre nos deux alternatives, en proposant une éthique disciplinaire axée sur la dialectique du temps. Savoir « quand conserver ou quand restaurer » demande la reconnaissance de ce que l’on retient de plus significatif à travers l’existence de l’œuvre. Situer cette signification dans un passé révolu désigne l’œuvre comme témoignage d’un temps passé, en lui reconnaissant sa fonction mémorielle ou remémorative ; d’où l’approche à prédominance conservative visant à faire reculer la puissance destructrice du temps de la nature et à préserver le témoignage matériel de la dégradation. Au contraire, situer cette signification dans un présent vivant, c’est reconnaître sa vocation identitaire destinée à la représentation d’une culture ; d’où l’approche à prédominance restaurative (ré-intégrative) fondée sur le temps historique, d’un présent durable riche du passé et ouvert sur l'avenir visant à en révéler le sens. En bref, en ce qui concerne tout le patrimoine bâti, on ne peut parler que d’une dialectique fondamentale issue de la nature même de ces œuvres, à interpréter sous leur fonction mémorielle et leur vocation identitaire. Par conséquent, conserver ou restaurer devraient être réinterprétés par préserver la mémoire ou révéler l’identité. Ainsi, la conservation et la restauration ne doivent plus être entendues comme deux options antagonistes, mais comme deux modalités d’interprétation au service de la médiation de l’œuvre architecturale à travers le temps.
Resumo:
Il est convenu de dire que la famille d’aujourd’hui se construit de multiples façons. Les familles recomposées, issues des nouvelles technologies de la reproduction, de l’adoption internationale ou dont les parents sont de même sexe font partie du paysage depuis de nombreuses années, au point où elles n’étonnent plus. Ces familles ont comme particularité de remettre en question l’adéquation entre la sexualité du couple et la reproduction tout en introduisant d’autres personnes dans la conception ou dans l’éducation des enfants. Malgré la polymorphie des familles contemporaines, perdure toutefois une certaine représentation de la famille basée sur le sang partagé entre les différents membres qui la composent. En ce sens, les « vrais » parents sont ceux qui sont à l’origine de la naissance de l’enfant (Déchaux, 2007; Deliège, 2005). Parallèlement à cela, on constate l’émergence d’un discours centré sur l’importance du père pour le développement et le bien-être de l’enfant, au point où l’absence du père au sein du foyer familial tend de plus en plus à être conceptualisée comme un problème social majeur (Kelly, 2009). De fait, les recherches démontrent que l’engagement paternel profite autant aux enfants qu’au père et à la mère. C’est dans ce contexte que s’inscrivent les familles lesboparentales dont les enfants sont nés d’un donneur connu. Cette thèse a comme objectif de comprendre le rôle du donneur au sein des familles lesboparentales, à savoir la place que lui font les mères dans leur projet parental. Nous cherchons également à comprendre comment ce rôle s’actualise. Pour ce faire, nous avons interrogé neuf (9) couples lesbiens et les neuf (9) donneurs à l’origine de leur projet parental. Les résultats présentent un niveau différencié d’implication des donneurs en fonction de la mise à distance ou de l’appropriation par les mères du schéma nucléaire traditionnel.
Resumo:
Cette recherche porte sur la dimension interprétative de l'intégration européenne et sur son rôle dans la démocratisation au sein des pays postcommunistes. Je focalise mon attention sur la signification pour les gens desdits pays que revêtent la participation politique, la compétence politique, et l’action collective. Cette signification prend forme selon des circonstances spécifiques, agencées par les relations de pouvoir asymétriques avec l’Union européenne (UE). J’examine la littérature sur le rôle de l'intégration européenne dans la démocratisation des pays postcommunistes et je distingue deux paradigmes théoriques principaux : un premier qui met l'accent sur le processus institutionnel, l’autre sur le processus instrumental stratégique. Au sein de ces deux approches, je présente différents auteurs qui voient l'UE soit comme un facteur pro-démocratique, soit comme un facteur antidémocratique dans le contexte postcommuniste de transition politique. Cette recherche ne suit pas théoriquement et méthodologiquement les études contenues dans la revue de la littérature. Plutôt, elle s’appuie sur un modèle théorique inspiré des recherches de McFalls sur la réunification culturelle allemande après 1989. Ce modèle, sans négliger les approches institutionnelles et stratégiques, met l’accent sur d'autres écoles théoriques, interprétatives et constructivistes. Mes conclusions se basent sur les résultats de séjours d'étude dans deux pays postcommunistes : la Bulgarie, membre de l'UE depuis 2007, et la Macédoine, pays-candidat. J’ai recours à des méthodes qualitatives et à des techniques ethnographiques qui triangulent des résultats puisés à des sources multiples et variées pour exposer des trajectoires dynamiques de changement culturel influencées par l'intégration européenne. Les conclusions montrent sous quelles conditions les idéaux-types de changement politique conventionnels, soit institutionnel ou stratégique, représentent des modèles utiles. Je présente aussi leurs limitations. Ma conclusion principale est que l'intégration européenne représente un phénomène complexe dans le monde des significations. C’est un facteur qui est simultanément un amplificateur et un inhibiteur de la culture politique démocratique. Les gens créent des sous-cultures différentes où des interprétations multiples du processus d'intégration européenne mènent à des effets dissemblables sur la participation politique, la compétence et l’action collective. La conversation discursive entre les gens qui composent de telles sous-cultures distinctes peut produire des effets divergents au niveau national. Cette recherche n’est pas une analyse de l’UE comme mécanisme institutionnel ; elle ne pose ainsi pas l’UE comme une institution qui détermine directement le processus de démocratisation postcommuniste. Plutôt, elle s’intéresse au processus d’intégration européenne en tant qu’interaction qui affecte la culture politique au sein des pays postcommunistes, et à la manière dont cette dernière peut agir sur le processus de démocratisation. Mon point d’intérêt central n’est donc pas l’européanisation ou le processus de devenir « comme l’Europe », à moins que l’européanisation ne devienne une composante de la culture politique avec des conséquences sur le comportement politique des acteurs.
Resumo:
Cet essai fut écrit sur le mode de la promenade, d’une promenade accompagnée par les voix, des voix. Parmi elles, celle de Colette, de certains de ses personnages, celles contenues en moi. L’écriture a été libre, a tenté de l’être au moins, en se séparant de l’idée qu’un but précis, qu’une destination finale devait être atteinte. Il s’agissait de me laisser guider par l’errance des mots, par le rythme que prend la plume quand elle pense. De Colette, je ne dis rien, ou presque. Mon but étant de l’entendre, c’est en tant que lectrice que j’ai pris place dans cette réflexion, lectrice amoureuse, c’est-à-dire, guidée par l’En-Amour, conçu comme personnage conceptuel. C’est donc de ce point de vue que les textes ont été abordés, afin de laisser place à la vie, à la mouvance, à ce qui grouille dans l’œuvre colettienne. De cette manière, il me semblait possible d’entrer réellement en relation avec les personnages, mais aussi avec la représentation que je me faisais de l’auteure. Il me fallait garder la poésie de l’écriture de Colette, y entrelacer la mienne et tenter ainsi de donner des mots à une sorte de silencieuse oralité. Et le chemin s’est poursuivi, jusqu’à une vérité relative, vérité de l’En-Amour, donnée et mise en forme par les récits colettiens et leurs sous-entendus. De cette façon, je voyais la possibilité de redonner foi et valeur au(x) discours amoureux comme potentiel(s) de vérité.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal