508 resultados para Fluctuations du taux de change


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique deduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes deduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce mémoire a pour but d'étudier les propriétés des solutions à l'équation aux valeurs propres de l'opérateur de Laplace sur le disque lorsque les valeurs propres tendent vers l'in ni. En particulier, on s'intéresse au taux de croissance des normes ponctuelle et L1. Soit D le disque unitaire et @D sa frontière (le cercle unitaire). On s'inté- resse aux solutions de l'équation aux valeurs propres f = f avec soit des conditions frontières de Dirichlet (fj@D = 0), soit des conditions frontières de Neumann ( @f @nj@D = 0 ; notons que sur le disque, la dérivée normale est simplement la dérivée par rapport à la variable radiale : @ @n = @ @r ). Les fonctions propres correspondantes sont données par : f (r; ) = fn;m(r; ) = Jn(kn;mr)(Acos(n ) + B sin(n )) (Dirichlet) fN (r; ) = fN n;m(r; ) = Jn(k0 n;mr)(Acos(n ) + B sin(n )) (Neumann) où Jn est la fonction de Bessel de premier type d'ordre n, kn;m est son m- ième zéro et k0 n;m est le m-ième zéro de sa dérivée (ici on dénote les fonctions propres pour le problème de Dirichlet par f et celles pour le problème de Neumann par fN). Dans ce cas, on obtient que le spectre SpD( ) du laplacien sur D, c'est-à-dire l'ensemble de ses valeurs propres, est donné par : SpD( ) = f : f = fg = fk2 n;m : n = 0; 1; 2; : : :m = 1; 2; : : :g (Dirichlet) SpN D( ) = f : fN = fNg = fk0 n;m 2 : n = 0; 1; 2; : : :m = 1; 2; : : :g (Neumann) En n, on impose que nos fonctions propres soient normalisées par rapport à la norme L2 sur D, c'est-à-dire : R D F2 da = 1 (à partir de maintenant on utilise F pour noter les fonctions propres normalisées et f pour les fonctions propres quelconques). Sous ces conditions, on s'intéresse à déterminer le taux de croissance de la norme L1 des fonctions propres normalisées, notée jjF jj1, selon . Il est vi important de mentionner que la norme L1 d'une fonction sur un domaine correspond au maximum de sa valeur absolue sur le domaine. Notons que dépend de deux paramètres, m et n et que la dépendance entre et la norme L1 dépendra du rapport entre leurs taux de croissance. L'étude du comportement de la norme L1 est étroitement liée à l'étude de l'ensemble E(D) qui est l'ensemble des points d'accumulation de log(jjF jj1)= log : Notre principal résultat sera de montrer que [7=36; 1=4] E(B2) [1=18; 1=4]: Le mémoire est organisé comme suit. L'introdution et les résultats principaux sont présentés au chapitre 1. Au chapitre 2, on rappelle quelques faits biens connus concernant les fonctions propres du laplacien sur le disque et sur les fonctions de Bessel. Au chapitre 3, on prouve des résultats concernant la croissance de la norme ponctuelle des fonctions propres. On montre notamment que, si m=n ! 0, alors pour tout point donné (r; ) du disque, la valeur de F (r; ) décroit exponentiellement lorsque ! 1. Au chapitre 4, on montre plusieurs résultats sur la croissance de la norme L1. Le probl ème avec conditions frontières de Neumann est discuté au chapitre 5 et on présente quelques résultats numériques au chapitre 6. Une brève discussion et un sommaire de notre travail se trouve au chapitre 7.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Bien qu'il soit désormais établi que les institutions du travail (tel que la syndicalisation et le salaire minimum) aient eu pour effet deduire l'inégalité des salaires entre les travailleurs au Canada et dans d'autres pays industrialisés, leur impact sur l'inégalité des revenus entre les familles ou les ménages reste incertain. Cette étude a pour but d'estimer l'impact de la densité syndicale et du salaire minimum réel sur l'évolution de l'inégalité des revenus de marché entre les ménages canadiens durant les années 1981 à 2008. À partir d'une base de données qui intègre des données annuelles agrégées par province, et en maintenant constant un ensemble de facteurs, les estimations par effets fixes indiquent que la densité syndicale a réduit l'inégalité des revenus mesurée au moyen du coefficient de Gini, alors que le salaire minimum réel a plutôt eu pour effet d'accroître celle-ci. Les résultats d'estimation indiquent également que le taux d'activité et la scolarité moyenne sont les principaux facteurs à avoir réduit l'inégalité des revenus, alors que le taux de chômage, le changement technologique (mesuré de différentes façons) et l'immigration récente ont contribué à l'accroître.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L'actualité juridique européenne et française en matière de développement durable conduit à un paradoxe. D'un côté, il ne peut être nié que le développement durable imprègne tant le droit européen que français. Illustration prise des évolutions récentes du droit français des affaires, force est de constater que le développement durable est devenu une réalité incontournable sur la scène juridique. D'un autre côté, le développement durable est source d'interrogations. Premièrement, sa place sur l'échiquier européen se révèle incertaine. Deuxièmement, cette notion s'entoure de brume lorsqu'il s'agit de la définir précisément. Malgré ces interrogations qui demeurent, le développement durable est omniprésent et contribue à faire évoluer le droit et ce, au point qu'il est bel et bien celui du développement durable.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’essor de la discipline bactériologique est l’un des phénomènes les plus célébrés de l’historiographie médicale. Les approches qu’ont empruntées les historiens pour aborder le sujet depuis le tournant du XXe siècle se sont progressivement modifiées pour passer, le plus souvent, d’une interprétation endogène des développements de la science, où les concepts, les théories, les méthodes de la médecine sont perçus comme se développant isolément du contexte social dans lequel ils s’insèrent, à l’approche inverse, sociologique, où chacune des facettes de l’entreprise médico-scientifique est influencée par son milieu dans une interaction où les instances publiques, gouvernementales et professionnelles impliquées par les projets de médicalisation, formant une dynamique impassible, modifient le cours de chaque aspect de l’histoire médicale. Mais, en dehors des éléments professionnels, le développement de la pensée médico-scientifique est-il invariablement subjugué par cette dynamique sociale ? L’idéal de scientificité prôné par les médecins, formant un archétype dans lequel la rigueur du professionnel doit être isolée de ces facteurs extrinsèques n’est-il pas en mesure d’avoir conféré aux démarches médico-scientifiques une stabilité authentique vis-à-vis les fluctuations de l’environnement sociopolitique et professionnel dans lequel elles s’inscrivent ? Cette étude répond à ce questionnement par l’analyse exhaustive du discours défini par les périodiques médicaux du Québec entre 1840 et 1880. Elle s’articule sur deux développements inédits : l’un qui présente les assises méthodologiques de la vérification, c’est-à-dire la définition de l’archétype médical, son rôle dans la légitimation professionnelle, les critères de scientificité qu’il détermine de même qu’une typologie du discours qu’il permet d’inférer ; l’autre, ses résultats. L’étude montre que l’archétype décrit par le corps médical québécois, loin de n’être qu’un outil discursif par lequel la profession a pu être socialement reconnue au XIXe siècle, exerça une influence déterminante sur la formation de l’attitude professionnelle à l’égard des nouveautés étiologiques présentées par les pionniers de la bactériologie. En plus de dévoiler la trame exacte du développement de la pensée étiologique au Québec, la thèse souligne la complémentarité des approches internes et externes de l’historiographie médicale. Elle contribue ainsi à une représentation plus juste des processus à l’oeuvre dans le développement scientifique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les débats économiques au 19e siècle, loin d’être l’apanage du monde universitaire, étaient aux États-Unis un des principaux objets de contentieux entre les partis politiques et ceux-ci trouvaient écho dans la sphère publique. Les journaux étaient alors le principal moyen de communiquer les opinions des différents partis. La présente étude vise à mettre en contexte et cerner la position des écrits du plus important économiste américain de son époque, Henry Charles Carey (1793-1879), reconnu comme tel par J.S. Mill et Karl Marx en leur temps, lors de la décennie de 1850 dans le journal le plus influent de cette période, le New York Tribune. Pour ce faire, il a fallu au préalable identifier les articles non signés de Carey dans le journal, ce qui n’avait auparavant jamais été fait. Au moment d’écrire dans le principal organe américain qui défendait la protection aux États-Unis afin d’industrialiser le pays, Carey était alors le représentant le plus prééminent du système américain d’économie. Ce dernier, fondé sur les écrits d’Alexander Hamilton, prônait l’industrialisation des États-Unis et l’intervention de l’État pour défendre le bien commun, s’opposant ainsi à l’école libérale anglaise basée sur les écrits d’Adam Smith. Conceptuellement, la pensée économique de Carey se situe dans la tradition des Autres Canon, basée sur la production et l’innovation. Ceci le mena à s’opposer avec vigueur tant au malthusianisme qu’à la division internationale du travail, justifiée théoriquement par la thèse de l’avantage comparatif de Ricardo. En effet, dans son analyse, la volonté exprimée au milieu du 19e siècle par l’Angleterre de devenir l’atelier du monde et de faire du reste des nations des producteurs de matières premières sous un régime de libre-échange n’était rien d’autre que la continuation de la politique coloniale par d’autres moyens. Pour Carey, la spécialisation dans l’exportation de matières premières, notamment défendue par les planteurs du Sud des États-Unis, loin d’être bénéfique au pays, était le sûr gage de la pauvreté comme les cas de l’Irlande et de l’Inde le démontraient.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les réchauffements climatiques associés aux activités anthropiques ont soumis les écosystèmes arctiques à des changements rapides qui menacent leur stabilité à court terme. La diminution dramatique de la banquise arctique est une des conséquences les plus concrètes de ce réchauffement. Dans ce contexte, comprendre et prédire comment les systèmes arctiques évolueront est crucial, surtout en considérant comment les flux de carbone (C) de ces écosystèmes - soit des puits nets, soit des sources nettes de CO2 pour l'atmosphère - pourraient avoir des répercussions importantes sur le climat. Le but de cette thèse est de dresser un portrait saisonnier de l’activité bactérienne afin de déterminer l’importance de sa contribution aux flux de carbone en Arctique. Plus spécifiquement, nous caractérisons pour la première fois la respiration et le recours à la photohétérotrophie chez les microorganismes du golfe d’Amundsen. Ces deux composantes du cycle du carbone demeurent peu décrites et souvent omises des modèles actuels, malgré leur rôle déterminant dans les flux de C non seulement de l’Arctique, mais des milieux marins en général. Dans un premier temps, nous caractérisons la respiration des communautés microbiennes (RC) des glaces de mer. La connaissance des taux de respiration est essentielle à l’estimation des flux de C, mais encore limitée pour les milieux polaires. En effet, les études précédentes dans le golfe d’Amundsen n’ont pas mesuré la RC. Par la mesure de la respiration dans les glaces, nos résultats montrent des taux élevés de respiration dans la glace, de 2 à 3 fois supérieurs à la colonne d'eau, et une production bactérienne jusqu’à 25 fois plus importante. Ces résultats démontrent que la respiration microbienne peut consommer une proportion significative de la production primaire (PP) des glaces et pourrait jouer un rôle important dans les flux biogéniques de CO2 entre les glaces de mer et l’atmosphère (Nguyen et Maranger, 2011). Dans un second temps, nous mesurons la respiration des communautés microbiennes pélagiques du golfe d’Amundsen pendant une période de 8 mois consécutif, incluant le couvert de glace hivernal. En mesurant directement la consommation d'O2, nous montrons une RC importante, mesurable tout au long de l’année et dépassant largement les apports en C de la production primaire. Globalement, la forte consommation de C par les communautés microbiennes suggère une forte dépendance sur recyclage interne de la PP locale. Ces observations ont des conséquences importantes sur notre compréhension du potentiel de séquestration de CO2 par les eaux de l’Océan Arctique (Nguyen et al. 2012). Dans un dernier temps, nous déterminons la dynamique saisonnière de présence (ADN) et d’expression (ARN) du gène de la protéorhodopsine (PR), impliqué dans la photohétérotrophie chez les communautés bactérienne. Le gène de la PR, en conjonction avec le chromophore rétinal, permet à certaines bactéries de capturer l’énergie lumineuse à des fins énergétiques ou sensorielles. Cet apport supplémentaire d’énergie pourrait contribuer à la survie et prolifération des communautés qui possèdent la protéorhodopsine. Bien que détectée dans plusieurs océans, notre étude est une des rares à dresser un portrait saisonnier de la distribution et de l’expression du gène en milieu marin. Nous montrons que le gène de la PR est présent toute l’année et distribué dans des communautés diversifiées. Étonnamment, l’expression du gène se poursuit en hiver, en absence de lumière, suggérant soit qu’elle ne dépend pas de la lumière, ou que des sources de photons très localisées justifie l’expression du gène à des fins sensorielles et de détection (Nguyen et al., soumis au journal ISME). Cette thèse contribue à la compréhension du cycle du C en Arctique et innove par la caractérisation de la respiration et de l’efficacité de croissance des communautés microbiennes pélagiques et des glaces de mer. De plus, nous montrons pour la première fois une expression soutenue de la protéorhodopsine en Arctique, qui pourrait moduler la consommation de C par la respiration et justifier son inclusion éventuelle dans les modélisations du cycle du C. Dans le contexte des changements climatiques, il est clair que l'importance de l’activité bactérienne a été sous-estimée et aura un impact important dans le bilan de C de l'Arctique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Afin de mieux cerner les enjeux de la transition entre le secondaire et le postsecondaire, nous proposons un examen du passage de la notion de fonction à celle de dérivée. À la lumière de plusieurs travaux mettant en évidence des difficultés inhérentes à ce passage, et nous basant sur les recherches de Carlson et ses collègues (Carlson, 2002; Carlson, Jacobs, Coe, Larsen et Hsu, 2002; Carlson, Larsen et Jacobs, 2001; Oehrtman, Carlson et Thompson, 2008) sur le raisonnement covariationnel, nous présentons une analyse de la dynamique du développement de ce raisonnement chez des petits groupes d’élèves de la fin du secondaire et du début du collégial dans quatre situations-problèmes différentes. L’analyse des raisonnements de ces groupes d’élèves nous a permis, d’une part, de raffiner la grille proposée par Carlson en mettant en évidence, non seulement des unités de processus de modélisation (ou unités de raisonnement) mises en action par ces élèves lors des activités proposées, mais aussi leurs rôles au sein de la dynamique du raisonnement. D’autre part, cette analyse révèle l’influence de certaines caractéristiques des situations sur les interactions non linéaires entre ces unités.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La présente étude s’intéresse aux choix de filières de formation des filles comparées aux garçons. La présence des filles dans les filières de formation dans le domaine des sciences, de la technologie, du génie et de la mathématique (STGM) est moins importante que celle des garçons. Ce fait est documenté dans la plupart des pays industrialisés (OCDE, 2013). Les décideurs sont préoccupés par cette sous-représentation des filles et des femmes dans ces domaines et s’affairent à comprendre le phénomène, dans le but d’agir pour changer la situation (Drouin et al., 2008; MCCCF, 2011). Or, les facteurs d’influence pour expliquer cet écart entre les garçons et les filles sont nombreux et ne font pas l’objet d’un consensus dans la littérature (Ceci et al., 2009). Toutefois, plusieurs s’entendent pour dire que les mathématiques, importantes dans les profils de formation en STGM, et la façon dont les filles les perçoivent pourraient expliquer, en partie, leurs choix (Rowan-Kenyon et al., 2012 et Wang et al., 2013). Ces auteurs ont aussi suggéré que le contexte social et les croyances des filles au sujet des mathématiques seraient déterminants dans le processus de choix impliquant cette discipline. Un modèle théorique sociocognitif, inspiré par les travaux de Lent et al, (1994-2006), expliquant le processus de choix scolaires et professionnels a permis de conceptualiser les liens entre les déterminants socio-motivationnels spécifiques aux mathématiques. L’objectif général de la présente étude était de mieux documenter l’importance des mathématiques dans les choix de filières de formation menant aux carrières en STGM. Spécifiquement, nous avons examiné les relations entre le rendement en mathématiques, la perception des élèves quant au contexte social (soutien des parents et enseignants), leurs attentes de réussite, la valeur qu’ils accordent aux mathématiques (sentiment d’autoefficacité, anxiété, perception de l’utilité et intérêt) et les choix de filières de formation générale après leur secondaire (sciences humaines sans mathématiques, sciences humaines avec mathématiques, sciences de la santé et sciences pures). Nous avons exploré les distinctions entre les filles et les garçons. Pour ce faire, 1129 élèves finissants ont été questionnés au sujet de leurs motivations en mathématiques et de leurs intentions de formation post-secondaire. Par la suite, une comparaison entre les 583 filles et les 543 garçons a été réalisée par des analyses de régression logistiques multinomiales. Les résultats montrent que plusieurs déterminants permettent de dégager des similitudes et des différences quant aux choix de filières de formation des filles et des garçons. D’abord, il semble que pour la plupart des élèves, filles ou garçons, un rendement élevé et un important soutien des enseignants tel que perçu par les élèves à la fin du secondaire est davantage lié aux choix de filières en sciences pures et en sciences de la santé qu’en sciences humaines avec ou sans mathématiques. Toutefois, le soutien des parents perçu est plus déterminant pour les filles qui choisissent les sciences de la santé que pour les garçons. Le soutien des enseignants perçu est plus déterminant pour les garçons qui choisissent les sciences humaines que pour les filles. Aussi, un faible sentiment d’autoefficacité en mathématiques serait associé au choix de filières en sciences humaines, alors qu’une forte anxiété en mathématiques chez les filles serait associée aux filières en sciences de la santé. Pour les garçons, c’est davantage l’intérêt en mathématiques qui est déterminant pour choisir la filière des sciences pures. La perception de l’utilité des mathématiques est déterminante à la fois pour les garçons et pour les filles qui choisissent les filières de sciences les menant à des carrières en STGM. En somme, nos résultats suggèrent que le soutien en mathématiques de la part des adultes significatifs, tel que perçu par les élèves, est moins prépondérant que les attentes de réussite (sentiment d’autoefficacité et anxiété) et la valeur accordée aux mathématiques (intérêt et utilité perçue) pour comparer les garçons et les filles dans leurs choix de filières. À la lumière des résultats obtenus, il nous semble que l’implantation de mesures, dans les milieux scolaires, pour renforcer le sentiment d’autoefficacité des jeunes filles en mathématiques et surtout pour diminuer leur taux d’anxiété dans cette matière serait une voie prometteuse pour atteindre la parité entre les garçons et les filles dans les filières en STGM.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les éléments de terres rares (REEs) sont de plus en plus utilisés dans une multitude d’applications, notamment la fabrication d’aimants, de batteries rechargeables et les écrans de téléviseurs. Ils sont pour la plupart des métaux trivalents peu solubles dans les eaux naturelles. Comme pour les métaux divalents, le risque écologique des REEs est très probablement étroitement lié à leurs spéciations chimiques. Cependant, le comportement du samarium (Sm) dans les matrices environnementales est très peu connu et il n'existe actuellement aucune technique pour évaluer sa spéciation chimique. Dans cette optique, la technique d'échange d'ions (IET) sur la résine Dowex a été optimisée pour mesurer le samarium libre en solution. Les temps d'équilibre ont d'abord été déterminés pour des solutions tamponnées de samarium (Sm 6,7x10-8 M ; MES 1,0 mM M ; pH 6,0) en présence du nitrate de sodium (de 0,01M à 0,5 M). Pour ces diverses forces ioniques, l’équilibre thermodynamique n’est atteint que pour NaNO3 0,5M. Un autre mode d’utilisation de la résine (mode dynamique) a donc été développé pour tenir compte des conditions environnementales et évaluer efficacement le samarium libre. Les impacts des ligands organiques tels le NTA, l’EDTA, le citrate, l’acide malique et l’acide fulvique Suwannee River Standard I (SRFA) ont été étudiés par l’IET en mode dynamique. Une grande corrélation a été trouvée plus entre les taux d’accumulation de samarium sur la résine d’échange pour différents rapports NTA : Sm, EDTA : Sm, SRFA : Sm et le samarium libre. Par contre, aucune corrélation significative n’a été observée pour les ligands citrate et acide malique compte tenu des complexes qu’ils forment avec le samarium et qui s’adsorbent aussi sur la résine Dowex. Les concentrations Sm3+ mesurées par la technique IET ont été fortement corrélées avec celles prédites par le modèle WHAM 7.0 en utilisant la constante de stabilité obtenue par titration de SRFA par extinction de la fluorescence. Par ailleurs, la formation de colloïdes de samarium en fonction du pH influe grandement sur la détermination du samarium libre et doit être prise en compte dans la spéciation du samarium. L'IET assisté par des techniques auxiliaires comme le dosage par extinction de la fluorescence et le SP-ICPMS pourrait être une technique utile pour évaluer les concentrations de Sm biodisponible dans les eaux naturelles.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les tourbières ont contribué à refroidir le climat terrestre pendant l’Holocène en accumulant un réservoir de carbone important. Dans la forêt boréale canadienne, les sols gelés en permanence (pergélisols) sont répandus et ceux-ci sont principalement localisés dans les tourbières où ils forment des plateaux surélevés. Le dégel du pergélisol, causé entre autres par le réchauffement atmosphérique ou d’autres perturbations, provoque l’effondrement des plateaux et la saturation en eau du sol ce qui modifie entre autres le couvert végétal et le cycle du carbone. Les modélisations suggèrent que les latitudes nordiques seront les plus affectées par le réchauffement climatique alors qu’on y observe déjà un recul du couvert du pergélisol. Il est primordial de comprendre comment le dégel du pergélisol affecte la fonction de puits de carbone des tourbières puisque des rétroactions sur le climat sont possibles si une grande quantité de gaz à effet de serre est émise ou séquestrée. J’utilise une chronoséquence représentant le temps depuis le dégel d’un plateau de pergélisol des Territoires du Nord-Ouest pour comprendre les facteurs influençant l’aggradation et la dégradation du pergélisol dans les tourbières et évaluer l’effet du dégel sur l’accumulation de carbone et la préservation du carbone déjà accumulé. Les taux d’accumulation de carbone associés à la présence de pergélisol dans le passé et au présent sont lents, et la tourbe est moins décomposée dans les secteurs ayant été affectés plus longtemps par le pergélisol. En somme, le pergélisol réduit l’accumulation de carbone en surface mais permet une meilleure préservation du carbone déjà accumulé.