623 resultados para Problème de repositionnement
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Ce mémoire traite du droit de l’adoption dans une perspective comparative entre régimes arabo-musulman, français et québécois. Dans un premier temps est abordée la place de l’enfant dans l’Islam : de sa conception au sein de la famille musulmane à l’ensemble de ses droits selon le droit religieux. Ce tour d’horizon permet d’aborder l’épineux problème de l’interdiction de l’adoption par le Coran et les alternatives qui ont été développées pour y remédier, plus particulièrement la kafala. La kafala sera expliquée et située dans l’ordre public international, puis examinée au regard de quatre législations arabes : le Maroc, la Tunisie, l’Algérie et le Liban. Dans un deuxième temps, la question sera examinée d’un point de vue occidental. Il y sera analysé la possibilité et les difficultés entourant l’application des règles musulmanes de statut personnel en France et au Québec. Finalement sera abordé l’accueil que ces deux sociétés ont réservé à la kafala dans leur système respectif.
Resumo:
Ce mémoire explore des façons de conceptualiser la responsabilité dans des cas où des individus contribuent de façon peu significative à des torts collectifs éloignés. Pour contextualiser la discussion, la relation entre des actes de consommation et la perpétuation des « sweatshops » dans l’industrie des textiles et des chaussures est utilisée. Une approche basée sur les droits humains est déployée pour définir le tort qui est présent dans les usines de textiles et une conceptualisation de la connection est proposée selon la notion de la structure sociale. Guidé par la notion de « unstructured collective harms » proposée par Christopher Kutz, et en comparaison avec des notions de responsabilité qui mettent la responsabilité nationale en premier plan, les conclusions qui sont offertes ici sont centrées sur l’importance de la confrontation du consommateur pour remédier aux effets du problème d’action collective qui est au coeur de la création des torts collectifs lointains. Finalement, l’importance du cosmopolitanisme comme une façon de stabiliser des théories de responsabilité à travers les frontières est mis en évidence.
Resumo:
Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élevé. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.
Resumo:
La chromatine est essentielle au maintien de l’intégrité du génome, mais, ironiquement, constitue l’obstacle principal à la transcription des gènes. Plusieurs mécanismes ont été développés par la cellule pour pallier ce problème, dont l’acétylation des histones composant les nucléosomes. Cette acétylation, catalysée par des histones acétyl transférases (HATs), permet de réduire la force de l’interaction entre les nucléosomes et l’ADN, ce qui permet à la machinerie transcriptionnelle de faire son travail. Toutefois, on ne peut laisser la chromatine dans cet état permissif sans conséquence néfaste. Les histone déacétylases (HDACs) catalysent le clivage du groupement acétyle pour permettre à la chromatine de retrouver une conformation compacte. Cette thèse se penche sur la caractérisation de la fonction et du mécanisme de recrutement des complexes HDACs Rpd3S et Set3C. Le complexe Rpd3S est recruté aux régions transcrites par une interaction avec le domaine C-terminal hyperphosphorylé de Rpb1, une sous-unité de l’ARN polymérase II. Toutefois, le facteur d’élongation DSIF joue un rôle dans la régulation de cette association en limitant le recrutement de Rpd3S aux régions transcrites. L’activité HDAC de Rpd3S, quant à elle, dépend de la méthylation du résidu H3K36 par l’histone méthyltransférase Set2. La fonction du complexe Set3C n’est pas clairement définie. Ce complexe est recruté à la plupart de ses cibles par l’interaction entre le domaine PHD de Set3 et le résidu H3K4 di- ou triméthylé. Un mécanisme indépendant de cette méthylation, possiblement le même que pour Rpd3S, régit toutefois l’association de Set3C aux régions codantes des gènes les plus transcrits. La majorité de ces résultats ont été obtenus par la technique d’immunoprécipitation de la chromatine couplée aux biopuces (ChIP-chip). Le protocole technique et le design expérimental de ce type d’expérience fera aussi l’objet d’une discussion approfondie.
Resumo:
L’ubiquitin-fold modifier (UFM1) fait partie de la classe 1 de la famille de protéine ubiquitin-like (Ubl). UFM1 et Ub ont très peu d’homologie de séquence, mais partagent des similarités remarquables au niveau de leur structure tertiaire. Tout comme l’Ub et la majorité des autres Ubls, UFM1 se lie de façon covalente à ses substrats par l’intermédiaire d’une cascade enzymatique. Il est de plus en plus fréquemment rapporté que les protéines Ubls sont impliquées dans des maladies humaines. Le gène Ufm1 est surexprimé chez des souris de type MCP développant une ischémie myocardique et dans les îlots de Langerhans de patients atteints du diabète de type 2. UFM1 et ses enzymes spécifiques, UBA5, UFL1 et UFC1, sont conservés chez les métazoaires et les plantes suggérant un rôle important pour les organismes multicellulaires. Le Caenorhabditis elegans est le modèle animal le plus simple utilisé en biologie. Sa morphologie, ses phénotypes visibles et ses lignées cellulaires ont été décrits de façon détaillée. De plus, son cycle de vie court permet de rapidement observer les effets de certains gènes sur la longévité. Ce modèle nous permet de facilement manipuler l’expression du gène Ufm1 et de mieux connaître ses fonctions. En diminuant l’expression du gène ufm-1 chez le C.elegans, par la technique de l’ARN interférence par alimentation, nous n’avons observé aucun problème morphologique grave. Les vers ressemblaient aux vers sauvages et possédaient un nombre de progéniture normal. Cependant, les vers sauvage exposés à l’ARNi d’ufm-1 vivent significativement moins longtemps que les contrôles et ce, de façon indépendante de la voie de signalisation de l’insuline/IGF. Chez le C. elegans la longévité et la résistance au stress cellulaire sont intimement liées. Nous n’avons remarqué aucun effet d’ufm-1 sur le stress thermal, osmotique ou oxydatif, mais il est requis pour la protection contre le stress protéotoxique. Il est également nécessaire au maintien de l’intégrité neuronale au cours du vieillissement des animaux. L’ensemble de nos données nous renseigne sur les fonctions putatives du gène Ufm1.
Resumo:
Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Contexte - La variation interindividuelle de la réponse aux corticostéroïdes (CS) est un problème important chez les patients atteints de maladies inflammatoires d’intestin. Ce problème est bien plus accentué chez les enfants avec la prévalence de la corticodépendance extrêmement (~40 %) élevée. La maladie réfractaire au CS a des répercussions sur le développement et le bien-être physique et psychologique des patients et impose des coûts médicaux élevés, particulièrement avec la maladie active comparativement à la maladie en rémission, le coût étant 2-3 fois plus élevé en ambulatoire et 20 fois plus élevé en hôpital. Il est ainsi primordial de déterminer les marqueurs prédictifs de la réponse aux CS. Les efforts précédents de découvrir les marqueurs cliniques et démographiques ont été équivoques, ce qui souligne davantage le besoin de marqueurs moléculaires. L'action des CS se base sur des processus complexes déterminés génétiquement. Deux gènes, le ABCB1, appartenant à la famille des transporteurs transmembraneaux, et le NR3C1, encodant le récepteur glucocorticoïde, sont des éléments importants des voies métaboliques. Nous avons postulé que les variations dans ces gènes ont un rôle dans la variabilité observée de la réponse aux CS et pourraient servir en tant que les marqueurs prédictifs. Objectifs - Nous avons visé à: (1) examiner le fardeau de la maladie réfractaire aux CS chez les enfants avec la maladie de Crohn (MC) et le rôle des caractéristiques cliniques et démographiques potentiellement liés à la réponse; (2) étudier l'association entre les variantes d'ADN de gène ABCB1 et la réponse aux CS; (3) étudier les associations entre les variantes d'ADN de gène NR3C1 et la réponse aux CS. Méthodes - Afin d’atteindre ces objectifs, nous avons mené une étude de cohorte des patients recrutés dans deux cliniques pédiatriques tertiaires de gastroentérologie à l’Ottawa (CHEO) et à Montréal (HSJ). Les patients avec la MC ont été diagnostiqués avant l'âge de 18 ans selon les critères standard radiologiques, endoscopiques et histopathologiques. La corticorésistance et la corticodépendance ont été définies en adaptant les critères reconnus. L’ADN, acquise soit du sang ou de la salive, était génotypée pour des variations à travers de gènes ABCB1 et NR3C1 sélectionnées à l’aide de la méthodologie de tag-SNP. La fréquence de la corticorésistance et la corticodépendance a été estimée assumant une distribution binomiale. Les associations entre les variables cliniques/démographiques et la réponse aux CS ont été examinées en utilisant la régression logistique en ajustant pour des variables potentielles de confusion. Les associations entre variantes génétiques de ABCB1 et NR3C1 et la réponse aux CS ont été examinées en utilisant la régression logistique assumant différents modèles de la transmission. Les associations multimarqueurs ont été examinées en utilisant l'analyse de haplotypes. Les variantes nongénotypées ont été imputées en utilisant les données de HAPMAP et les associations avec SNPs imputés ont été examinées en utilisant des méthodes standard. Résultats - Parmi 645 patients avec la MC, 364 (56.2%) ont reçu CS. La majorité de patients étaient des hommes (54.9 %); présentaient la maladie de l’iléocôlon (51.7%) ou la maladie inflammatoire (84.6%) au diagnostic et étaient les Caucasiens (95.6 %). Huit pourcents de patients étaient corticorésistants et 40.9% - corticodépendants. Le plus bas âge au diagnostic (OR=1.34, 95% CI: 1.03-3.01, p=0.040), la maladie cœxistante de la région digestive supérieure (OR=1.35, 95% CI: 95% CI: 1.06-3.07, p=0.031) et l’usage simultané des immunomodulateurs (OR=0.35, 95% CI: 0.16-0.75, p=0.007) ont été associés avec la corticodépendance. Un total de 27 marqueurs génotypés à travers de ABCB1 (n=14) et NR3C1 (n=13) ont été en l'Équilibre de Hardy-Weinberg, à l’exception d’un dans le gène NR3C1 (rs258751, exclu). Dans ABCB1, l'allèle rare de rs2032583 (OR=0.56, 95% CI: 0.34-0.95, p=0.029) et génotype hétérozygote (OR=0.52, 95% CI: 0.28-0.95 p=0.035) ont été négativement associes avec la dépendance de CS. Un haplotype à 3 marqueurs, comprenant le SNP fonctionnel rs1045642 a été associé avec la dépendance de CS (p empirique=0.004). 24 SNPs imputés introniques et six haplotypes ont été significativement associés avec la dépendance de CS. Aucune de ces associations n'a cependant maintenu la signification après des corrections pour des comparaisons multiples. Dans NR3C1, trois SNPs: rs10482682 (OR=1.43, 95% CI: 0.99-2.08, p=0.047), rs6196 (OR=0.55, 95% CI: 0.31-0.95, p=0.024), et rs2963155 (OR=0.64, 95% CI: 0.42-0.98, p=0.039), ont été associés sous un modèle additif, tandis que rs4912911 (OR=0.37, 95% CI: 0.13-1.00, p=0.03) et rs2963156 (OR=0.32, 95% CI: 0.07-1.12, p=0.047) - sous un modèle récessif. Deux haplotypes incluant ces 5 SNPs (AAACA et GGGCG) ont été significativement (p=0.006 et 0.01 empiriques) associés avec la corticodépendance. 19 SNPs imputés ont été associés avec la dépendance de CS. Deux haplotypes multimarqueurs (p=0.001), incluant les SNPs génotypés et imputés, ont été associés avec la dépendance de CS. Conclusion - Nos études suggèrent que le fardeau de la corticodépendance est élevé parmi les enfants avec le CD. Les enfants plus jeunes au diagnostic et ceux avec la maladie coexistante de la région supérieure ainsi que ceux avec des variations dans les gènes ABCB1 et NR3C1 étaient plus susceptibles de devenir corticodépendants.
Resumo:
RÉSUMÉ DE LA RECHERCHE Le conflit armé en Colombie est le troisième conflit le plus long du monde, après le problème entre la Palestine et l’Israël et celui entre l’Inde et le Pakistan. La violence organisée qui caractérise ce conflit a des conséquences sur le plan individuel (souffrance psychologique, etc.) et sur le plan collectif (démobilisation sociale par la terreur, modification de la pensée critique, augmentation de la violence commune). Cette violence a poussé des milliers de Colombiens à l’exil. Certaines de ces personnes arrivent au Québec en tant que réfugiés. La présente étude décrit et analyse les effets de la violence organisée subie en Colombie par ces personnes. Elle fait le lien entre ces conséquences et le processus d’intégration des refugiés colombiens dans une région du Québec, la Haute-Yamaska. Le principal objectif de ce mémoire est de répondre à cette question : selon l’expérience des immigrants réfugiés colombiens victimes de violence organisée, quels sont les effets de cette violence sur leur vie actuelle au Québec? Douze récits d’expériences ont été recueillis et analysés à partir d’entrevues semi dirigées auprès des refugiés colombiens. Les résultats de cette étude montrent la nécessité, pour les réfugiés, d’un travail d’élaboration autour de leur propre identité à travers l’expérience vécue; la présence du retrait et de l’isolement comme mécanismes de protection qui se manifestent en terre d’accueil; la reproduction, par un groupe minoritaire, de certains des comportements qui sont jugés violents en terre d’accueil et qui dans le contexte de la terre d’origine avaient un autre sens. Cette différence de sens est accompagnée d’une tolérance différente à la violence dans un groupe de réfugiés et la société d’accueil. L’attitude personnelle positive face aux difficultés ainsi que le soutien du réseau familial ou des nouveaux amis sont des facilitateurs de l’intégration. Finalement, on constate que les effets d’un deuil prolongé freinent l’investissement affectif et personnel en terre d’accueil.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Malgré le fait que le statut social soit reconnu comme ayant une forte influence sur l’aptitude, les facteurs affectant le statut social et les changements de ce statut demeurent peu connus. De plus, les études sur la dominance ayant un lien avec l’agressivité portent rarement sur des femelles. Nous étudierons ces aspects en utilisant Neolamprologus pulcher, un poisson à reproduction coopérative du lac Tanganyika. La probabilité d’ascension sociale était manipulée sur le terrain et les changements physiologiques et comportementaux, ainsi que le niveau plasmatique de testostérone, associé avec l’ascension à la dominance de femelles subordonnées étaient caractérisés. Le degré de coopération et la masse étaient supérieurs chez les femelles ascendantes par rapport aux femelles non-ascendantes d’un même groupe social. Après une semaine d’ascension sociale, les femelles ascendantes ne différaient pas comportementalement, mais différaient physiologiquement des femelles dominantes. Les femelles dominantes, ascendantes et subordonnées ne différaient pas quant au niveau de testostérone plasmatique. Comprendre les bénéfices des comportements coopératifs pour les subordonnés a longtemps posé un problème évolutif. Nos résultats impliquent que les comportements coûteux métaboliquement peuvent avoir été sélectionnés en améliorant l’aptitude future via l’héritage du territoire et du statut social. De plus, le degré de coopération pourrait être un signal de qualité détecté par les compétiteurs et les collaborateurs.