38 resultados para Courant électrique
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
On présente dans ce mémoire la mesure de la statistique de photons des fluctuations électromagnétiques micro-ondes d’une jonction tunnel placée à ultra-basse température. En particulier, on déduit cettedite statistique en mesurant les cumulants des fluctuations de courant générées par une jonction tunnel polarisée en courant continu et photoexcitée par un signal haute fréquence. On utilise un amplificateur paramétrique Josephson en tant que premier maillon de la chaîne d’amplification en raison de son bruit près de la limite quantique. On développe aussi un modèle pour tenir compte de sa saturation, celle-ci étant apparente à des puissances de signal incident très faibles. C’est, à ma connaissance, la première fois qu’un tel amplificateur est utilisé pour étudier la physique au sein du bruit émis par un conducteur mésoscopique. Les résultats mettent en évidence l’apparition d’un excès dans le quatrième cumulant lorsque la photoexcitation s’effectue au double de la fréquence de mesure. Un développement mathématique simple nous permet d’associer cet excès à la statistique de photons, sous la forme d’une augmentation – à nombre de photons fixe – de la variance du nombre moyen de photons contenue dans le signal. C’est en fait une signature de l’émission de paires de photons corrélés par la jonction tunnel photoexcitée. Ces résultats font le pont entre ceux obtenus précédemment par notre groupe de recherche quant aux cumulants d’ordre supérieur du bruit et ceux associées aux parallèles entre l’optique quantique et les fluctuations de courant des dispositifs mésoscopiques. [Gasse et al. PRL 111, 136601 (2013) ; Forgues et al. Scientific Reports 3, 2869 (2013) ; Forgues et al. PRL 113, 043602 (2014)] Ils dressent un portait intéressant du bruit photoexcité en termes normalement associés à l’optique quantique.
Resumo:
Dans ce mémoire sera présentée une nouvelle méthode numérique envisagée dans le but d’obtenir le pouvoir thermoélectrique à température finie. Une méthode d’entropie maximale est utilisée, ce qui était une caractéristique requise des équations dérivées. Toutes les équations nécessaires y sont présentées, ainsi que certaines astuces reliées au prolongement analytique de quantités bruitées ou de fonctions dont la convergence est lente etc. De plus, les trois fonctions de corrélation d’intérêt y sont calculées de trois façons différentes, avec les détails et les explications nécessaires. On y présente le cas de la conductivité électrique, du pouvoir thermoélectrique ainsi que la fonction de corrélation courant de chaleur-courant de chaleur. L’implémentation numérique finale s’est butée à des difficultés qui sont expliquées dans ce mémoire.
Resumo:
Depuis le lancement du premier satellite Spoutnik 1 en 1957, l’environnement spatial est de plus en plus utilisé et le nombre de débris orbitaux se multiplie naturellement, soit par des explosions, des collisions ou tout simplement par les opérations normales des satellites. Au-delà d'un certain seuil, la densité des débris orbitaux risque de créer une réaction en chaîne incontrôlée : l’effet Kessler. L’élimination des débris orbitaux en basse altitude permettrait de limiter cette réaction et ainsi de préserver l’environnement spatial afin de pouvoir l’utiliser de façon sécuritaire. L’élimination des débris orbitaux est une opération complexe et coûteuse. Elle consiste à déplacer des objets spatiaux inactifs vers une orbite basse pour mener à leur désintégration dans la basse atmosphère terrestre. En utilisant les perturbations orbitales, il est possible de réduire le coût du carburant requis pour effectuer les manœuvres orbitales nécessaires à l’élimination de ces débris. L'objectif principal de cette étude consiste à développer une procédure et une stratégie de commande autonome afin de modifier l'orbite des satellites non opérationnels (débris) pour mener à leur désintégration naturelle tout en optimisant les facteurs carburant et temps. Pour ce faire, un modèle d’atmosphère basé sur le modèle de Jacchia (1977) est développé. Un modèle de la dynamique du satellite inclut aussi les perturbations principales, soit : traînée atmosphérique, non sphéricité et distribution non uniforme de la masse de la Terre. Ces modèles ainsi qu'un algorithme de commande optimale pour un propulseur électrique sont développés et le tout est validé par simulations numériques sur Matlab/Simulink. Au terme de cette étude, les conditions optimales dans lesquelles il faut laisser un débris afin qu'il se désintègre dans la basse atmosphère de la Terre en quelques semaines seront données (type d'orbite : altitude, inclinaison, etc.) ainsi que le coût en carburant pour une telle mission. Cette étude permettra de prouver qu'il est possible de réaliser des missions d'élimination des débris orbitaux tout en réduisant les coûts associés aux manœuvres orbitales par l'utilisation des perturbations naturelles de l'environnement.
Resumo:
Résumé : Introduction: La douleur chronique et les problèmes de sommeil ont un impact significatif sur la qualité de vie. La prévalence de ces deux conditions augmente substantiellement avec l’âge. L’objectif de cette étude était d’évaluer la faisabilité d’une étude randomisée, contrôlée par placebo et de recueillir des données sur l’efficacité de la stimulation transcrânienne par courant direct (tDCS) pour réduire la douleur et améliorer le sommeil chez des aînés souffrant de douleur chronique d’origines musculo-squelettique. Méthodes: Quatorze patients souffrant de douleur chronique et de problèmes de sommeil ont reçu cinq séances quotidiennes consécutives de tDCS anodique appliquée au cortex moteur primaire (2 mA, 20 minutes) ou cinq séances de tDCS simulée de manière randomisée. L’intensité de la douleur était mesurée avec une échelle visuelle analogue et les paramètres de sommeil avec l’actigraphie. Pendant toute la durée de l’étude, des journaux de bord de douleur et de sommeil étaient aussi utilisés afin de mesurer l'effet de la tDCS sur la douleur et le sommeil du quotidien des participants. Résultats: Les résultats indiquent que la tDCS réelle engendre une analgésie de 59 %, alors que la tDCS simulée ne réduit pas la douleur (p < 0,05). Par contre, aucun changement n’a été observé au niveau des paramètres de sommeil (tous les p ≥ 0,18). Conclusion: Il appert que cinq séances de tDCS anodique appliquée au niveau du cortex moteur primaire seraient efficaces pour réduire la douleur des aînés souffrant de douleur chronique, mais pas pour améliorer leur sommeil. De futures études seront nécessaires afin de déterminer si d’autres paramètres de stimulation pourraient avoir un impact sur le sommeil et si ces résultats peuvent être reproduits en utilisant un plus grand nombre de patients.
Resumo:
Ce projet de recherche a permis d'étudier l'émission d'un rayonnement térahertz (THz) par des antennes photoconductrices (PC) émettrices de type micro-ruban coplanaire. Ces antennes sont fabriquées sur substrats d'arséniure de gallium semi-isolant (GaAs-SI) ou sur ce même substrat ayant subit un traitement d'implantation ionique aux protons suivi d'un recuit thermique (GaAs:H). L'influence de ce procédé de fabrication sur les propriétés du matériau photoconducteur et sur les caractéristiques de l'antenne émettrice a été étudiée. Des mesures de photoconductivité résolue en temps effectuées sur les deux types de substrat montrent que le procédé d'implantation/recuit a eu pour effet de diminuer le temps de vie des photoporteurs de 630 ps à environ 4 ps, tandis que la mobilité n'est réduite que d'un facteur maximum de 1,6. Cette valeur de la mobilité des photoporteurs a par ailleurs été estimée à environ 100 cm$^2$/(V.s) pour le substrat GaAs:H. Les mesures électriques effectuées sur les antennes fabriquées sur les deux types de substrat montrent que le procédé d'implantation/recuit permet d'augmenter la résistivité de la couche active du dispositif d'un facteur 10 (elle passerait de 10$^{8}$ $\Omega$.cm pour le GaAs-SI à 10$^9$ $\Omega$.cm pour le GaAs:H). Les courbes courant-tension, en obscurité et sous illumination, de ces antennes suggèrent également que la densité de pièges profonds est fortement augmentée suite au traitement d'implantation/recuit. L'étude des caractéristiques des diverses antennes a permis de montrer l'intérêt de ce procédé de fabrication. Pour les antennes fabriquées sur GaAs:H, la largeur de bande est améliorée (elle atteint environ 3 THz) et l'amplitude du champ THz émis est augmentée par un facteur 1,4 (dans les mêmes conditions expérimentales). Le rapport signal/bruit des traces THz mesurées sur les antennes les plus performantes est $>$ 200. Une plus grande résistivité et une densité de pièges profonds plus élevée, permet d'appliquer de plus fortes tensions de polarisation sur ces antennes GaAs:H. Finalement, nos résultats ont montré que les améliorations des caractéristiques d'émission de ces antennes THz sont corrélées à la présence d'un champ électrique local plus élevé du coté de l'anode du dispositif.
Resumo:
Les producteurs d’aluminium sont des acteurs majeurs dans l’économie du Québec. Le métal gris est apprécié pour sa légèreté et sa résistance à la corrosion. Bien qu’il possède des qualités indéniables, sa production consomme une quantité considérable d’électricité. L’amélioration de l’efficacité énergétique du procédé est donc primordiale d’un point de vue économique et environnemental. L’étude du contact électrique entre le carbone et la fonte à l’intérieur de l’ensemble cathodique fait partie de la liste des paramètres pour optimiser la consommation énergétique de la cellule Hall-Héroult. Ce contact doit offrir une résistance minimale au passage du courant nécessaire pour la réaction d’électrolyse. Au cours du temps, la qualité du contact se dégrade en raison de la transformation physique et chimique des matériaux. Cette thèse se concentre sur l’étude de la dégradation chimique de la surface de la fonte. La première partie étudie la pénétration des composés chimiques provenant du bain d’électrolyse à l’intérieur du bloc de carbone. Le gonflement sodique suit généralement la diffusion du sodium, un sous-produit de la réaction cathodique, et du bain. Le gonflement causé par le sodium a été mesuré directement à l’aide de LVDT alors que la diffusion du bain électrolytique a été déterminée par microtomographie à rayons X. La seconde partie évalue le mécanisme de la dégradation du contact électrique entre le carbone et la fonte. Des travaux en laboratoire ont été réalisés pour quantifier l’impact des paramètres d’opération. Les résultats obtenus ont été comparés par la suite à des échantillons industriels provenant de deux technologies pour évaluer leur degré de dégradation. Un modèle numérique a été calibré à partir de ces résultats pour estimer l’effet de la dégradation de la fonte sur la chute de voltage cathodique. Les résultats démontrent que les paramètres d’opération de la cellule d’électrolyse ont des effets sur la vitesse de pénétration des espèces chimiques dans le bloc de carbone. Un bain plus riche en sodium ou une densité de courant cathodique plus élevée augmente la vitesse de pénétration. La présence d’une nappe d’aluminium au démarrage de l’électrolyse au contraire divise le gonflement et la pénétration du bain de moitié. La vitesse de dégradation de la fonte suit la même tendance. De plus, une augmentation de température de 50 °C provoque une fusion partielle de la surface de la fonte. Ces résultats intégrés au modèle numérique montre que la dégradation du contact entre le carbone et la fonte augmente la chute de voltage cathodique mais aussi change la distribution du courant à la surface du bloc de carbone. La détermination du mécanisme de dégradation de la fonte par des essais en laboratoire combinée avec la pénétration des espèces chimiques constitue l’apport original de cette thèse et ceci permet d’éclaircir le processus d’évolution de ce contact électrique sous condition d’opération.
Resumo:
En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.
Resumo:
Soixante ans après Orage sur mon corps, comment l'homosexualité adolescente est-elle représentée dans la littérature au Québec? Basée sur la presque totalité des romans et nouvelles pour la jeunesse qui ont abordé le thème de l'homosexualité au Québec ces 15 dernières années, cette analyse se veut d'abord et avant tout un tour d'horizon des romans et nouvelles jeunesses québécoises ou éditées dans une collection jeunesse québécoise, qui présentent un ou plusieurs personnages homosexuels"actifs". Il m'apparaît pertinent de voir, dans un premier temps, par qui ces textes ont été écrits, comment ils sont présentés, dans quelles collections et chez quels éditeurs ils ont été publiés, dans quelles circonstances ils ont pris ou non une place enviable dans la production jeunesse et quelles voies ils ont utilisées pour parvenir à leurs fins. Chaque texte est donc soumis à une analyse systématique de ses auteur, éditeur, directeur de collection, collection, titre et couverture (première et quatrième de couverture). Les informations du paratexte éclairent, dans un second temps, les personnages homosexuels qui sont présentés dans les titres retenus. L'examen du personnage s'effectue autour de points spécifiques: description (physique et psychologique), auxiliaires, références à des éléments ou personnages publics homosexuels, sexualité, autonomie et fonctionnalité dans le texte, principe de l'écart minimal, etc., tout en débordant à l'occasion sur certains éléments dignes d'attention. Cette analyse se veut un premier regard sur ces oeuvres, pour comprendre d'où elles sortent, â quoi elles répondent, dans quel courant elles s'inscrivent et comment elles s'y sont prises pour aborder un sujet délicat dans une société où l'on fait une grande place au roman-miroir tout en éprouvant un malaise évident lorsqu'il est question de sexualité adolescente."--Résumé abrégé par UMI.
Resumo:
Ce mémoire porte sur la réception, par des lectrices de la génération X, de cinq oeuvres autofictionnelles écrites par les auteures québécoises Marie-Sissi Labrèche ( Borderline 2000 et La brèche 2003), Nelly Arcan (Putain 2001 et Folle 2004) et Mélikah Abdelmoumen (Le dégoût du bonheur 2001), lesquelles appartiennent à cette même génération. Leurs récits ont suscité un certain engouement public et obtenu un écho considérable dans la sphère médiatique et dans le milieu de la recherche universitaire. Les observateurs notent, de façon générale, que les narratrices autodiégétiques, alter ego des auteures, sont brutalement imparfaites, névrosées, mal dans leur peau, sexuellement soumises, assujetties aux désirs des hommes, et qu'elles ne parviennent pas à s'épanouir comme êtres humains, mais surtout, comme femmes. D'une part, les héroïnes rompent avec les représentations largement véhiculées dans les médias et dans la littérature québécoise contemporaine. D'autre part, leur profil correspond aux discours populaires sur la génération X, fréquemment qualifiée de génération sacrifiée, désabusée. Ma recherche, exploratoire, se fonde sur quatre approches théoriques : théorie des genres littéraires, théories de la réception, études féministes et gender studies, sociologie des générations. J'ai tenu cinq entretiens collectifs auprès de seize Québécoises de la génération X. J'ai réuni ces lectrices, qui s'étaient d'elles-mêmes intéressées aux récits, en petits groupe [i.e. groupes] de trois ou quatre participantes. Le compte-rendu et l'analyse de leurs discussions m'ont permis d'observer la portée sociale des récits éminemment personnels de Labrèche, d'Arcan et d'Abdelmoumen. Une interrogation m'a habitée du début à la fin de ma démarche : pourquoi et comment ces récits"parlent-ils", intellectuellement et émotionnellement, aux lectrices de la génération X? Je dégage de mon analyse quelques hypothèses interprétatives. D'abord, les lectrices ont du mal à distinguer les auteures et les narratrices. Elles tendent à appréhender les récits autofictionnels comme des autobiographies et elles procèdent à une lecture littérale des oeuvres. Ensuite, plus de la moitié des lectrices s'identifient, à différents degrés, aux narratrices. Comme ces dernières, les participantes à ma recherche affirment qu'elles ressentent une certaine pression sociale liée aux normes de beauté et de féminité et à l'hypersexualisation de l'espace public. En cela, leurs positions se rapprochent de celles du courant féministe radical. Cependant, les lectrices refusent d'être cantonnées dans un rôle de victime. Elles reprochent aux narratrices de s'autodétruire. Les femmes doivent, selon les participantes, se responsabiliser et se montrer critiques envers les modèles qui leur sont offerts. Enfin, les lectrices reconnaissent dans les héroïnes certains traits associés à la génération X. Elles attribuent en partie la souffrance des narratrices au contexte social dans lequel ces dernières évoluent. Mais elles estiment que cette souffrance est surtout tributaire de carences familiales. Les discussions des lectrices reflètent en quelque sorte leur propre appartenance à la génération X. Ainsi, l'importance qu'elles accordent à la sphère privée, par rapport à la sphère publique, constitue une des particularités des X qui ressort clairement des entretiens. Par ailleurs, leurs observations sont teintées d'un certain individualisme. Bref, à la lumière de mes résultats, je conclus que les récits autofictionnels de Marie-Sissi Labrèche, de Nelly Arcan et de Mélikah Abdelmoumen ont une certaine portée sociale, mais que leur écho résonne davantage sur le plan individuel, chez les lectrices qui s'identifient personnellement aux narratrices. Cela dit, les participantes semblent toutes avoir été portées à se questionner et à réfléchir, pendant et après leur lecture, sur l'identité féminine dans la société actuelle.
Resumo:
La présente recherche porte sur la cohérence et la cohésion qu'il existe dans l'expression orale d'un jeune dysphasique du premier cycle du secondaire et dans la production écrite effectuée par celui-ci. Compte tenu du problème de langage parlé que présente entre autres la dysphasie, le risque de trouver le même problème est possiblement présent dans la production écrite. Cela a des répercussions au niveau scolaire dans l'expression de ses idées, l'apprentissage de l'écriture, peut-être même dans la compréhension de ce qu'il écoute et lit. Non seulement, cela a-t-il des conséquences dans les résultats académiques, mais aussi dans les relations sociales avec ses pairs et ses enseignants puisqu'il ne saisit pas certains énoncés du langage tels que des jeux de mots ou des métaphores. De plus, il a de la difficulté à exprimer clairement ses idées et ses opinions. Ces obstacles à l'expression orale et celle écrite peuvent éventuellement marginaliser le jeune dysphasique et le démotiver. Des études ont mis en évidence qu'il existe une relation entre le langage parlé et l'apprentissage de l'écriture : si le jeune dysphasique éprouve des difficultés à s'exprimer oralement, il en sera de même dans la production écrite. Toutefois, d'autres études démontrent que l'apprentissage de l'écriture aide à améliorer le langage oral. Toutes ces études ont été effectuées sur de jeunes enfants au niveau préscolaire ou au primaire; elles ont été faites à partir de textes narratifs restitués par des jeunes n'ayant par de problème de langage. Notre recherche, qui est exploratoire et descriptive, concerne des jeunes du premier cycle du secondaire et la collecte de données s'est faite à partir d'un texte courant. Elle visait deux objectifs spécifiques : premièrement, analyser la cohérence et la cohésion dans la restitution orale et celle écrite d'un sujet tout-venant et dans celles d'un jeune dysphasique; et deuxièmement, décrire les relations entre les restitutions des deux sujets. Pour ce faire, la collecte de données s'est déroulée de la manière suivante : nous avons demandé à deux jeunes de deuxième et troisième secondaires, l'un, tout-venant et l'autre, dysphasique, de restituer ce qu'ils se rappelaient de l'écoute d'un texte à dominante descriptive laquelle leur a été faite à tour de rôle. Dans un premier temps, ils devaient rappeler oralement le contenu du texte lu, et dans un deuxième temps, ils devaient écrire ce dont ils se souvenaient du même texte. Une fois les restitutions orales transcrites sous forme de Verbatim, elles ont été, tout comme les restitutions écrites, décrites et comparées entre elles selon les critères suivants : la cohérence (intégration et hiérarchisation et la cohésion (récurrence, coréférence, contiguïté sémantique et connecteurs). Les résultats obtenus montrent d'abord que les restitutions orales et écrites présentent des similitudes quant à la cohérence et la cohésion. Les restitutions écrites sont légèrement plus détaillées, c'est-à-dire quelques idées ont été ajoutées ou précisées. Par exemple, dans la restitution orale, comme dans celle écrite, le sujet tout-venant mentionne que les fourmis d'Argentine pourraient être "dangereuses pour les arbres fruitiers". Dans sa restitution écrite, il ajoute comme informations que ces insectes "aiment le sucre" et qu'elles "vont dans les maisons". Les observations montrent aussi une différence entre les restitutions du jeune toutvenant et celles du jeune dysphasique. Ce dernier rappelle les informations du texte de façon cohérente et presque complète alors que le sujet tout-venant ne restitue que les informations de la première partie, et ce, de la façon la plus simple, soit par l'énumération sans connecteurs autres que ceux de l'énumération. Par contre, le sujet tout-venant maîtrise les procédés cohésifs mieux que le sujet dysphasique. Quant à ce dernier, il semble mieux réussir à l'écrit qu'à l'oral. La compréhension des informations de façon globale et, peut-être, le type de texte influencent les résultats dans le rappel des informations. Le sujet dysphasique peut restituer les idées, et ce, de façon structurée s'il saisit bien l'idée globale du texte qu'il lui a été lu, mais la microstructure est moins maîtrisée, sauf l'utilisation des connecteurs qui a probablement un lien plus étroit - que les autres procédés cohésifs - avec la cohérence et la compréhension des idées. Donc, à partir de l'analyse des restitutions orale et écrite, il semble que le trouble de langage aurait des répercussions au niveau des procédés de la cohésion, sauf dans le cas des connecteurs. L'utilisation de ceux-ci et les procédés de cohérence sont maîtrisés par le jeune dysphasique qui a compris le contenu du texte qui lui a été lu.
Resumo:
Ce mémoire s’intéresse à l’endettement des gouvernements et aux facteurs historiques qui en sont les causes. L’analyse utilise des données historiques des cinquante États américains afin d’explorer l’influence de différents facteurs d’ordre économique, politique et institutionnel sur l’accumulation de la dette publique. Alors que la littérature met de l’avant l’impact des facteurs économiques, politiques et institutionnels dans la détermination de l’endettement public, la contrainte budgétaire du gouvernement fait ressortir la relation entre le stock de dette publique courant et les déficits passés. Cette relation est au cœur de la question de recherche abordée par le mémoire : quel est le rôle des facteurs économiques, politiques et institutionnels historiques dans l’accumulation de dette publique? Comment estimer leur poids respectif? Afin de répondre à ces questions, l’analyse empirique intègre des variables explicatives économiques, politiques et institutionnelles ayant une composante historique. De plus, elle accorde une attention particulière aux facteurs institutionnels en utilisant différentes sources de données et des caractérisations plus ou moins détaillées pour modéliser les règles budgétaires et les limites d’endettement. Par ailleurs, la méthodologie empirique tient compte de la question de l’endogénéité potentielle des institutions fiscales. Les résultats de l’analyse économétrique confirment l’importance des facteurs économiques. Dans le cas des variables politiques, ils infirment la théorie selon laquelle les gouvernements divisés s’endettent davantage, mais confirment que l’appartenance politique des gouverneurs a un effet certain sur le poids de la dette publique. Ils indiquent également que l’indice historique d’alternance des partis politiques est important, l’alternance plus fréquente étant associée à une légère diminution de l’endettement. L’instabilité politique n’alimenterait donc pas nécessairement l’endettement public, ce qui suggère qu’il est possible qu’une plus forte compétition électorale puisse avoir un effet positif sur la rigueur budgétaire dans un système à deux partis politiques. De façon générale, les effets estimés des variables institutionnelles impliquent qu’elles ne sont que peu efficaces à limiter l’endettement des États.
Resumo:
Un moyen permettant d'identifier expérimentalement les phases du gaz d'électrons bidimensionnel de la bicouche de graphène en empilement bernal au remplissage $\nu = 3$ est recherché lorsque le biais électrique entre les couches est varié. À ce remplissage, si on se concentre aux basses énergies, il est possible de ne s'intéresser qu'aux deux niveaux de Landau composant le niveau $N=0$ qui sont de même spin et de même vallée, mais d'orbitale différente. Puisque la texture du pseudospin orbital de ce système change selon la phase, il est attendu que le couplage avec le champ électrique de la lumière devrait changer. La dispersion des modes collectifs de chaque phase est calculée dans l'approximation GRPA (generalized random-phase approximation) dans le domaine en biais où chacune domine respectivement. L'absorption optique pour des polarisations linéaires en direction x et en direction y ainsi que pour des polarisations circulaires gauche et droite est calculée. La rotation de Faraday et l'effet Kerr sont également calculés. Des différences entre les phases sont remarquées au niveaux de la fréquence des photons qui sont absorbés, de l'amplitude de l'absorption et de la rotation de la polarisation ainsi que la sensibilité à certains types de polarisation. L'effet des modes collectifs dans les phases considérées est cependant moindre que celui qui est prédit dans un calcul qui ne tient pas compte de l'interaction de Coulomb.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
À notre époque, l'amélioration de la productivité retient l'attention de toutes les organisations, particulièrement dans le cas où les gains de productivité sont relativement faibles. Bien que la productivité de la plupart des organisations soit fonction des ressources technologiques, physiques et humaines, nombre d'entre elles n'ont malheureusement pas encore cherché à accroître leur productivité au moyen d'une amélioration du rendement de leurs ressources humaines. Or, l'évaluation du rendement tire son importance dans le fait qu'elle permet une progression simultanée de l'individu et de l'organisation, c'est-à-dire qu'en améliorant le rendement des individus, l'organisation assure son propre développement. De plus, un système d'évaluation du rendement ne peut être efficace que dans la mesure où il répond aux attentes de ses utilisateurs. Or, la plupart des auteurs s'entendent pour dire qu'il est primordial d'engager les principaux utilisateurs du système, à savoir les évaluateurs et les évalués, dans sa conception initiale ou à défaut, dans son amélioration. Les attentes des évaluateurs et des évalués quant à l'évaluation du rendement : une question de perspective. Aujourd'hui, 30 ans après la recherche effectuée à la compagnie Général électrique et quelques milliers de publications, encore très peu d'études se sont intéressées à ce que les évalués et particulièrement les évaluateurs souhaitent retrouver dans un SER [Système d’évaluation du rendement]. Le premier chapitre, intitulé «la problématique», donne une vue d'ensemble de l'étude et des raisons qui la justifie. Au deuxième chapitre, nous présentons une revue de la littérature concernant notre problématique. Pour leur part, les chapitres trois et quatre présentent les fondements théoriques et méthodologiques de l'étude. Enfin, le cinquième chapitre est entièrement consacré à la présentation des résultats.
Resumo:
Les ressources rares tendent naturellement à la création de marchés et les marchés tendent généralement à s'équilibrer par un mécanisme ou un autre. Le prix nominal est sans contredit le mécanisme d'équilibre le plus courant et le plus étudié par la science économique. Or, lorsque celui-ci est déterminé de façon exogène, d'autres mécanismes entrent en ligne de compte pour équilibrer le marché. Pensons aux files d'attente, dans lesquelles le coût d'opportunité d'attendre physiquement permet de contrôler les excès de demande. Par ailleurs, certaines listes d'attente sont qualifiées d'in abstentia, c'est- à-dire que l'agent économique peut vaquer à toutes ses autres occupations pendant qu'il est dans l'attente de l'obtention du bien ou du service voulu. Ce genre de marché a été particulièrement étudié dans le contexte médical, où on a supposé que c'était la diminution dans le temps de la valeur présente du service obtenu qui permettait de contrôler les surplus de demande. Posé simplement, lorsqu'il y a excès de demande, les délais augmentent, ce qui ferait diminuer la quantité demandée. Dans le cadre de notre étude, nous reprenons cette intuition et l'adaptons au marché des services judiciaires civils québécois. Les différents tarifs sont déterminés de façon exogène par l'administration provinciale et l'offre présente un caractère fixe ou très rigide, ce qui permet de croire que toute augmentation de demande devrait se traduire par une augmentation des délais judiciaires. En nous basant sur un modèle théorique développé dans le cadre des listes d'attente médicales, nous développons un modèle qui illustre de quelle façon les délais peuvent jouer le rôle de prix sur le marché des services judiciaires civils et ainsi permettre à ce dernier de s'équilibrer. Il s'agit à notre avis du premier modèle algébrique de ce genre. Nous disposons de données empiriques pour les districts judiciaires québécois durant la période 1995-2007 qui appuient nos hypothèses initiales. Notre étude revêt en quelque sorte un caractère d'expérience naturelle puisque durant cette période, la compétence maximale de certains tribunaux a été augmentée substantiellement, ce qui s'apparente à un choc de demande permanent. Tout spécialement au niveau des petites créances, le seuil maximal d'éligibilité est passé de 3000 $ à 7000 $ en 2002. À supposer que le marché ne s'équilibre pas par un mécanisme quelconque, le nombre de justiciables dans la liste d'attente devrait avoir augmenté et cette augmentation devrait s'être maintenue durant les années subséquentes, faisant exploser la liste d'attente. Or, ce n'est pas du tout ce qui est observé, d'où la pertinence de fournir une explication sur le fonctionnement du marché des services judiciaires civils. Notre modèle concilie le fait que la demande pour les services judiciaires civils ait augmenté continuellement avec le temps mais que la quantité demandée ait diminué par le fait même. Nous suggérons en effet que la quantité demandée et la quantité offerte sont corrélées négativement avec les délais, ce qui permettrait en bout de ligne d'envisager une diminution constante du nombre de dossiers ouverts à l'équilibre, de pair avec une augmentation des délais.