661 resultados para Haut-Karabagh
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
L’augmentation exponentielle de la demande de bande passante pour les communications laisse présager une saturation prochaine de la capacité des réseaux de télécommunications qui devrait se matérialiser au cours de la prochaine décennie. En effet, la théorie de l’information prédit que les effets non linéaires dans les fibres monomodes limite la capacité de transmission de celles-ci et peu de gain à ce niveau peut être espéré des techniques traditionnelles de multiplexage développées et utilisées jusqu’à présent dans les systèmes à haut débit. La dimension spatiale du canal optique est proposée comme un nouveau degré de liberté qui peut être utilisé pour augmenter le nombre de canaux de transmission et, par conséquent, résoudre cette menace de «crise de capacité». Ainsi, inspirée par les techniques micro-ondes, la technique émergente appelée multiplexage spatial (SDM) est une technologie prometteuse pour la création de réseaux optiques de prochaine génération. Pour réaliser le SDM dans les liens de fibres optiques, il faut réexaminer tous les dispositifs intégrés, les équipements et les sous-systèmes. Parmi ces éléments, l’amplificateur optique SDM est critique, en particulier pour les systèmes de transmission pour les longues distances. En raison des excellentes caractéristiques de l’amplificateur à fibre dopée à l’erbium (EDFA) utilisé dans les systèmes actuels de pointe, l’EDFA est à nouveau un candidat de choix pour la mise en œuvre des amplificateurs SDM pratiques. Toutefois, étant donné que le SDM introduit une variation spatiale du champ dans le plan transversal de la fibre, les amplificateurs à fibre dopée à l’erbium spatialement intégrés (SIEDFA) nécessitent une conception soignée. Dans cette thèse, nous examinons tout d’abord les progrès récents du SDM, en particulier les amplificateurs optiques SDM. Ensuite, nous identifions et discutons les principaux enjeux des SIEDFA qui exigent un examen scientifique. Suite à cela, la théorie des EDFA est brièvement présentée et une modélisation numérique pouvant être utilisée pour simuler les SIEDFA est proposée. Sur la base d’un outil de simulation fait maison, nous proposons une nouvelle conception des profils de dopage annulaire des fibres à quelques-modes dopées à l’erbium (ED-FMF) et nous évaluons numériquement la performance d’un amplificateur à un étage, avec fibre à dopage annulaire, à ainsi qu’un amplificateur à double étage pour les communications sur des fibres ne comportant que quelques modes. Par la suite, nous concevons des fibres dopées à l’erbium avec une gaine annulaire et multi-cœurs (ED-MCF). Nous avons évalué numériquement le recouvrement de la pompe avec les multiples cœurs de ces amplificateurs. En plus de la conception, nous fabriquons et caractérisons une fibre multi-cœurs à quelques modes dopées à l’erbium. Nous réalisons la première démonstration des amplificateurs à fibre optique spatialement intégrés incorporant de telles fibres dopées. Enfin, nous présentons les conclusions ainsi que les perspectives de cette recherche. La recherche et le développement des SIEDFA offriront d’énormes avantages non seulement pour les systèmes de transmission future SDM, mais aussi pour les systèmes de transmission monomode sur des fibres standards à un cœur car ils permettent de remplacer plusieurs amplificateurs par un amplificateur intégré.
Resumo:
Avec la mise en œuvre de la réforme qui requiert des compétences professionnelles de haut niveau chez les enseignantes et enseignants, ceux-ci doivent exercer davantage leur autonomie professionnelle. En plus de maitriser les savoirs à enseigner, ils doivent se prononcer sur le choix de matériel, le modèle d'encadrement de l'école, prévoir des situations d'apprentissage et d'évaluation qui répondent aux besoins et processus cognitifs de chacun des élèves pour le développement de compétences. Ils sont maintenant en relation professionnelle avec l'élève. Par conséquent, ils doivent faire preuve de jugement professionnel dans l'exercice de leur fonction. Nous nous sommes penchée sur les moyens à mettre en oeuvre pour développer le jugement professionnel chez les enseignantes et enseignants. C'est en ce sens que nous pensons qu'un programme de formation continue par rapport au développement du jugement professionnel peut aider les enseignantes et enseignants dans la prise de décision et dans la justification de celle-ci, que ce soit au primaire ou au secondaire
Resumo:
Récemment, beaucoup d’efforts ont été investis afin de développer des modulateurs sur silicium pour les télécommunications optiques et leurs domaines d’applications. Ces modulateurs sont utiles pour les centres de données à courte portée et à haut débit. Ainsi, ce travail porte sur la caractérisation de deux types de modulateurs à réseau de Bragg intégré sur silicium comportant une jonction PN entrelacée dont le but est de réaliser une modulation de la longueur d’onde de Bragg par le biais de l’application d’un tension de polarisation inverse réalisant une déplétion des porteurs au sein du guide d’onde. Pour le premier modulateur à réseau de Bragg, la période de la jonction PN est différente de celle du réseau de Bragg tandis que le deuxième modulateur à réseau de Bragg a la période de sa jonction PN en accord avec celle du réseau de Bragg. Ces différences apporteront un comportement différent du modulateur impliquant donc une transmission de données de qualité différente et c’est ce que nous cherchons à caractériser. L’avantage de ce modulateur à réseau de Bragg est qu’il est relativement simple à designer et possède un réseau de Bragg uniforme dont on connaît déjà très bien les caractéristiques. La première étape dans la caractérisation de ces modulateurs fut de réaliser des mesures optiques, uniquement, afin de constater la réponse spectrale en réflexion et en transmission. Par la suite, nous sommes passé par l’approche usuelle, c’est à dire en réalisant des mesures DC sur les modulateurs. Ce mémoire montre également les résultats pratiques sur le comportement des électrodes et de la jonction PN. Mais il rend compte également des résultats de la transmission de données de ces modulateurs par l’utilisation d’une modulation OOK et PAM-4 et permet de mettre en évidence les différences en terme d’efficacité de modulation de ces deux modulateurs. Nous discutons alors de la pertinence de ce choix de design par rapport à ce que l’on peut trouver actuellement dans la littérature.
Resumo:
L'Université Bishop's de Lennoxville est née d'un défi de l'anglicanisme de s'implanter dans une région colonisée par des Américains dans une province en majeure partie francophone. Troisième plus ancienne université du Québec, Bishop's célèbrera en décembre de cette année 1993, son 150 ième anniversaire. Bien qu'elle soit petite, avec un effectif de seulement 2000 étudiants, Bishop's quand même réussît à attirer des étudiants non seulement du Québec mais de toutes les autres provinces ainsi que de l'étranger. Le cas de Bishop's est unique étant donné qu'elle est la seule université anglophone du Québec établie dans une région rurale. De plus, n'offrant que des programmes de premier cycle, elle perd le pouvoir d'attraction des programmes de deuxième et troisième cycles ainsi que celui des facultés des professions libérales telles que le droit, le génie ou la médecine. Les responsables de l'université s'interrogent sur les raisons qui aujourd'hui amènent un étudiant à choisir Bishop's plutôt qu'une autre université pour entreprendre ses études. Leur problème n'est pas autant d'augmenter le nombre total d'étudiants inscrits que surtout celui de changer la composition du corps estudiantin afin qu'un plus grand pourcentage provienne de la province du Québec. Conscients de l'énorme potentiel que représente le marché francophone, ils voudraient tout en maintenant la participation présente des anglophones du Québec, développer des stratégies qui leur permettront d'attirer un plus grand nombre d'étudiants francophones. Les mesures prises par l'administration durant les deux dernières années académiques ont été d'accorder des proportions de plus en plus importantes du budget de recrutement aux cegeps francophones. Confrontés à notre tour à ce problème, nous avons décidé de le résoudre d'une manière plus globale et plus approfondie. Une revue préliminaire de la littérature s'est avérée insuffisante. La recherche dans ce domaine foisonne en études de préférences visant surtout à faire des prévisions au sujet des admissions futures dans le but d'attirer le plus de candidats possible sans se soucier de l'origine régionale, ethnique ou linguistique des étudiants. Afin d'attirer tel groupe d'étudiants plutôt qu'un autre, les responsables devraient tout d'abord enquêter sur les attributs d'une université qui sont importants pour chaque groupe et déterminer si ces attributs diffèrent d'un groupe à un autre. C'est pour cette raison que nous avons mené auprès des étudiants de Bishop's une étude de préférences afin de trouver le message qui doit être véhiculé lors des activités de recrutement. De plus, comme mentionné plus haut, les responsables consacrent une partie du budget à ces activités. Apporter un changement au corps étudiant devient par conséquent un problème de gestion des efforts de recrutement. Nous avons pour cela développé un modèle basé sur une fonction de réponse visant à établir une relation entre les demandes d'inscriptions et différentes autres variables telles que le potentiel du marché, les sommes allouées au recrutement, la distance qui sépare la région d'origine de Bishop's, et enfin un effet de langue qui différencierait la réponse des francophones de celle des anglophones. Ce modèle permet d'élaborer une règle de répartition du budget relativement facile à mettre en oeuvre et qui aiderait les responsables à optimiser la composition du corps étudiant.
Resumo:
La présente étude tend à vérifier s'il y a concordance ou non entre l'évolution du jugement moral général par rapport au jugement moral sexuel. Une brève revue de littérature de la pensée grecque à nos jours, ainsi qu'une traduction du sens du "moral" à travers les valeurs nous permet de nous situer au coeur de notre recherche. En première partie, il est présenté une synthèse des théories de Jean Piaget, Lawrence Kohlberg et Erik H. Erikson sur le jugement moral ainsi qu'un regard sur le développement psycho-sexuel afin de bien situer toutes les données sur lesquelles s'établira l'expérimentation dont il est fait état en deuxième partie. L'expérimentation sur le niveau du jugement moral général par rapport au jugement moral sexuel a été réalisée selon l'approche que Lawrence Kohlberg a développée en utilisant un nouvel instrument qui s'intitule: "Opinionnaire sur certains thèmes de relations humaines". Cette expérimentation fut réalisée auprès de 165 adolescents de secondaire 111, à l'intérieur des cadres d'une école polyvalente. Les données suivantes ont été observées : - le sexe (garçons - filles) - les secteurs (régulier - professionnel) - les âges (14 - 15 - 16 ans) - les strates sociales (pauvre - moyen - riche) - le tissu familial (couple uni - famille monoparentale - famille d'accueil). Les résultats de cette recherche indiquent qu'il n'y a aucune différence entre le jugement moral général et le jugement moral sexuel par rapport aux données énoncées ci-haut. Cependant, certaines différences ont été observées entre les secteurs et entre les 14 et 15-16 ans, ainsi qu'entre les riches et les moyens-pauvres. Des éléments intéressants sont ressortis de cette observation, tels que: - Les étudiants plus favorisés pécuniérement et socialement ont un niveau de jugement moral général et de jugement moral sexuel plus élevé que les autres. - Les étudiants de 14 ans présentent également un niveau de jugement moral général et de jugement moral sexuel plus élevé que ceux de 15 et 16 ans. Comme conclusion, nous croyons que la recherche ayant trait au jugement moral général par rapport au jugement moral sexuel est actuellement dépassée et qu'il y aurait lieu de s'intéresser à d'autres aspects comme, par exemple, les angles d'entrée et de sortie pour l'évolution d'un stade vers un autre.
Resumo:
Le travail occupe une place très importante dans la société industrialisée, ce concept est en constante évolution. Au cours des dernières décennies, le travail a connu deux révolutions importantes. La première fût celle de l'agriculture, la deuxième industrielle. Nous vivons présentement une troisième révolution, celle de la technologie. Le virage technologique amène des changements considérables sur le marché du travail aux plans économique, social et personnel. Depuis les trente dernières années, la technologie connaît des progrès immenses et ce, de façon soutenue et de plus en plus rapide. Plusieurs professions ont disparu, d'autres sont appelées à disparaître et la plupart subiront d'importantes modifications à cause de l'implantation de la nouvelle technologie. Par exemple, la secrétaire est passée de la machine à écrire manuelle conventionnelle à l'électrique, dorénavant, elle fait du traitement de texte sur ordinateur; presque tout son travail est informatisé. Elle aura à utiliser, dans les prochaines années, des appareils dont le plus haut degré de sophistication n'a pas été atteint. Les architectes et les ingénieurs ont troqué leur table à dessins pour l'ordinateur qui réalise leurs plans et croquis en deux fois moins de temps. Les tailleurs ne coupent plus les tissus avec des ciseaux mais avec des lasers ce qui apporte plus de précision et rapidité. Les exemples de ce type se comptent par milliers maintenant et l'avancement technologique progresse rapidement. Nous retrouvons ces traces partout même dans nos foyers (magnétoscopes, jeux vidéos, ordinateurs, fours à micro-ondes, etc.).
Resumo:
Notre recherche porte sur une approche pédagogique qui nous a amenée à élaborer un matériel spécifique rejoignant l'image mentale auditive et l'image mentale visuelle chez les élèves de 2e secondaire. L'objectif de cette recherche est de vérifier si cette pédagogie permettrait à tous les élèves de réussir, si elle rendrait les résultats des groupes d'élèves plus homogènes et s'il serait possible grâce à elle d'atteindre un haut degré de satisfaction des élèves à l'égard du cours d'économie familiale. L'expérimentation a été réalisée auprès de quatre groupes, deux groupes expérimentaux et deux groupes témoins. Pour les groupes témoins, l'enseignement traditionnel ou exposé collectif a été utilisé. Pour les groupes expérimentaux, un enseignement favorisant la gestion mentale basée sur la théorie de La Garanderie avec un nouveau document pédagogique appuyé de matériel spécifique a été utilisé. Cette approche pédagogique s'appuie également sur la théorie de Bloom sur l'évaluation formative et sur l'évaluation sommative. Les analyses statistiques n'ont pas montré de différence significative entre les performances moyennes de chacun des groupes, sauf pour le groupe expérimental fort. Toutefois, nous pouvons remarquer une plus grande homogénéité chez les groupes expérimentaux et une plus grande satisfaction des élèves.
Resumo:
Selon Schaefer (1991), il y aurait un manque de connaissance des caractéristiques parentales qui seraient liées à la performance académique et aux habiletés adaptatives des élèves du primaire et du secondaire. Une meilleure compréhension de ces caractéristiques pourrait permettre d'intervenir directement sur le milieu d'éducation primaire du jeune, soit la famille, pour améliorer ses performances scolaires et ses comportements adaptatifs. Krieller, entre autres, (1976; voir Schaefer, 1991), s'est intéressé aux caractéristiques parentales : selon lui, les normes de comportements favorisés par les parents pour eux-mêmes et les enfants seraient directement liées aux croyances et aux comportements de l'enfant. Plusieurs chercheurs rapportent que des caractéristiques parentales telles le niveau d'éducation (Kohn, 1969, Alwin, 1984; voir Schaefer, 1991), les attitudes et les valeurs face à l'éducation (Schaefer et Edgerton, 1985; voir Schaefer, 1991), seraient liées aux pratiques éducatives des parents. Par exemple, l'autoritarisme parental serait lié à un faible niveau de scolarité des parents et à un système de valeurs axé sur l'encadrement rigide et l'obéissance, alors que le style parental démocratique serait lié à un plus haut niveau d'éducation et à des valeurs axées sur l'encadrement souple et l’autonomisation (Becker et Krug, 1985; voir Schaefer, 1991). D'autres chercheurs ont établi qu'il existait un lien entre le type de croyance parentale et les pratiques éducatives et la performance scolaire et l'adaptation des élèves (Baumrind, 1971, 1973; voir Dornbush, 1987 : Dornbuah, 1987, 1990, 1991, 1992); par exemple, les jeunes qui ont des parents démocratiques (qualité de la supervision) bénéficient d'une meilleure supervision et ils sont mieux adaptés et plus performants en milieu scolaire. L'ensemble des recherches précitées établit clairement qu'il existe des liens significatifs entre les croyances parentales, les pratiques éducatives et l'adaptation et la performance des jeunes en milieu scolaire.
Resumo:
Le secteur administratif se veut la scène d'innombrables transformations dont certaines affectent en profondeur la nature même des tâches et fonctions du personnel. Les travailleuses et travailleurs de bureau subissent, entre autres, les conséquences de ce remue-ménage quasi permanent dont l'informatique constitue l'un des principaux éléments bouleversants. Constamment en évolution, donc en changement, les individus doivent adapter leurs méthodes de travail, leurs horaires et leurs tâches de manière à répondre aux besoins des gestionnaires, eux-mêmes tributaires de systèmes économiquement et socialement instables. Devant cet état de fait, nous nous sommes demandé comment réagissait le personnel de soutien administratif. Partant du principe que de fréquentes innovations engendrent un haut niveau de stress, nous avons voulu identifier les principaux facteurs qui influencent négativement cette catégorie d'employées et employés. Pour ce faire, nous avons mené une recherche descriptive dont la population s'est limitée à la région de Rimouski. Après avoir effectué une revue de la littérature traitant de la problématique du stress et des conditions de travail en général, nous avons sélectionné 17 facteurs de stress et les avons analysés selon cinq variables précises et une classification préétablie de répondantes et de répondants. Les résultats obtenus indiquent qu'effectivement certains éléments causent et entretiennent un niveau de stress qualifié de négatif chez le personnel de soutien et ce, indépendamment des variables étudiées. Comme peu d'études se sont intéressées aux travailleuses et travailleurs de bureau jusqu'à ce jour, nous faisons un peu figure de pionnière et constatons que les pistes de recherche fourmillent pour qui veut connaître davantage les problèmes relatifs au stress chez le personnel de soutien administratif et y remédier éventuellement.
Resumo:
Cette étude de cas a pour but de vérifier, chez des enfants autistes, l'effet de l'intégration en milieu scolaire régulier sur la fréquence d'émissions des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale ainsi que les comportements stéréotypés. Deux enfants autistes, un garçon de quatre ans et une fillette de cinq ans, ont participé à cette étude. La fréquence d'émission des comportements mentionnés ci-haut a été observée à la maison, en classe spéciale ainsi qu'en classe régulière à l'aide d'une grille conçue spécialement pour les enfants autistes (EGA 111). La collecte d'informations a été effectuée à des périodes précises soit avant l'intégration scolaire (maison 1), au début de l'intégration (phase 1), un mois après l'intégration (phase 2) et deux mois après l'intégration (phase 3) enfin à la maison (maison 2). Vingt heures d'observation ont été collectées au total auprès de chaque enfant Une analyse graphique est utilisée pour présenter les résultats obtenus durant les différentes phases d'observation. Celle-ci est assortie d'une analyse non paramétrique de randomisation pour vérifier si la fréquentation d'un groupe de pairs régulier peut contribuer à diminuer significativement les problèmes de communication, d'émission de comportements stéréotypés et d'isolement social. Sauf une exception, les résultats obtenus démontrent que la fréquence d'émission des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale et des comportements stéréotypés diminue au cours de l'intégration scolaire en groupes réguliers et ce, tant en classe spéciale qu'en classe régulière chez chacun des enfants. Il est aussi remarquable de constater que les taux horaires d'émission de comportements d'isolement social, de communication verbale et non verbale ainsi que des activités motrices stéréotypées sont beaucoup plus fréquents en classe spéciale comparativement à la classe régulière. Ces résultats suggèrent que l'intégration au groupe de pairs régulier contribue à diminuer la fréquence d'émission de comportements susceptibles de nuire à la qualité de l'adaptation sociale et à l'apprentissage de nouvelles habiletés et qu'il y a généralisation des acquis en classe spéciale et à la maison.
Resumo:
Le monde agricole québécois célèbre cette année deux anniversaires d'importance: le cinquantenaire de la Corporation des agronomes de la province de Québec, fondée à Sherbrooke en 1937, et le centenaire du ministère de l'Agriculture qui existe comme entité administrative distincte depuis 1887. Si la présentation du présent mémoire coïncide avec ces deux anniversaires ce n'est que pur hasard, mais un hasard qui fait bien les choses me semble-t-il. Pourquoi avoir choisi un sujet comme le rôle du ministère de l'Agriculture de la province de Québec dans l'évolution de ce secteur économique entre 1852 et 1929? Une raison personnelle d'abord: je suis mariée à un agronome. L'agriculture est donc une partie intégrante de ma vie. Des raisons professionnelles aussi: l'histoire politique m'intéresse au plus haut point. En faisant le cours d'activité de recherches dirigée intitulé Mercier dans la presse québécoise, 1886-1891, j'ai découvert à ma grande surprise, que le ministère de l'Agriculture existe comme entité distincte depuis 1887 seulement. J'ai donc pensé qu'il serait intéressant de pousser mes recherches un peu plus loin, dans le cadre d'un mémoire de maîtrise, afin d'étudier le rôle qu'a pu jouer le ministère de l'Agriculture dans le processus de spécialisation agricole qui s'est amorcé aux XIX- siècle…
Resumo:
La possibilité d’estimer l’impact du changement climatique en cours sur le comportement hydrologique des hydro-systèmes est une nécessité pour anticiper les adaptations inévitables et nécessaires que doivent envisager nos sociétés. Dans ce contexte, ce projet doctoral présente une étude sur l’évaluation de la sensibilité des projections hydrologiques futures à : (i) La non-robustesse de l’identification des paramètres des modèles hydrologiques, (ii) l’utilisation de plusieurs jeux de paramètres équifinaux et (iii) l’utilisation de différentes structures de modèles hydrologiques. Pour quantifier l’impact de la première source d’incertitude sur les sorties des modèles, quatre sous-périodes climatiquement contrastées sont tout d’abord identifiées au sein des chroniques observées. Les modèles sont calés sur chacune de ces quatre périodes et les sorties engendrées sont analysées en calage et en validation en suivant les quatre configurations du Different Splitsample Tests (Klemeš, 1986;Wilby, 2005; Seiller et al. (2012);Refsgaard et al. (2014)). Afin d’étudier la seconde source d’incertitude liée à la structure du modèle, l’équifinalité des jeux de paramètres est ensuite prise en compte en considérant pour chaque type de calage les sorties associées à des jeux de paramètres équifinaux. Enfin, pour évaluer la troisième source d’incertitude, cinq modèles hydrologiques de différents niveaux de complexité sont appliqués (GR4J, MORDOR, HSAMI, SWAT et HYDROTEL) sur le bassin versant québécois de la rivière Au Saumon. Les trois sources d’incertitude sont évaluées à la fois dans conditions climatiques observées passées et dans les conditions climatiques futures. Les résultats montrent que, en tenant compte de la méthode d’évaluation suivie dans ce doctorat, l’utilisation de différents niveaux de complexité des modèles hydrologiques est la principale source de variabilité dans les projections de débits dans des conditions climatiques futures. Ceci est suivi par le manque de robustesse de l’identification des paramètres. Les projections hydrologiques générées par un ensemble de jeux de paramètres équifinaux sont proches de celles associées au jeu de paramètres optimal. Par conséquent, plus d’efforts devraient être investis dans l’amélioration de la robustesse des modèles pour les études d’impact sur le changement climatique, notamment en développant les structures des modèles plus appropriés et en proposant des procédures de calage qui augmentent leur robustesse. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques du bassin Au Saumon et de proposer une démarche méthodologique originale d’analyse pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques.
Resumo:
Cette recherche a pour objectif de mesurer la valeur marginale estimée par les investisseurs canadiens à la suite de l’ajout de 1 dollar d’encaisse, pour la période trimestrielle s’étalant de 2001 à 2013. Autrement dit, nous tentons d’évaluer si l’investisseur déprécie, estime à sa juste valeur nominale ou apprécie la valeur de 1 dollar de trésorerie, et ce à travers son impact sur la valeur marchande de l’équité. Parallèlement, nous tentons d’analyser l’influence des variables liées à la rentabilité, le financement, la croissance et le risque sur la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse. L’effet sectoriel sera notamment exploré sur l’ensemble de ces périodes. Des études passées ont démontré qu’il existe une asymétrie entre la valeur nominale de 1 dollar d’encaisse et celle estimée par les investisseurs. Plus précisément que l’ajout de 1 dollar de liquidité est évalué à prime. Somme toute, ces analyses affinent leurs résultats en tenant compte de l’influence des autres variables telles que mentionnées plus haut, afin de déterminer celles qui entraînent une appréciation de l’encaisse de celles qui conduisent à sa dépréciation. Nous avons conclu qu’en moyenne la valeur marginale de 1 dollar de liquidité est évaluée à 2,13$ par les investisseurs. Nous avons également pu prouver que les anticipations des investisseurs et le risque total influencent significativement cette estimation. Pour tenter de mesurer la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse, nous avons utilisé la méthodologie de Pinkowitz et Williamson (2002). Ce faisant, nous avons dans un premier temps mesuré l’impact net de l’encaisse sur la valeur marchande de l’équité en élimant du modèle les variables tenant compte des variations trimestrielles t-2 et t+2. L’hypothèse à vérifier en ce qui concerne l’impact net de l’encaisse est qu’il existe une asymétrie significative entre la valeur de 1 dollar et celle estimée par l’investisseur qui n’est pas uniquement provoquée par l’influence des variations passées et futures de l’encaisse. Les résultats obtenus nous ont permis de prouver que la valeur de 1 dollar d’encaisse est appréciée par l’investisseur, et ce malgré la suppression ou la présence des variables tenant compte des variations. Dans la même ligné, nous avons pu démontrer que, conjointement à l’encaisse au temps t, seules les variations liées aux anticipations des investisseurs impactaient significativement la valeur marchande de l’équité. En ce qui concerne le risque dont l’analyse s’est effectuée en dissociant le risque systématique du risque systémique. L’hypothèse à vérifier est qu’une augmentation du risque systématique entraîne une augmentation de la valeur de l’encaisse estimée par l’investisseur. Les résultats obtenus viennent appuyer cette affirmation. Quant au risque systémique, l’hypothèse à vérifier tente à affirmer qu’en période de crise l’encaisse est sous-estimée par l’investisseur et son impact sur la VME non significatif. Nos résultats nous conduisent à démontrer que pour la crise financière de 2006, cette hypothèse est justifiée, mais nous ne permettent pas de la vérifier pour chaque crise. Finalement, nous tenions à vérifier que dépendamment du secteur étudié, l’encaisse pouvait être plus appréciée par les investisseurs. Or, nos résultats ont montré qu’en présence de la liquidité aucun secteur ne se distingue significativement de ses pairs.
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.