11 resultados para Modèle d’évaluation d’actifs
em Université Laval Mémoires et thèses électroniques
Resumo:
Dans les modèles d’évaluation d’actifs financiers, la stratégie de placement d’un individu est liée à la distribution des rendements des actifs inclus dans son portefeuille. Le modèle intertemporel d’évaluation des actifs financiers basé sur la consommation (C-CAPM) permet d’intégrer la dimension temporelle dans le cadre d’analyse et de comprendre l’arbitrage entre les décisions de consommation et d’épargne d’un individu. La prédiction fondamentale de ce modèle est l’existence d’un lien entre les rendements des actifs financiers et leur covariance avec le taux marginal de substitution intertemporel (TMSI). Dans un cadre théorique, l’énigme de la prime de risque est mise en évidence lorsqu’une fonction d’utilité de type CRRA est utilisée afin de représenter les préférences du consommateur. La rigidité de cette modélisation impose cependant un coefficient d’aversion au risque fixe réconciliant difficilement le modèle avec les données réelles. Ce mémoire a pour objectif de résoudre cette problématique en modifiant les formulations classiques du TMSI. Dans un contexte canadien, nous modifions la forme CRRA afin de déterminer, entre autres, si les variations du produit intérieur brut ont un effet sur le niveau d’aversion au risque d’un agent. Par la suite, nous insérons la richesse immobilière dans une forme d’utilité non-séparable comme proxy du rendement de la richesse. Nos résultats suggèrent qu’il est pertinent, sur une longue période, de tenir compte de la richesse immobilière dans le programme de consommation de l’agent.
Resumo:
Le présent mémoire expose les résultats d’une étude de la performance des chantiers ouverts dans un contexte de mines profondes ayant été effectuée dans le cadre du projet de recherche « Mines profondes : défis d’exploitation et impacts sur la récupération minéralurgique » réalisé par le département de génie des mines, de la métallurgie et des matériaux de l’Université Laval. Les données utilisées dans le cadre de cette étude sont en lien avec la planification et l’exploitation de plus de mille chantiers minés entre 860 et 2 450 m de profondeur à la mine souterraine LaRonde de Mines Agnico Eagle, la plus profonde actuellement de l’hémisphère ouest. On y présente une revue de la littérature qui fait la description des problématiques de dilution et de pertes opérationnelles de la réserve minérale liées à la performance des chantiers ouverts ainsi que de leurs conséquences sur les projets miniers. Une comparaison des performances planifiées et réalisées au site de LaRonde y est présentée, ainsi que les résultats d’analyses statistiques ayant permis de montrer que la variation du ratio des contraintes in situ avec la profondeur est un facteur d’influence significatif de la performance des chantiers. L’effet de ce facteur d’influence y est aussi illustré et validé à l’aide d’une série de modèles numériques. Le mémoire présente également une première approche visant à développer un modèle d’évaluation de la dilution dans les chantiers ouverts qui prend en compte la profondeur de minage. Finalement, afin d’améliorer la précision de l’estimation de la réserve minérale lors de l’évaluation de projets miniers, une méthodologie d’estimation intégrant le modèle d’évaluation proposé est présentée pour les projets dont les contextes géologique, géotechnique et opérationnel sont comparables à ceux du site de LaRonde.
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.
Resumo:
Les entreprises qui se servent des technologies de l’information et de la communication (TIC) pour innover mesurent des impacts très inégaux sur leurs performances. Cela dépend principalement de l’intensité, l’ampleur et la cohérence de l’innovation systémique auxquelles elles procèdent. En l’état de la connaissance, la littérature identifie le besoin de mieux comprendre cette notion d’alignement systémique. Cette thèse propose d’aborder cette question à l’aide de la notion d’innovation du modèle d’affaires. Une revue systématique de la littérature a été réalisée. D’un point de vue conceptuel, elle contribue à mieux définir le concept de modèle d’affaires, et a permis de réaliser une typologie des différents cadres de modélisation d’affaires. Le cadre conceptuel qui en est issu aborde le sujet de l’innovation du modèle d’affaires à trois niveaux : (1) stratégique à travers la proposition d’une matrice de positionnement de l’innovation de modèle d’affaires et l’identification de trajectoires d’innovation ; (2) configuration du modèle d’affaires à l’aide du cadre de modélisation tétraédrique de Caisse et Montreuil ; et (3) opérationnel-tactique par l’analyse des facteurs clés de succès et des chaines structurantes. Du fait du caractère émergeant de la littérature sur le sujet, la méthodologie choisie est une étude de cas comparés. Trois études de cas d’entreprises québécoises ont été réalisées. Elles oeuvrent dans des secteurs variés, et ont procédé à une innovation significative de leur modèle d’affaires en s’appuyant sur des TIC,. La recherche conclut à la pertinence de l’utilisation du concept de modèle d’affaires en ce qui concerne l’analyse de l’alignement systémique dans un contexte d’innovation appuyée sur les TIC. Neuf propositions de recherche sont énoncées et ouvrent la voie à de futures recherches
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
L’étude porte sur les retombées économiques de la mine de Voisey’s Bay sur les conditions socioéconomiques des communautés de Rigolet, Makkovik, Hopedale, Nain et de Postville. Elle adopte une approche multidimensionnelle à la fois descriptive et comparative. Les données utilisées proviennent des recensements de la population de 1991, 1996, 2001 et de 2006 conduits par Statistique Canada. Elle utilise aussi les données de l’Enquête nationale auprès des ménages de 2011. Les données internes à la mine proviennent des Rapports de responsabilités sociales de la firme VBNC qui se charge d’exploiter la mine. Nous avons également en recours aux données des rapports du Gouvernement du Nunatsiavut depuis sa mise en place en 2005. Cette étude s’inscrit dans un contexte d’exploitation des ressources naturelles. Elle montre que, contrairement à des considérations voulant que celles-ci constituent une source de richesses, leurs effets sur les conditions socioéconomiques des communautés locales restent mitigés. Les firmes minières s’acharnent à maximiser leurs profits et les conditions de vie des communautés locales n’en bénéficient que partiellement. Pour notre étude, nous faisons l’hypothèse que cette mine ait eu de nombreuses retombées directes ou indirectes (emplois, achats de biens et services, taxes minières, investissements et redevances) et que celles-ci ont modifié les conditions de vie des communautés concernées. Nous avons opté pour une méthodologie basée sur un modèle de retombées économiques de la mine de Voisey’s Bay; un outil conçu avec l’inspiration de la grille d’évaluation des projets miniers, gaziers et pétroliers sur les conditions socioéconomiques de Paul Kishchuk. Ce modèle nous a permis d’analyser les effets de Voisey’s Bay sur la démographie, le marché du travail, la scolarité, le revenu et le logement. Les dimensions identifiées font état d’une légère amélioration sur les conditions de vie des communautés, bien que l’effet ne puisse pas être totalement attribué à la mine, étant donné le rôle important joué par le Gouvernement du Nunatsiavut depuis sa création.
Resumo:
Cette recherche est motivée par un cas d’étude ou on doit déterminer le nombre de pièces à tenir en stock à chaque base (noeud du réseau) pour répondre à la demande au niveau de chaque noeud. Si le niveau du stock par mois est suffisant, la demande est satisfaite directement par son stock local, sinon on fait appel au transfert latéral. D’ailleurs, nos expériences numériques indiquent que l’inclusion des transbordements latéraux dans des décisions d’inventaire est avantageuse. Cet effet est plus grand pour des taux de demandes et des coûts latéraux, élevés. Les résultats d’une étude de cas théorique basée sur les travaux de (Tagaras 1989) confirment nos résultats.
Resumo:
OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.
Resumo:
L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).
Resumo:
La possibilité d’estimer l’impact du changement climatique en cours sur le comportement hydrologique des hydro-systèmes est une nécessité pour anticiper les adaptations inévitables et nécessaires que doivent envisager nos sociétés. Dans ce contexte, ce projet doctoral présente une étude sur l’évaluation de la sensibilité des projections hydrologiques futures à : (i) La non-robustesse de l’identification des paramètres des modèles hydrologiques, (ii) l’utilisation de plusieurs jeux de paramètres équifinaux et (iii) l’utilisation de différentes structures de modèles hydrologiques. Pour quantifier l’impact de la première source d’incertitude sur les sorties des modèles, quatre sous-périodes climatiquement contrastées sont tout d’abord identifiées au sein des chroniques observées. Les modèles sont calés sur chacune de ces quatre périodes et les sorties engendrées sont analysées en calage et en validation en suivant les quatre configurations du Different Splitsample Tests (Klemeš, 1986;Wilby, 2005; Seiller et al. (2012);Refsgaard et al. (2014)). Afin d’étudier la seconde source d’incertitude liée à la structure du modèle, l’équifinalité des jeux de paramètres est ensuite prise en compte en considérant pour chaque type de calage les sorties associées à des jeux de paramètres équifinaux. Enfin, pour évaluer la troisième source d’incertitude, cinq modèles hydrologiques de différents niveaux de complexité sont appliqués (GR4J, MORDOR, HSAMI, SWAT et HYDROTEL) sur le bassin versant québécois de la rivière Au Saumon. Les trois sources d’incertitude sont évaluées à la fois dans conditions climatiques observées passées et dans les conditions climatiques futures. Les résultats montrent que, en tenant compte de la méthode d’évaluation suivie dans ce doctorat, l’utilisation de différents niveaux de complexité des modèles hydrologiques est la principale source de variabilité dans les projections de débits dans des conditions climatiques futures. Ceci est suivi par le manque de robustesse de l’identification des paramètres. Les projections hydrologiques générées par un ensemble de jeux de paramètres équifinaux sont proches de celles associées au jeu de paramètres optimal. Par conséquent, plus d’efforts devraient être investis dans l’amélioration de la robustesse des modèles pour les études d’impact sur le changement climatique, notamment en développant les structures des modèles plus appropriés et en proposant des procédures de calage qui augmentent leur robustesse. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques du bassin Au Saumon et de proposer une démarche méthodologique originale d’analyse pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques.
Resumo:
La machine à vecteurs de support à une classe est un algorithme non-supervisé qui est capable d’apprendre une fonction de décision à partir de données d’une seule classe pour la détection d’anomalie. Avec les données d’entraînement d’une seule classe, elle peut identifier si une nouvelle donnée est similaire à l’ensemble d’entraînement. Dans ce mémoire, nous nous intéressons à la reconnaissance de forme de dynamique de frappe par la machine à vecteurs de support à une classe, pour l’authentification d’étudiants dans un système d’évaluation sommative à distance à l’Université Laval. Comme chaque étudiant à l’Université Laval possède un identifiant court, unique qu’il utilise pour tout accès sécurisé aux ressources informatiques, nous avons choisi cette chaîne de caractères comme support à la saisie de dynamique de frappe d’utilisateur pour construire notre propre base de données. Après avoir entraîné un modèle pour chaque étudiant avec ses données de dynamique de frappe, on veut pouvoir l’identifier et éventuellement détecter des imposteurs. Trois méthodes pour la classification ont été testées et discutées. Ainsi, nous avons pu constater les faiblesses de chaque méthode dans ce système. L’évaluation des taux de reconnaissance a permis de mettre en évidence leur dépendance au nombre de signatures ainsi qu’au nombre de caractères utilisés pour construire les signatures. Enfin, nous avons montré qu’il existe des corrélations entre le taux de reconnaissance et la dispersion dans les distributions des caractéristiques des signatures de dynamique de frappe.