118 resultados para Ajustement des prix
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Évaluation du prix et de la variance de produits dérivés de taux d'intérêt dans un modèle de Vasiček
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Cet article s'interroge sur les pratiques tarifaires des médecins généralistes libéraux français et notamment de la succession d'actes gratuits et de dépassements d'honoraires. Il soutient l'hypothèse selon laquelle la marchandisation du système de soins se traduit par une différence (à la hausse ou à la baisse) par rapport au tarif conventionnel. La marchandisation se répercute par une augmentation des tarifs spécifiques et creuse l'écart entre le prix "juste" selon le médecin et le tarif conventionnel.
Resumo:
Grâce aux nanotechnologies, l’être humain peut maîtriser la matière à l’échelle du nanomètre — soit au niveau des atomes et des molécules. Les matériaux obtenus suite à ces manipulations présentent des propriétés nouvelles qui les rendent très intéressants pour nombre d’applications techniques, et ce dans tous les domaines technoscientifiques. Ainsi, les nanotechnologies sont souvent considérées comme les prémisses d’une profonde révolution technologique et sociale. Toutefois, si les nanotechnologies intéressent investisseurs, gouvernement, entreprises et universités, elles soulèvent aussi des questions éthiques, notamment au sujet de leur toxicité, de leurs retombées et de la modification de l’être humain. À ces questions s’ajoutent plusieurs interrogations sur la gouvernance des nanotechnologies : comment, en effet, encadrer en amont le développement de celles-ci pour éviter d’éventuelles conséquences néfastes en aval? Parmi ces interrogations, le rôle des médias dans les relations entre les développeurs de nanotechnologies et le public est souvent mentionné. Certains voient dans les médias un acteur auquel les chercheurs pourraient recourir pour établir un dialogue avec le public afin d’assurer un développement harmonieux des nanotechnologies. Si cette recommandation semble très pertinente, il n’existe, à notre connaissance, aucune étude empirique pour en vérifier la faisabilité auprès des acteurs concernés (chercheurs, médias, etc.). Dans le cadre de cette thèse, nous avons donc voulu examiner et analyser les perceptions des chercheurs et des journalistes québécois envers des initiatives médiatiques pour baliser le développement des nanotechnologies. Pour ce faire, nous avons procédé à une étude qualitative auprès de vingt (20) chercheurs en nanobiotechnologies/nanomédecine et dix (10) journalistes spécialisés en vulgarisation scientifique. L’analyse des entretiens avec les répondants a révélé que si les acteurs rencontrés sont favorables envers de telles initiatives, il existe plusieurs contraintes pouvant gêner une telle entreprise. Suite à l’examen de ces contraintes, nous avons suggéré des initiatives concrètes que les chercheurs québécois pourraient mettre en place pour mieux baliser le développement des nanotechnologies à l’aide d’un dialogue avec le public. Ces suggestions consistent notamment à créer des médias privés pour les chercheurs, à recourir aux médias indépendants et à investir le web. De telles initiatives, cependant, ne peuvent s’obtenir qu’au prix d’un remaniement des priorités des chercheurs.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Gabrielle Soucy s'est méritée le 2ème prix du concours d'affiches intitulé « La recherche en environnement et son apport à la société » organisé dans le cadre du colloque. Elle a reçu une bourse d'étude de 250$. Le titre de son affiche : Évaluation des impacts potentiels sur la santé humaine dûs à l'émission de plusieurs substances dans la régions des Grands Lacs (GL) et du bassin du Saint-Laurent.
Resumo:
L’article traite de l’erreur sur le prix dans les contrats électroniques. Comme toile de fond l’auteure analyse la décision de la Cour Supérieure du Québec Union des consommateurs c. Dell Computer Corp., ainsi que celle de la Cour d’Appel du Québec. Comme la question de l’erreur sur le prix n’est pas traitée dans ces décisions, l’auteure étudie, dans un premier temps, les erreurs reconnues en droit québécois en tant que vices du consentement. Dans un deuxième temps, l’auteure étudie le cas spécifique de l’erreur sur le prix dans les contrats électroniques et la validité de ces derniers. Finalement, l’auteure analyse certaines décisions étrangères qui portent sur la validité d’un contrat électronique conclu sur la base d’une erreur sur le prix.
Resumo:
Le braque allemand appartient à une race canine affichant une indépendance quasi rebelle. La bruyère appartient à une variété horticole dont la culture, au Québec, exige des soins qui relèvent de l’acharnement. Le droit naturel est le postulat idéologique fondateur d’un modèle de régulation sociale qui cherche à nier le pluralisme normatif. L’apparente hétérogénéité de ces trois affirmations s’estompe aussitôt qu’on rattache chacune à l’une ou l’autre des passions d’Andrée Lajoie. Andrée Lajoie est une femme de passions, avec un S. Vous me direz que la formule est assez convenue, mais je n’ai trouvé de meilleure pour décrire celle dont j’ai été le collègue pendant plus de trente années et dont j’ai surtout été l’assistant, puis l’attaché de recherche, le co-auteur et, je crois aussi, l’ami.
Resumo:
"En mai 2004, l’Union européenne connaissait un élargissement sans précédent, passant soudainement de 15 à 24 pays membres. Cet élargissement s’est opéré dans un contexte mondial marqué par une sécurisation accrue des migrations ; une tendance à laquelle l’Union Européenne ne saurait échapper. Cet élargissement constitue, aujourd’hui encore, un défi fondamental pour l’UE qui d’un côté craint pour sa sécurité en multipliant les politiques restrictives à l’endroit des migrations et qui, de l’autre, se doit d’intégrer ces dix nouveaux membres, pour la plupart issus de l’ancien bloc soviétique et n’ayant par conséquent que très peu d’expériences et de moyens en matière de contrôle migratoire ; ce domaine ayant été pendant plus de 60 ans l’apanage du pouvoir central de Moscou. Le défi à relever est d’autant plus grand si l’on considère le fait que ces nouveaux membres se situent géographiquement aux frontières centrales et orientales de l’Europe et en constituent ainsi l’une des plus importantes portes d’entrées. En imposant à ces nouveaux membres la reprise intégrale de l’acquis communautaire, sans tenir compte des spécificités géographiques, historiques, économiques et politiques de ces pays, l’Union européenne risque de payer le prix d’une politique hypocrite et aveugle et de favoriser la multiplication d’effets pervers, pouvant aller jusqu’à compromettre, à terme, la stabilité de la région."
Resumo:
Les institutions juridiques ont été bâties autour des réalités connues depuis des millénaires, que nous appelons de nos jours des phénomènes du monde réel. Ces phénomènes retrouvent présentement un nouveau théâtre – le cyberespace, et les règles du droit font face au défi de s’approprier ce nouvel environnement. Entre autres, les technologies du cyberespace ont mis au monde divers moyens qui nous permettent de nous identifier et de manifester notre attitude envers les actes juridiques – des finalités qui ont été assurées de longue date par la signature manuscrite. Bien que ces nouveaux moyens aient mérité un nom similaire à leur contrepartie traditionnelle – l’appellation de signature électronique, ils restent des phénomènes dont la proximité avec la signature manuscrite est discutable. Force est de constater que le seul point commun entre les moyens classiques et électroniques de signer réside dans les fonctions qu’ils remplissent. C’est en se basant sur ces fonctions communes que le droit a adopté une attitude identique envers les moyens d’authentification traditionnels et électroniques et a accueilli ces derniers sous l’emprise de ses institutions. Cependant, ceci ne signifie pas que ces institutions se soient avérées appropriées et qu’elles ne demandent aucun ajustement. Un des buts de notre étude sera de mettre en relief les moyens d’adaptation qu’offre le droit pour réconcilier ces deux environnements. Ainsi, pour ajuster l’institution de la signature aux phénomènes électroniques, le droit s’est tourné vers le standard de fiabilité de la signature électronique. Le standard de fiabilité est un complément de l’institution juridique de signature qui ne se rapporte qu’à la signature électronique et dont cette étude démontrera les applications. Les composantes du standard de fiabilité qui occuperont un deuxième volet de notre étude représentent un ensemble de règles techniques liées à la signature électronique. Ainsi, comme le standard de fiabilité puise sa substance dans les propriétés de l’architecture du cyberespace, l’attitude du droit envers la signature électronique s’avère tributaire de la morphologie du cyberespace. Étant donné que les possibilités qui nous sont offertes par la technologie continue à déterminer la réglementation juridique, il est légitime de conclure que l’examen des tendances dans l’évolution du cyberespace nous fournira un point de vue prospectif sur l’évolution des règles du droit.
Resumo:
Objectifs: Plusieurs polymorphismes nucléaires localisés sur les gènes des récepteurs nicotiniques cholinergiques CHRN sont associés au tabagisme. Cependant, peu d’études ont examiné l’association entre les polymorphismes sur les gènes CHRN et l’étourdissement. Les polymorphismes et les symptômes subjectifs sont peu être lié à la dépendance à la nicotine et à l’étourdissement ressenti lors de l’initiation. Le but de cette étude est d’étudier l’association entre 61 polymorphismes sur huit gènes CHRN (CHRNA3 CHRNA4 CHRNA5, CHRNA6, CHRNA7, CHRNB2, CHRNB3, CHRNB4) et l’étourdissement ressenti lors de l’initiation. Méthodes: Les données provenant d'une étude de cohorte longitudinale composée de 1293 étudiants, ont été analysées selon un devis d'étude gène-candidat. Les données ont été collectées par le biais de questionnaires auto-reportés aux troix mois, durant 5 ans. L’ADN provenent de la salive ou du sang a été génotypé pour 61 polymosphismes localisés sur les gènes CHRN ont été génotypés, à l'aide d'une stratégie de couverture maximale du gène. L'équation d'analyse est une régression logistique, incluant un ajustement sur l’âge, le sexe et l’origine ethnique. Résultats: Trois SNPs sur le gène CHRNA6 (rs7812298, rs2304297, rs7828365) sont associés à notre phénotype (OR (95% CI)= 0.54 (0.36, 0.81), 0.59 (0.40, 0.86) and 0.58 (0.36, 0.95, respectivement),. Trois autres polymorphismes (rs3743077 (CHRNA3), rs755204 (CHRNA4), rs7178176 (CHRNA7)) sont également associés à phénotype (OR (95% CI)=1.40 (1.02, 1.90), 1.85 (1.05, 3.27) and 1.51 (1.06, 2.15), respectivement) Conclusion: Plusieurs SNPs localisés sur les gènes CHRN sont associés à l'étourdissement, un phénotype de l'initiation qui est peut-être associé à la dépendance à la nicotine.
Resumo:
Il est bien connu que les immigrants rencontrent plusieurs difficultés d’intégration dans le marché du travail canadien. Notamment, ils gagnent des salaires inférieurs aux natifs et ils sont plus susceptibles que ces derniers d’occuper des emplois précaires ou pour lesquels ils sont surqualifiés. Dans cette recherche, nous avons traité de ces trois problèmes sous l’angle de la qualité d’emploi. À partir des données des recensements de la population de 1991 à 2006, nous avons comparé l’évolution de la qualité d’emploi des immigrants et des natifs au Canada, mais aussi au Québec, en Ontario et en Colombie-Britannique. Ces comparaisons ont mis en évidence la hausse du retard de qualité d’emploi des immigrants par rapport aux natifs dans tous les lieux analysés, mais plus particulièrement au Québec. Le désavantage des immigrants persiste même lorsqu’on tient compte du capital humain, des caractéristiques démographiques et du taux de chômage à l’entrée dans le marché du travail. La scolarité, l’expérience professionnelle globale et les connaissances linguistiques améliorent la qualité d’emploi des immigrants et des natifs. Toutefois, lorsqu’on fait la distinction entre l’expérience de travail canadienne et l’expérience de travail étrangère, on s’aperçoit que ce dernier type d’expérience réduit la qualité d’emploi des immigrants. Dans ces circonstances, nous trouvons incohérent que le Canada et le Québec continuent à insister sur ce critère dans leur grille de sélection des travailleurs qualifiés. Pour valoriser les candidats les plus jeunes ayant peu d’expérience de travail dans leur pays d’origine, nous suggérons d’accroître l’importance accordée à l’âge dans ces grilles au détriment de l’expérience. Les jeunes, les étudiants étrangers et les travailleurs temporaires qui possèdent déjà une expérience de travail au Canada nous apparaissent comme des candidats à l’immigration par excellence. Par contre, les résultats obtenus à l’aide de la méthode de décomposition de Blinder-Oaxaca ont montré que l’écart de qualité d’emploi entre les immigrants et les natifs découle d’un traitement défavorable envers les immigrants dans le marché du travail. Cela signifie que les immigrants sont pénalisés au chapitre de la qualité d’emploi à la base, et ce, peu importe leurs caractéristiques. Dans ce contexte, la portée de tout ajustement aux grilles de sélection risque d’être limitée. Nous proposons donc d’agir également en aval du problème à l’aide des politiques d’aide à l’intégration des immigrants. Pour ce faire, une meilleure concertation entre les acteurs du marché du travail est nécessaire. Les ordres professionnels, le gouvernement, les employeurs et les immigrants eux-mêmes doivent s’engager afin d’établir des parcours accélérés pour la reconnaissance des compétences des nouveaux arrivants. Nos résultats indiquent aussi que le traitement défavorable à l’égard des immigrants dans le marché du travail est plus prononcé au Québec qu’en Ontario et en Colombie-Britannique. Il se peut que la société québécoise soit plus réfractaire à l’immigration vu son caractère francophone et minoritaire dans le reste de l’Amérique du Nord. Pourtant, le désir de protéger la langue française motive le Québec à s’impliquer activement en matière d’immigration depuis longtemps et la grille de sélection québécoise insiste déjà sur ce critère. D’ailleurs, près des deux tiers des nouveaux arrivants au Québec connaissent le français en 2011.
Resumo:
Rapport de recherche présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.