19 resultados para applications des méthodes de crible

em Université Laval Mémoires et thèses électroniques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire est le fruit d’une réflexion portant sur la pulsion qui m’habite de sans cesse créer de nouveaux objets, ainsi que sur les rapports que j’entretiens avec mes objets d’art et les objets manufacturés qui nous entourent. Elle s’est construite peu à peu, dans un aller-retour entre production à l’atelier et retour critique. Au cours des deux dernières années, j’ai cherché, par l’entremise de sculptures et d’œuvres installatives, à comprendre ma fascination pour le fait de vivre dans une société dont l’activité fondamentale semble être une transformation constante d’énergie et de matière. Dans un premier temps, j’y dresse plusieurs constats relatifs à mon positionnement comme artiste face aux différents discours sur l’art. Essentiellement, je développe l’idée que je n’ai pas besoin de régler le cas de l’art, d’un point de vue théorique, pour faire de l’art. Dans la seconde partie, je réfléchis sur différentes caractéristiques de ma démarche : le fait que je cherche à créer des objets qui s’insèrent et se comportent dans le réel comme des anomalies, que ma démarche est perméable à tout ce qui constitue mon expérience de vie, ou encore que j’active en manipulant de façon intuitive du matériel chargé de significations multiples. Dans un troisième temps, je présente la nature de l’imaginaire qui m’habite et explique la façon dont ce dernier influence ma manière de faire de l’art et la morphologie de mes œuvres. Vient ensuite un chapitre dans lequel je me penche sur mon passé de designer industriel et de musicien, dans lequel j’illustre la façon dont ces deux expériences de création, bien que fort différentes de l’art contemporain, influencent ma pratique actuelle. Finalement, je ferai une représentation schématisée des concepts, des méthodes et des dynamiques à l’œuvre dans mon processus créatif. Cette multitude de regards différents sur ma pratique permettra de faire ressortir, tout au long de ce mémoire, que ma démarche est nourrie par une série de tensions que je cherche à réconcilier, sans vraiment y parvenir, et que c’est cette impossibilité qui me pousse constamment à créer des nouvelles œuvres. Bien que mes œuvres soient souvent interprétées comme des commentaires sur l’actualité, le présent mémoire n’a pas comme point central l’actualité, mais bien mon travail de création, la façon dont il fonctionne, ce à quoi il est relié, etc. Je ne me pose pas la question « pourquoi et comment transformons-nous l’énergie et la matière? », mais plutôt « comment puis-je transformer le monde en transformant autrement l’énergie et la matière? »

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le lessivage des nitrates, la contamination de la nappe phréatique et l’eutrophisation des cours d’eau figurent parmi les enjeux planétaires qui affectent la durabilité de l’agriculture et des ressources naturelles. Ce mémoire présente le développement d’une première génération d’un nouveau senseur électrochimique pour le dosage de précisions des nitrates. Celui-ci est basé sur la spectroscopie d’impédance électrochimique d’une membrane polymérique sélective aux ions. Grâce à cette approche, un senseur compact et abordable a été produit. Par son utilisation en solutions aqueuses et en substrats de croissance saturés, il a été montré que le senseur permettait de quantifier des ajouts contrôlés de nitrates allant de 0,6 ppm à 60 ppm. La mise en application en substrat de croissance a pu être étudiée en comparaison avec des méthodes certifiées ISO 17025 visant l’analyse de ces substrats. Le senseur a aussi montré une grande versatilité par son utilisation sur divers appareils de mesure d’impédance. En plus, il a démontré une stabilité possible suite à une implantation d’un mois directement en substrat de croissance sous les variables environnementales d’une pépinière forestière. Par l’étude du spectre d’impédance du senseur en solutions pures de différentes concentrations, il a aussi été possible de proposer le circuit électrique équivalent du système, qui met en évidence deux parcours compétitifs du courant, un au coeur de la membrane et un deuxième en solution. Les résultats de ces travaux sont au coeur de deux publications scientifiques dont le manuscrit est inclus à ce mémoire. Pour finir cette étude, des suggestions seront faites pour guider l’amélioration du senseur par le développement d’une deuxième génération de celui-ci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire décrit, en premier lieu, l’analyse géotechnique et géomorphologique du glissement de 1971 à Casselman, Ontario. Les caractéristiques morphologiques identifiées à l’intérieur de la cicatrice confirment qu’il s’agit d’un étalement. Le sol impliqué est une argile sensible de la mer de Champlain, normalement à légèrement surconsolidée (OCR entre 1,0 et 1,2) dont les indices de liquidité varient entre 1,0 et 2,0. La résistance au cisaillement intacte mesurée au scissomètre de chantier varie entre 50 kPa et 87 kPa. L’argile adopte un comportement anti-écrouissage (perte de 40 % de la résistance en pic) lorsque soumise à des essais de cisaillement non-drainé. Une surface de rupture quasi-horizontale à deux niveaux principaux a été identifiée à partir des sondages au piézocône réalisés à l’intérieur de la cicatrice. Les coefficients de sécurité élevés obtenus à partir de méthodes à l’équilibre limite démontrent que la rétrogression ne peut être expliquée par des méthodes d’analyses conventionnelles. La deuxième partie du mémoire présente l’application numérique du principe de rupture progressive aux étalements de Casselman (1971) et de Saint-Luc-de-Vincennes (1986). Une étude paramétrique a été réalisée afin d’évaluer l’influence de la fragilité du comportement après la résistance en pic du sol, reliée dans l’étude à une épaisseur de bande de cisaillement, ainsi que de la résistance à grande déformation, sur l’initiation et la rétrogression résultant du processus de rupture progressive. Les résultats démontrent que la résistance à grande déformation a très peu d’influence sur l’initiation du processus de rupture progressive, qui est principalement influencé par la fragilité du comportement du sol. Il a aussi été observé que la rétrogression était majoritairement influencée par la résistance à grande déformation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce projet avait pour objectif d’évaluer l’efficacité de certains sels utilisés comme agents de conservation dans l’industrie agroalimentaire et pharmaceutique pour lutter contre la maladie des taches et des nervures noires de la laitue (Lactuca sativa), causée par la bactérie Pseudomonas cichorii. L’étude a permis 1) de déterminer les concentrations minimales inhibitrices (MICs) des sels et de mélanges de ces sels envers des souches virulentes de P. cichorii et 2) d’évaluer l’effet de ces sels et mélanges de sels, appliqués à des concentrations avoisinant les MICs, sur le développement de la maladie. Les résultats obtenus montrent une réduction significative, bien que partielle et variable, de la gravité des symptômes de maladie suite à l’application de NaHCO3 (160 mM), de AlCl3 (4 mM) et des mélanges Na2S2O5 + CaCl2 (12 mM), Na2S2O5 + AlCl3 (4 mM) et Na2S2O5 + NaHCO3 (125 mM). À la lumière des résultats obtenus, il est clair que les sels testés dans le cadre de cette étude ne permettent pas une réduction suffisamment marquée de la maladie pour envisager la commercialisation des plants. On ne peut toutefois exclure la possibilité que ces sels puissent permettre une réduction suffisante de la maladie des taches et des nervures noires lorsqu’utilisés avec des méthodes complémentaires de lutte dans un programme de lutte intégrée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre dedecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail desdecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité desdecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre dedecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction desdecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité desdecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération desdecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement desdecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse desdecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité desdecins. Cela a une importante implication sur le recrutement desdecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges desdecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu desdecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance desdecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité desdecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre dedecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire présente 2 types de méthodes pour effectuer la réorientation d’un robot sériel en chute libre en utilisant les mouvements internes de celui-ci. Ces mouvements sont prescrits à partir d’algorithmes de planification de trajectoire basés sur le modèle dynamique du robot. La première méthode tente de réorienter le robot en appliquant une technique d’optimisation locale fonctionnant avec une fonction potentielle décrivant l’orientation du système, et la deuxième méthode applique des fonctions sinusoïdales aux articulations pour réorienter le robot. Pour tester les performances des méthodes en simulation, on tente de réorienter le robot pour une configuration initiale et finale identiques où toutes les membrures sont alignées mais avec le robot ayant complété une rotation de 180 degrés sur lui-même. Afin de comparer les résultats obtenus avec la réalité, un prototype de robot sériel plan flottant possédant trois membrures et deux liaisons rotoïdes est construit. Les expérimentations effectuées montrent que le prototype est capable d’atteindre les réorientations prescrites si peu de perturbations extérieures sont présentes et ce, même si le contrôle de l’orientation est effectué en boucle ouverte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis que la haute énantiopureté est nécessaire dans l’industrie pharmaceutique, les études visant à découvrir les mécanismes pour l’hydrogénation énantiosélective de cétones ou céto-esters sur les surfaces, et à rechercher de nouveaux et plus performants catalyseurs asymétriques, sont d’une grande importance. La microscopie à effet tunnel (STM), la spectroscopie infrarouge de réflexion-absorption, la spectroscopie de désorption à température programmée et la spectrométrie de photoélectrons induits par rayons X sont des méthodes performantes facilitant la compréhension des mécanismes de réaction. En plus de nous permettre de comprendre les mécanismes réactionnels, les études peuvent fournir des informations sur la dynamique des réactions en catalyse hétérogène ainsi que sur le développement de la théorie de la fonctionnelle de la densité (DFT) afin de calculer des interactions faibles dans les processus de surface. D’autres parts, les calculs DFT fournissent une aide essentielle à l’interprétation des données de STM et spectroscopie de surface. Dans cette thèse, certains cétones et céto-esters sur la surface de platine sont étudiées par les techniques sophistiquées mentionnées ci-dessus. Mes études démontrent que la combinaison de l’utilisation de la spectroscopie de routine, des nanotechnologies et de nombreux calculs élaborés, est une méthode efficace pour étudier les réactions à la surface car ces techniques explorent les différents aspects de la surface ainsi que s’entraident mutuellement lors de certaines interprétations.