42 resultados para Méthode des résidus pondérés
em Université Laval Mémoires et thèses électroniques
Resumo:
L’usine Niobec traite un minerai de pyrochlore porteur de niobium pour produire le ferro-niobium utilisé pour la fabrication d’acier. L’usine récupère environ 60% des minéraux de niobium. Les rejets contiennent du niobium et d’autres espèces minérales potentiellement valorisables. Les travaux présentés dans ce mémoire visent à identifier les espèces pouvant être valorisées dans les rejets de Niobec dont les plus prometteurs sont les éléments de terres rares, les minéraux de niobium et l’apatite. Dans le but de concentrer l’apatite des rejets de l’usine, une analyse chimique des rejets a permis de cibler comme flux d’intérêt les particules de dimension supérieure à 0,038mm dans le concentré de carbonates et les rejets du circuit de flottation du pyrochlore. La méthode utilisée pour valoriser les phosphates est la flottation. Les meilleurs résultats ont été obtenus par flottation directe des minéraux de phosphate du concentré de carbonates dans les rejets de Niobec. Le collecteur utilisé est un acide gras de type AERO 6493 avec un mélange d’amidon de tapioca et de NaOH utilisé comme déprimant pour les carbonates. Ces conditions ont permis de produire un concentré d’apatite titrant entre 30 à 32 % P2O5 avec un rendement de 50 à 60% du P2O5 contenue dans le concentré de carbonates. La teneur en MgO dans le concentré d’apatite est comprise entre 3 et 4% comparativement à 15% dans l’alimentation. Puisque le MgO est principalement associé à la dolomie ces résultats confirment une bonne dépression de ce minéral lors de la flottation de l’apatite du concentré de carbonates. La flottation de l’apatite à partir des rejets du pyrochlore n’a pas permis d’obtenir un concentré de valeur commerciale. Le meilleur résultat obtenu lors des essais de flottation sur les rejets pyrochlore correspond à une teneur de 14%avec un rendement de 53% P2O5. Les résultats obtenus montrent toutefois le potentiel associé à la récupération des minéraux de phosphates et justifient la poursuite des travaux, cette fois, moins exploratoires que les travaux rapportés dans ce mémoire.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
Le virus de l’immunodéficience humaine de type 1 provoque une infection définitive de l’organisme. Il entraine une déroute du système immunitaire depuis la primo-infection occasionnant ainsi, une déplétion massive des lymphocytes T CD4 (LTCD4). Le DCIR (Dendritic Cell Immuno Receptor) qui constitue le socle de notre travail, est une lectine de type C. Il est exprimé sur les cellules myéloïdes comme les cellules dendritiques mais aussi sur les cellules B, les LTCD4 infectés par le VIH-1 et apoptotiques ainsi que sur les LTCD4 polarisés en Th17. Il constitue un facteur d’attachement et d’internalisation du virus dans la cellule dendritique. Il permet son transfert aux LTCD4 dans les organes lymphoïdes secondaires, jouant ainsi un rôle dans la pathogenèse associée au VIH-1. En plus, le DCIR assure la régulation négative de la réponse cellulaire, favorisant ainsi la propagation et la réplication du virus au détriment de la réponse immunitaire contre le VIH-1. Le rôle que joue le DCIR est dépendant du sentier de signalisation induit à la suite de la phosphorylation des résidus tyrosine de son motif ITIM. Le blocage de DCIR par des inhibiteurs spécifiques pourrait empêcher cette phosphorylation et réduire l’attachement, l’internalisation et le transfert du virus. Nous avons montré que la stimulation des cellules dendritiques et des LTCD4 polarisés en Th17 avec un anticorps anti-DCIR générait un patron de phosphorylation des résidus tyrosine des protéines. De plus, les inhibiteurs de la portion extracellulaire du DCIR inhibent cette activation. Afin de développer une mesure plus directe de l’interaction de DCIR avec ces inhibiteurs, nous avons purifié le DCIR à partir des cellules Raji-CD4-DCIR. En conclusion, ce projet de maitrise montre que l’activation directe de DCIR peut être renversée par des inhibiteurs montrant ainsi leurs spécificités. De plus, le profil d’activation de DCIR est spécifique pour chaque type cellulaire. A long terme, l’inactivation de DCIR par des inhibiteurs efficaces pourrait être une stratégie thérapeutique capable d’inhiber l’infection et de préserver une réponse immunitaire efficace.
Resumo:
La carbonatation minérale dans les résidus miniers est un moyen sûr et permanent de séquestrer le CO2 atmosphérique. C’est un processus naturel et passif qui ne nécessite aucun traitement particulier et donc avantageux d’un point de vue économique. Bien que la quantité de CO2 qu’il soit possible de séquestrer selon ce processus est faible à l’échelle globale, dans le cadre d’un marché du carbone, les entreprises minières pourraient obtenir des crédits et ainsi revaloriser leurs résidus. À l’heure actuelle, il y a peu d’informations pour quantifier le potentiel de séquestration du CO2 de façon naturelle et passive dans les piles de résidus miniers. Il est donc nécessaire d’étudier le phénomène pour comprendre comment évolue la réaction à travers le temps et estimer la quantité de CO2 qui peut être séquestrée naturellement dans les piles de résidus. Plusieurs travaux de recherche se sont intéressés aux résidus miniers de Thetford Mines (Québec, Canada), avec une approche principalement expérimentale en laboratoire. Ces travaux ont permis d’améliorer la compréhension du processus de carbonatation, mais ils nécessitent une validation à plus grande échelle sous des conditions atmosphériques réelles. L’objectif général de cette étude est de quantifier le processus de carbonatation minérale des résidus miniers sous des conditions naturelles, afin d’estimer la quantité de CO2 pouvant être piégée par ce processus. La méthodologie utilisée repose sur la construction de deux parcelles expérimentales de résidus miniers situées dans l’enceinte de la mine Black Lake (Thetford Mines). Les résidus miniers sont principalement constitués de grains et de fibres de chrysotile et lizardite mal triés, avec de petites quantités d’antigorite, de brucite et de magnétite. Des observations spatiales et temporelles ont été effectuées dans les parcelles concernant la composition et la pression des gaz, la température des résidus, la teneur en eau volumique, la composition minérale des résidus ainsi que la chimie de l’eau des précipitations et des lixiviats provenant des parcelles. Ces travaux ont permis d’observer un appauvrissement notable du CO2 dans les gaz des parcelles (< 50 ppm) ainsi que la précipitation d’hydromagnésite dans les résidus, ce qui suggère que la carbonatation minérale naturelle et passive est un processus potentiellement important dans les résidus miniers. Après 4 ans d’observations, le taux de séquestration du CO2 dans les parcelles expérimentales a été estimé entre 3,5 et 4 kg/m3/an. Ces observations ont permis de développer un modèle conceptuel de la carbonatation minérale naturelle et passive dans les parcelles expérimentales. Dans ce modèle conceptuel, le CO2 atmosphérique (~ 400 ppm) se dissout dans l’eau hygroscopique contenue dans les parcelles, où l’altération des silicates de magnésium forme des carbonates de magnésium. La saturation en eau dans les cellules est relativement stable dans le temps et varie entre 0,4 et 0,65, ce qui est plus élevé que les valeurs de saturation optimales proposées dans la littérature, réduisant ainsi le transport de CO2 dans la zone non saturée. Les concentrations de CO2 en phase gazeuse, ainsi que des mesures de la vitesse d’écoulement du gaz dans les cellules suggèrent que la réaction est plus active près de la surface et que la diffusion du CO2 est le mécanisme de transport dominant dans les résidus. Un modèle numérique a été utilisé pour simuler ces processus couplés et valider le modèle conceptuel avec les observations de terrain. Le modèle de transport réactif multiphase et multicomposant MIN3P a été utilisé pour réaliser des simulations en 1D qui comprennent l’infiltration d’eau à travers le milieu partiellement saturé, la diffusion du gaz, et le transport de masse réactif par advection et dispersion. Même si les écoulements et le contenu du lixivat simulés sont assez proches des observations de terrain, le taux de séquestration simulé est 22 fois plus faible que celui mesuré. Dans les simulations, les carbonates précipitent principalement dans la partie supérieure de la parcelle, près de la surface, alors qu’ils ont été observés dans toute la parcelle. Cette différence importante pourrait être expliquée par un apport insuffisant de CO2 dans la parcelle, qui serait le facteur limitant la carbonatation. En effet, l’advection des gaz n’a pas été considérée dans les simulations et seule la diffusion moléculaire a été simulée. En effet, la mobilité des gaz engendrée par les fluctuations de pression barométrique et l’infiltration de l’eau, ainsi que l’effet du vent doivent jouer un rôle conséquent pour alimenter les parcelles en CO2.
Resumo:
Le régime d’assurance emploi canadien a connu plusieurs réformes dont la dernière en date est celle de 2012 considérée comme l’une des plus contraignantes. Les travailleurs saisonniers seraient une des catégories de travailleurs les plus touchés par la réforme au regard des nouvelles conditions du régime et de la fréquence de recours de ces travailleurs aux prestations. Dans ce mémoire, nous utilisons un modèle de régression par la méthode des différences en différences afin de simuler l’effet positif de cette réforme sur la mobilité des travailleurs saisonniers vers les emplois permanents. Les résultats obtenus suggèrent que cette politique publique a un effet positif sur la mobilité des travailleurs saisonniers vers les emplois permanents même si cet impact semble être faible étant donné la courte période de l’étude.
Resumo:
Ce travail présente une modélisation rapide d’ordre élévé capable de modéliser une configuration rotorique en cage complète ou en grille, de reproduire les courants de barre et tenir compte des harmoniques d’espace. Le modèle utilise une approche combinée d’éléments finis avec les circuits-couplés. En effet, le calcul des inductances est réalisé avec les éléments finis, ce qui confère une précision avancée au modèle. Cette méthode offre un gain important en temps de calcul sur les éléments finis pour des simulations transitoires. Deux outils de simulation sont développés, un dans le domaine du temps pour des résolutions dynamiques et un autre dans le domaine des phaseurs dont une application sur des tests de réponse en fréquence à l’arrêt (SSFR) est également présentée. La méthode de construction du modèle est décrite en détail de même que la procédure de modélisation de la cage du rotor. Le modèle est validé par l’étude de machines synchrones: une machine de laboratoire de 5.4 KVA et un grand alternateur de 109 MVA dont les mesures expérimentales sont comparées aux résultats de simulation du modèle pour des essais tels que des tests à vide, des courts-circuits triphasés, biphasés et un test en charge.
Resumo:
La réponse mécanique d’une cellule à une force externe permet d’inférer sa structure et fonction. Les pinces optiques s’avèrent une approche particulièrement attrayante pour la manipulation et caractérisation biophysique sophistiquée des cellules de façon non invasive. Cette thèse explore l’utilisation de trois types de pinces optiques couramment utilisées : 1) statiques (static), 2) à exposition partagée (time-sharing) et 3) oscillantes (oscillating). L’utilisation d’un code basé sur la méthode des éléments finis en trois dimensions (3DFEM) nous permet de modéliser ces trois types de piégeage optique afin d’extraire les propriétés mécaniques cellulaires à partir des expériences. La combinaison des pinces optiques avec la mécanique des cellules requiert des compétences interdisciplinaires. Une revue des approches expérimentales sur le piégeage optique et les tests unicellulaires est présentée. Les bases théoriques liant l’interaction entre la force radiative optique et la réponse mécanique de la cellule aussi. Pour la première fois, une simulation adaptée (3DFEM) incluant la diffusion lumineuse et la distribution du stress radiatif permet de prédire la déformation d’une cellule biconcave –analogue aux globules rouges—dans un piège statique double (static dual-trap). À l’équilibre, on observe que la déformation finale est donnée par l’espacement entre les deux faisceaux lasers: la cellule peut être étirée ou même comprimée. L’exposition partagée (time-sharing) est la technique qui permet de maintenir plusieurs sites de piégeage simultanément à partir du même faisceau laser. Notre analyse quantitative montre que, même oscillantes, la force optique et la déformation sont omniprésentes dans la cellule : la déformation viscoélastique et la dissipation de l’énergie sont analysées. Une autre cellule-type, la tige cubique, est étudiée : cela nous permet d’élucider de nouvelles propriétés sur la symétrie de la réponse mécanique. Enfin, l’analyse de la déformation résolue en temps dans un piége statique ou à exposition partagée montre que la déformation dépend simultanément de la viscoélasticité, la force externe et sa forme tridimensionnelle. La technique à force oscillante (oscillating tweezers) montre toutefois un décalage temporel, entre la force et la déformation, indépendant de la forme 3D; cette approche donnerait directement accès au tenseur viscoélastique complexe de la cellule.
Resumo:
INTRODUCTION : La dyscalculie est un déficit spécifique d’apprentissage des mathématiques dont la prévalence s’étend de 1 à 10 %. La dyscalculie a des répercussions sur la scolarité et sur la vie quotidienne pouvant persister jusqu’à l’âge adulte et ainsi nuire à l’insertion professionnelle. Il existe actuellement deux grandes hypothèses cognitives pour expliquer la dyscalculie développementale : l’hypothèse d’un trouble cognitif général tel qu’un trouble de la mémoire de travail et l’hypothèse d’un trouble cognitif spécifiquement numérique. OBJECTIFS : L’objectif général de cette thèse doctorale est d’évaluer les déficits cognitifs numériques impliqués dans la dyscalculie développementale chez des enfants franco-québécois âgés entre huit et neuf ans, scolarisés en 3e année du primaire (1ère année du 2e cycle). Dans un premier temps, la thèse vise à recenser les écrits (étude 1) portant sur les déficits cognitifs numériques impliqués dans la dyscalculie. Ensuite, elle a pour objectifs spécifiques l’étude des capacités de traitement des quantités non symboliques (étude 2) et symboliques arabe et orale (étude 3), ainsi que de l’intégrité des représentations numériques sous forme de ligne numérique (étude 4). MÉTHODE : Des études comparatives d’un groupe d’enfants en difficulté mathématique (groupe dyscalculique) et d’un groupe d’enfants sans difficulté mathématique ont été réalisées. Des tâches faisant intervenir le code analogique (i.e. ensemble de points), le code arabe, le code oral, et la ligne numérique des nombres ont été administrées dans le but de mesurer les capacités de traitement, de production, et de reconnaissance des nombres. RÉSULTATS : La recension de la littérature permet d’établir qu’il n’existe aucun consensus quant aux déficits cognitifs numériques impliqués dans la dyscalculie (étude 1). Les résultats des études expérimentales montrent que les enfants dyscalculiques présentent des difficultés à traiter avec précision les petites quantités analogiques (étude 2) mais des habiletés préservées pour traiter approximativement les grandes quantités (étude 4). Ils présentent aussi des difficultés à traiter les nombres symboliques (arabe, oral) qui se manifestent par des atteintes de reconnaissance, de traitement et de production des nombres (études 3 et 4). Leur acuité numérique est également plus faible lorsqu’ils doivent traiter cognitivement les nombres symboliques sur une ligne numérique (étude 4). CONCLUSION : Les enfants dyscalculiques présentent un déficit du sens du nombre au niveau du traitement des petites quantités par le Système Numérique Précis, ainsi qu’un déficit de traitement des nombres symboliques. Ce déficit se manifeste à la fois par un déficit de reconnaissance, un déficit d’accès au sens du nombre via les codes symboliques et une acuité plus faible de la ligne numérique lorsqu’elle implique les nombres symboliques.
Resumo:
La plupart des processus cellulaires et biologiques reposent, à un certain niveau, sur des interactions protéine-protéine (IPP). Leur manipulation avec des composés chimiques démontre un grand potentiel pour la découverte de nouveaux médicaments. Malgré la demande toujours croissante en molécules capables d’interrompre sélectivement des IPP, le développement d’inhibiteurs d’IPP est fortement limité par la grande taille de la surface d’interaction. En considérant la nature de cette surface, la capacité à mimer des structures secondaires de protéines est très importante pour lier une protéine et inhiber une IPP. Avec leurs grandes capacités peptidomimétiques et leurs propriétés pharmacologiques intéressan-tes, les peptides cycliques sont des prototypes moléculaires de choix pour découvrir des ligands de protéines et développer de nouveaux inhibiteurs d’IPP. Afin d’exploiter pleinement la grande diversité accessible avec les peptides cycliques, l’approche combinatoire «one-bead-one-compound» (OBOC) est l’approche la plus accessible et puissante. Cependant, l’utilisation des peptides cycliques dans les chimiothèques OBOC est limitée par les difficultés à séquencer les composés actifs après le criblage. Sans amine libre en N-terminal, la dégradation d’Edman et la spectrométrie de masse en tandem (MS/MS) ne peuvent pas être utilisées. À cet égard, nous avons développé de nouvelles approches par ouverture de cycle pour préparer et décoder des chimiothèques OBOC de peptides cycliques. Notre stratégie était d’introduire un résidu sensible dans le macrocycle et comme ancrage pour permettre la linéarisation des peptides et leur largage des billes pour le séquençage par MS/MS. Tout d’abord, des résidus sensibles aux nucléophiles, aux ultraviolets ou au bromure de cyanogène ont été introduits dans un peptide cyclique et leurs rendements de clivage évalués. Ensuite, les résidus les plus prometteurs ont été utilisés dans la conception et le développement d’approches en tandem ouverture de cycle / clivage pour le décodage de chimiothèques OBOC de peptides cycliques. Dans la première approche, une méthionine a été introduite dans le macrocycle comme ancrage pour simultanément permettre l’ouverture du cycle et le clivage des billes par traitement au bromure de cyanogène. Dans la seconde approche, un résidu photosensible a été utilisé dans le macrocycle comme ancrage pour permettre l’ouverture du cycle et le clivage suite à une irradiation aux ultraviolets. Le peptide linéaire généré par ces approches peut alors être efficacement séquencé par MS/MS. Enfin, une chimiothèque OBOC a été préparée et criblée la protéine HIV-1 Nef pour identifier des ligands sélectifs. Le développement de ces méthodologies permttra l’utilisation de composés macrocycliques dans les chimiothèques OBOC et constitue une contribution importante en chimie médicinale pour la découverte de ligands de protéines et le développement d’inhibiteurs d’IPP.
Resumo:
Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.
Resumo:
Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.
Resumo:
La modélisation de la cryolite, utilisée dans la fabrication de l’aluminium, implique plusieurs défis, notament la présence de discontinuités dans la solution et l’inclusion de la difference de densité entre les phases solide et liquide. Pour surmonter ces défis, plusieurs éléments novateurs ont été développés dans cette thèse. En premier lieu, le problème du changement de phase, communément appelé problème de Stefan, a été résolu en deux dimensions en utilisant la méthode des éléments finis étendue. Une formulation utilisant un multiplicateur de Lagrange stable spécialement développée et une interpolation enrichie a été utilisée pour imposer la température de fusion à l’interface. La vitesse de l’interface est déterminée par le saut dans le flux de chaleur à travers l’interface et a été calculée en utilisant la solution du multiplicateur de Lagrange. En second lieu, les effets convectifs ont été inclus par la résolution des équations de Stokes dans la phase liquide en utilisant la méthode des éléments finis étendue aussi. Troisièmement, le changement de densité entre les phases solide et liquide, généralement négligé dans la littérature, a été pris en compte par l’ajout d’une condition aux limites de vitesse non nulle à l’interface solide-liquide pour respecter la conservation de la masse dans le système. Des problèmes analytiques et numériques ont été résolus pour valider les divers composants du modèle et le système d’équations couplés. Les solutions aux problèmes numériques ont été comparées aux solutions obtenues avec l’algorithme de déplacement de maillage de Comsol. Ces comparaisons démontrent que le modèle par éléments finis étendue reproduit correctement le problème de changement phase avec densités variables.
Resumo:
BubR1 est une protéine importante dans le point de contrôle de la mitose pour la stabilisation des interactions entre kinétochores et microtubules (KT-MT). Ces fonctions protègent de la ségrégation anormale des chromosomes et de l’instabilité du génome. BubR1 possède des sites de phosphorylation mitotique hautement conservés dans le domaine régulant l’attachement des kinétochores (KARD), où S676 et S670 sont phosphorylées respectivement par la kinase polo-like 1 (Plk1) et par la kinase cycline-dépendante 1 (Cdk1). Ces sites de phosphorylation sont essentiels pour le recrutement de la phosphatase PP2A-B56, qui stabilise les interactions KT-MT. Nos résultats montrent que la délétion entière ou des mutations qui déstabilisent le domaine pseudokinase de BubR1, causent la perte de phosphorylation des résidus S676 et S670 en mitose. Notre hypothèse est que le domaine pseudokinase de BubR1 peut jouer un rôle essentiel dans la régulation de la phosphorylation du KARD et donc dans la stabilisation des interactions KT-MT.
Resumo:
Méthodologie: Modèle de régression quantile de variable instrumentale pour données de Panel utilisant la fonction de production partielle
Resumo:
Les protéines membranaires intégrales jouent un rôle indispensable dans la survie des cellules et 20 à 30% des cadres de lectures ouverts codent pour cette classe de protéines. La majorité des protéines membranaires se trouvant sur la Protein Data Bank n’ont pas une orientation et une insertion connue. L’orientation, l’insertion et la conformation que les protéines membranaires ont lorsqu’elles interagissent avec une bicouche lipidique sont importantes pour la compréhension de leur fonction, mais ce sont des caractéristiques difficiles à obtenir par des méthodes expérimentales. Des méthodes computationnelles peuvent réduire le temps et le coût de l’identification des caractéristiques des protéines membranaires. Dans le cadre de ce projet de maîtrise, nous proposons une nouvelle méthode computationnelle qui prédit l’orientation et l’insertion d’une protéine dans une membrane. La méthode est basée sur les potentiels de force moyenne de l’insertion membranaire des chaînes latérales des acides aminés dans une membrane modèle composèe de dioléoylphosphatidylcholine.