46 resultados para Revenu--Répartition--Modèles mathématiques
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
Le fromage Mozzarella entre dans la composition de plusieurs mets populaires d’Amérique du Nord. L’aptitude de ce fromage à être râpé et ses propriétés caractéristiques de cuisson en font un ingrédient idéal. Ces qualités sont attribuées principalement aux propriétés physiques particulières de ce fromage sous certaines conditions de cisaillement et de température. Le but de ce projet était d’évaluer l’impact de différentes stratégies couramment mises en oeuvre dans l’industrie fromagère sur la composition, la microstructure et les propriétés physiques du fromage. Diverses stratégies ont été étudiées : les conditions de filage du caillé lors du procédé de « pasta filata », l’addition de protéines sériques dénaturées, le contrôle de la minéralisation et le vieillissement du fromage. Les résultats ont démontré que le contrôle de l’intensité mécanique et thermique fournie lors du filage permettait respectivement de réduire les pertes de solides et d’améliorer la répartition de la phase aqueuse dans la matrice fromagère. L’aptitude au râpage du fromage peut être optimisée en combinant l’utilisation de plusieurs stratégies dont la réduction du calcium colloïdal, un temps de vieillissement adéquat et un râpage à basse température. Par ailleurs, des changements aux facteurs mentionnés précédemment sont apportés lors de l’ajout de protéines sériques dénaturées, ces dernières ayant un impact sur la composition et la structure du fromage. Des modèles prédictifs de l’aptitude au râpage ont été développés en sélectionnant uniquement les descripteurs de composition et de texture pertinents. La perception sensorielle du fromage cuit sur pizza et les propriétés physiques du fromage fondu ont été considérablement influencées par l’évolution physico-chimique du fromage au cours du vieillissement. L’utilisation d’une nouvelle approche pour la caractérisation des propriétés rhéologiques du fromage fondu sous fortes contraintes a permis d’établir de bonnes relations avec les descripteurs sensoriels de texture. Ce travail a permis de valider l’hypothèse que l’utilisation d’une ou plusieurs stratégies simples et accessibles pouvait être mise de l’avant afin d’optimiser les propriétés physiques du fromage Mozzarella. Cela contribue à une meilleure compréhension des facteurs pouvant être contrôlés afin de développer des fromages avec des attributs spécifiques, lorsqu’utilisés comme ingrédient.
Resumo:
L’inflammation du système nerveux central (SNC), appelée neuroinflammation, est un aspect inséparable des maladies neurodégénératives chroniques comme la sclérose en plaques (SEP) et la maladie d’Alzheimer (MA). La caractérisation de la signature moléculaire spécifique à chaque population cellulaire dans des pathologies distinctes va aboutir à la compréhension et donc au contrôle de la neuroinflammation. Le présent ouvrage a pour but de mieux comprendre les mécanismes d’action de deux types cellulaires myéloïdes, la microglie et les neutrophiles, au cours des affections neuroinflammatoires du SNC. Ainsi, le premier objectif a été de comprendre le rôle des cytokines IL-36 dans la neuroinflammation établie au cours de l’encéphalomyélite auto-immune expérimentale (EAE). Dans une seconde partie, l’objectif a été d’explorer l’action du GPR84, un récepteur couplé à la protéine G spécifique à la microglie dans le SNC, lors de l’altération des fonctions cérébrales dans un modèle de souris transgénique de la MA. Nos résultats démontrent que la voie de signalisation IL-36/IL36R est augmentée dans trois modèles différents de l’EAE, mais ne contribue pas au développement ni à la progression de la pathologie. En utilisant l’approche de cytométrie en flux nous identifions les neutrophiles comme la source majeure de l’IL-36γ. De plus, nous démontrons que la microglie exprime l’IL-36R et sa stimulation par l’IL-36γ conduit à la production de cytokines pro-inflammatoires. Dans un second temps, nous caractérisons l’augmentation de l’expression du GPR84 par la microglie dans le modèle murin de la MA APP/PS1. Ainsi, le croisement de ces souris avec des souris déficientes en GPR84 diminue l’activation et le recrutement de la microglie autour des plaques d’amyloïde-β et accélère le déclin cognitif. Nos études impliquent le GPR84 comme un acteur important dans le maintien de l’homéostasie neuronale puisque son absence favorise la dégénérescence des dendrites dans le cerveau. Les résultats obtenus dans cette thèse apportent de nouveaux éléments qui peuvent contribuer au développement des thérapies qui ciblent les cellules myéloïdes dans diverses pathologies du SNC. Ces données ouvrent de nouvelles pistes pour élucider le rôle de l’IL-36γ dans des maladies neurodégénératives. Enfin, pour une première fois, nous présentons un modèle murin permettant d’identifier le(s) ligand(s) endogène(s) du GPR84, une cible thérapeutique potentielle pour la prévention et/ou le traitement de la MA.
Resumo:
Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.
Resumo:
La présente recherche vise à documenter les contradictions présentes dans le système d’enseignement de la résolution de problèmes de 3 enseignants du troisième cycle du primaire ainsi que de 4 enseignants du premier cycle du secondaire. En effet, la résolution de problèmes fait partie du portrait de l’éducation des mathématiques depuis le début du vingtième siècle (Lajoie & Bednarz, 2012, 2014). Par contre, aujourd’hui les définitions et les conseils fournis aux enseignants pour les aider à planifier l’enseignement de la résolution de problèmes, laisse place à plusieurs interprétations. Nous nous sommes demandés en quoi consistait l’enseignement de la résolution de problèmes pour les enseignants. Pour y parvenir, nous avons adapté le cadre méthodologique proposé pour la mise en place d’un laboratoire du changement (Virkkunen & Newnham, 2013). C’est dans ce contexte que nous avons planifié quatre séminaires pour rencontrer des enseignants du primaire et du secondaire. Notre analyse a mené à l’identification de contradictions dans le système d’activité d’enseignement de la résolution de problèmes. Ces contradictions sont : à la communication entre les enseignants; à la relation entre les enseignants et les parents; à l’implantation de la culture mathématique; et à la mise en place de règles pour favoriser le travail d’équipes en classe.
Resumo:
Méthodologie:Cadre conceptuel: Principal-agent
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.
Resumo:
Les changements climatiques récents ont mené à l’expansion de la répartition de plusieurs espèces méridionales, mais ont aussi causé l’extinction locale d’espèces se retrouvant à la limite de leur tolérance environnementale. Ces populations en expansion peuvent favoriser différentes stratégies d’histoire de vie en répondant à différents facteurs limitants. Dans cette thèse, je vise à déterminer et quantifier l’effet du climat et des évènements extrêmes sur le cycle de vie complet d’une espèce en expansion (le dindon sauvage) pour comprendre les changements au niveau populationnel ainsi que les mécanismes impliqués dans l’expansion de la distribution d’une espèce. J’ai défini les évènements extrêmes de pluie, d’épaisseur de neige au sol et de température, comme un évènement dont la fréquence est plus rare que le 10e et 90e percentile. En utilisant l’approche « Measure-Understand-Predict » (MUP), j’ai tout d’abord suivi trois populations le long d’un gradient latitudinal de sévérité hivernale pour mesurer l’effet de variables météorologiques sur la dynamique des populations. La survie des dindons sauvages diminuait drastiquement lorsque l’accumulation de neige au sol dépassait 30 cm pour une période de 10 jours et diminuait également avec la température. Au printemps, la persistance de la neige affectait négativement le taux d’initiation de la nidification et l’augmentation de la pluie diminuait la survie des nids. Dans une deuxième étape, j’ai examiné l’impact des évènements climatiques extrêmes et des processus démographiques impliqués dans l’expansion du dindon, liés à la théorie des histoires de vie pour comprendre la relation entre la dynamique de ces populations en expansions avec le climat. J’ai démontré que la fréquence des évènements extrêmes hivernaux et, d’une façon moins importante, les évènements extrêmes estivaux limitaient l’expansion nordique des dindons sauvages. J’ai appuyé, à l’aide de données empiriques et de modélisation, les hypothèses de la théorie classique des invasions biologiques en montrant que les populations en établissement priorisaient les paramètres reproducteurs tandis que la survie adulte était le paramètre démographique affectant le plus la dynamique des populations bien établies. De plus, les populations les plus au nord étaient composées d’individus plus jeunes ayant une espérance de vie plus faible, mais avaient un potentiel d’accroissement plus élevé que les populations établies, comme le suggère cette théorie. Finalement, j’ai projeté l’impact de la récolte sur la dynamique des populations de même que le taux de croissance de cette espèce en utilisant les conditions climatiques futures projetées par les modèles de l’IPCC. Les populations en établissement avaient un taux de récolte potentiel plus élevé, mais la proportion de mâles adultes, possédant des caractéristiques recherchées par les chasseurs, diminuait plus rapidement que dans les populations établies. Dans le futur, la fréquence des évènements extrêmes de pluie devrait augmenter tandis que la fréquence des évènements extrêmes de température hivernale et d’accumulation de neige au sol devraient diminuer après 2060, limitant probablement l’expansion nordique du dindon sauvage jusqu’en 2100. Cette thèse améliore notre compréhension des effets météorologiques et du climat sur l’expansion de la répartition des espèces ainsi que les mécanismes démographiques impliqués, et nous a permis de prédire la probabilité de l’expansion nordique de la répartition du dindon sauvage en réponse aux changements climatiques.
Resumo:
Ce mémoire s’intéresse à l’étude du critère de validation croisée pour le choix des modèles relatifs aux petits domaines. L’étude est limitée aux modèles de petits domaines au niveau des unités. Le modèle de base des petits domaines est introduit par Battese, Harter et Fuller en 1988. C’est un modèle de régression linéaire mixte avec une ordonnée à l’origine aléatoire. Il se compose d’un certain nombre de paramètres : le paramètre β de la partie fixe, la composante aléatoire et les variances relatives à l’erreur résiduelle. Le modèle de Battese et al. est utilisé pour prédire, lors d’une enquête, la moyenne d’une variable d’intérêt y dans chaque petit domaine en utilisant une variable auxiliaire administrative x connue sur toute la population. La méthode d’estimation consiste à utiliser une distribution normale, pour modéliser la composante résiduelle du modèle. La considération d’une dépendance résiduelle générale, c’est-à-dire autre que la loi normale donne une méthodologie plus flexible. Cette généralisation conduit à une nouvelle classe de modèles échangeables. En effet, la généralisation se situe au niveau de la modélisation de la dépendance résiduelle qui peut être soit normale (c’est le cas du modèle de Battese et al.) ou non-normale. L’objectif est de déterminer les paramètres propres aux petits domaines avec le plus de précision possible. Cet enjeu est lié au choix de la bonne dépendance résiduelle à utiliser dans le modèle. Le critère de validation croisée sera étudié à cet effet.
Resumo:
Le bois est un matériau souvent utilisé par les architectes pour améliorer l’ambiance générale d’un espace, mais peu de recherches en présentent l’impact réel du matériau sur les impressions visuelles et les effets lumineux. Cette recherche étudie l’influence de la matérialité du bois par rapport à la création d’ambiances d’éclairage spécifiques dans l’architecture. Plus particulièrement, elle se concentre sur l’impact des panneaux décoratifs en bois à générer de la diversité lumineuse dans les espaces intérieurs et son potentiel à améliorer la satisfaction environnementale et l’efficacité énergétique. La recherche utilise des maquettes à l’échelle pour leur précision dans la représentation des ambiances lumineuses d’espaces éclairés naturellement ainsi que les technologies récentes d’imagerie digitale pour capturer et analyser les résultats. La méthodologie permet la comparaison entre les différents réglages des espaces intérieurs créés par une sélection des types de matérialités du bois: la réflectance (valeur), la couleur et la réflectivité. Les modalités spatiales sont comparées en présence d’ensoleillement direct et sous des conditions de ciel couvert puisque les modèles d’éclairage et les ambiances diffèrent considérablement. Les résultats permettent d’établir une discussion sur les ambiances en termes de brillance et de contraste, sur la couleur ainsi que la répartition des zones lumineuses dans l’espace. La recherche souligne le rôle des matérialités que peuvent prendre le bois pour optimiser la diversité lumineuse et la création d’ambiances visuellement confortables, ainsi que ses possibilités d’améliorer les ambiances architecturales par rapport à la lumière.
Resumo:
Cette thèse porte sur l’évolution des conditions de travail et d’emploi des infirmières d’une unité de soins intensifs d’un centre hospitalier pendant une dizaine d’années. Afin de suivre l’évolution des conditions de travail et d’emploi, l’auteur a d’abord participé à deux enquêtes quantitatives qui dressaient le portrait de l’évolution des facteurs psychosociaux du travail de ces infirmières. À la lumière des résultats de ces enquêtes, les infirmières débutantes estimaient bénéficier d’une charge de travail moins élevée et d’une plus grande autonomie que les plus expérimentées (Lapointe et collab., 2011). Par ses travaux qualitatifs menés à l’été 2013, l’auteur propose une explication aux résultats de ces enquêtes. Considérant les ressources limitées et l’imposition de contraintes budgétaires, les infirmières gestionnaires du projet ont été confrontées à des choix difficiles et elles ont dû procéder à certains arbitrages. En somme, elles ont tenté de concilier une conception humaniste des soins infirmiers avec les préceptes d’une idéologie gestionnaire. Il s’agissait d’une tentative de concilier les objectifs du projet (doter les infirmières de meilleures conditions de travail et d’emploi) avec des impératifs économiques (respecter le budget accordé par le Ministère de la santé et des services sociaux). Les plus jeunes infirmières ont bénéficié de ce projet de réorganisation du travail alors que les plus anciennes sont beaucoup plus critiques quant à sa valeur et ses impacts. En période d’austérité budgétaire, le budget de fonctionnement d’une unité de soins est insuffisant pour assurer des conditions de travail et d’emploi adéquates aux infirmières. Les équipes de travail infirmier risquent d’être déstabilisées et la qualité des soins est potentiellement menacée. Différentes tensions caractérisent les rapports sociaux du travail. Quant à la mise en oeuvre d’un modèle qui démocratise le travail, elle s’avère difficile. Pourtant, même en période de crise, une implantation même partielle de ce modèle de travail a permis de stabiliser les équipes de travail infirmier de cette unité de soins et d’améliorer les caractéristiques psychosociales de travail.
Resumo:
Dans ce travail, je propose que l’harmonie vocalique turque n’est plus un phénomène phonologique synchroniquement productif en cette langue. Ce qui est jugé harmonique n’est en fait que les traces d’un système harmonique ancien, traces qui se sont morphologisées. La démonstration est faite 1) en critiquant la littérature existante et en montrant les paradoxes auxquels elle mène et 2) en regardant du côté des travaux sur l’acquisition du langage, la perception du langage et le transfert linguistique. Il est montré que la seule raison de postuler l’harmonie vocalique turque tient à nos présupposés sur ce qu’est la morphologie d’une langue. Certains modèles phonologiques ne prenant pas en compte ces présupposés sont ensuite étudiés. Une formalisation utilisant le modèle morphologique Whole Word Morphology est finalement proposée.
Resumo:
En alimentation animale, l’utilisation adéquate des aliments nécessite une connaissance précise des valeurs nutritionnelles de leurs composantes, dont celle en acides aminés. Cependant, ces valeurs nutritionnelles dépendent de la teneur en acides aminés essentiels (AAE) totaux et de la digestibilité iléale standardisée (DIS) de ces AAE. Cette dernière varie en fonction de plusieurs facteurs, dont l’origine botanique des graines, les conditions de culture des récoltes, le stockage des aliments, les traitements physico-chimiques appliqués aux grains, les facteurs antinutritionnels (FANs) et les techniques expérimentales utilisées pour le dosage et l’estimation de la digestibilité des AAE. Une approche par méta-analyse a permis d’établir des modèles de prédiction de la valeur nutritionnelle en AAE des ingrédients à partir de leur composition chimique en considérant la protéine brute (PB), les AAE totaux, la teneur en fibre (Acid Detergent Fiber (ADF), Neutral Detergent Fiber (NDF) et Fibre Brute (FB)) et les FANs comme les inhibiteurs de la trypsine. En se référant à l’analyse graphique et statistique, les données ont été réparties en 4 groupes : 1) les tourteaux (tourteau de soja, colza/canola et coton); 2) les légumineuses (féveroles, lupins, pois et soja); 3) les céréales (blé, orge, avoine, sorgho et maïs); 4) les drêches de distilleries (blé et maïs). Ainsi, un modèle général ajusté en fonction du type d’ingrédients a été généré et les facteurs de variation de la digestibilité en AAE ont été identifiés. Pour les tourteaux, la DIS des AAE est réduite par un accroissement de la teneur en NDF, tandis que la DIS des AAE de la féverole, pois et lupin est principalement influencée par la teneur en PB et en FANs. Concernant les graines de soja la DIS des AAE est réduite par une hausse de la teneur en fibre (FB et ADF). Enfin pour les céréales et les sous- produit de céréales telles que les drêches, la PB et les fibres (ADF ou NDF) étaient les meilleurs nutriments pour prédire la DIS des AAE. Ces résultats démontrent que la DIS des AAE peut être prédite avec précision à partir de la composition chimique pour la plupart des ingrédients.
Resumo:
La construction dans l’Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l’utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol.
Resumo:
INTRODUCTION : La dyscalculie est un déficit spécifique d’apprentissage des mathématiques dont la prévalence s’étend de 1 à 10 %. La dyscalculie a des répercussions sur la scolarité et sur la vie quotidienne pouvant persister jusqu’à l’âge adulte et ainsi nuire à l’insertion professionnelle. Il existe actuellement deux grandes hypothèses cognitives pour expliquer la dyscalculie développementale : l’hypothèse d’un trouble cognitif général tel qu’un trouble de la mémoire de travail et l’hypothèse d’un trouble cognitif spécifiquement numérique. OBJECTIFS : L’objectif général de cette thèse doctorale est d’évaluer les déficits cognitifs numériques impliqués dans la dyscalculie développementale chez des enfants franco-québécois âgés entre huit et neuf ans, scolarisés en 3e année du primaire (1ère année du 2e cycle). Dans un premier temps, la thèse vise à recenser les écrits (étude 1) portant sur les déficits cognitifs numériques impliqués dans la dyscalculie. Ensuite, elle a pour objectifs spécifiques l’étude des capacités de traitement des quantités non symboliques (étude 2) et symboliques arabe et orale (étude 3), ainsi que de l’intégrité des représentations numériques sous forme de ligne numérique (étude 4). MÉTHODE : Des études comparatives d’un groupe d’enfants en difficulté mathématique (groupe dyscalculique) et d’un groupe d’enfants sans difficulté mathématique ont été réalisées. Des tâches faisant intervenir le code analogique (i.e. ensemble de points), le code arabe, le code oral, et la ligne numérique des nombres ont été administrées dans le but de mesurer les capacités de traitement, de production, et de reconnaissance des nombres. RÉSULTATS : La recension de la littérature permet d’établir qu’il n’existe aucun consensus quant aux déficits cognitifs numériques impliqués dans la dyscalculie (étude 1). Les résultats des études expérimentales montrent que les enfants dyscalculiques présentent des difficultés à traiter avec précision les petites quantités analogiques (étude 2) mais des habiletés préservées pour traiter approximativement les grandes quantités (étude 4). Ils présentent aussi des difficultés à traiter les nombres symboliques (arabe, oral) qui se manifestent par des atteintes de reconnaissance, de traitement et de production des nombres (études 3 et 4). Leur acuité numérique est également plus faible lorsqu’ils doivent traiter cognitivement les nombres symboliques sur une ligne numérique (étude 4). CONCLUSION : Les enfants dyscalculiques présentent un déficit du sens du nombre au niveau du traitement des petites quantités par le Système Numérique Précis, ainsi qu’un déficit de traitement des nombres symboliques. Ce déficit se manifeste à la fois par un déficit de reconnaissance, un déficit d’accès au sens du nombre via les codes symboliques et une acuité plus faible de la ligne numérique lorsqu’elle implique les nombres symboliques.