22 resultados para Théorie des matrices aléatoires

em Université Laval Mémoires et thèses électroniques


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est une réflexion originale sur le droit international dans la crise, car elle aborde le droit international grâce à une théorie peu connue en droit, celle des systèmes dynamiques complexes. L’étude du cas particulier de la gestion normative de la crise par le Conseil de sécurité illustre les intérêts de l’utilisation d’une théorie novatrice en droit. La théorie des systèmes dynamiques complexes offre les outils d’une réflexion sur le droit, fondée sur les interactions du droit avec le contexte particulier dans lequel il intervient, la crise, et ses acteurs. La mise en lumière de ces interactions favorise une lecture critique du droit international dans la crise et permet de renouveler l’ontologie de ce droit. Les dynamiques complexes appréhendées et définies par cette théorie sont utiles lorsqu’il s’agit d’expliquer les atouts et les limites de l’action normative du Conseil. Par ailleurs en renouvellant l’ontologie du droit, la théorie des systèmes dynamiques complexes facilite une lecture prospective de l’action normative du Conseil et insiste sur le rôle institutionnel du droit.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’antibiorésistance est un problème de santé publique majeur, causé principalement par l’usage abusif d’antibiotiques dans les élevages. Les probiotiques sont une alternative potentielle aux antibiotiques. Cependant, acheminer ces microorganismes vivants et fonctionnels jusqu’au côlon est un grand défi, à cause du pH et des sels biliaires à affronter lors du passage gastro-intestinal. L’objectif de ce travail était de développer une matrice prébiotique capable de maintenir la survie et l’activité des probiotiques pendant le transit gastro-intestinal et de permettre leur libération dans le côlon. Pour atteindre cet objectif, cinq types de matrices sphériques (A, AI5, AI10, AI15, AI20) à base d’inuline (0 %, 5 %, 10 %, 15 % et 20 %) et d’alginate (2 %) ont été préparés par la méthode d’extrusion/gélification ionotropique. Trois souches probiotiques ont été utilisées au cours du développement des billes : Pediococcus acidilactici UL5 (UL5), Lactobacillus reuteri (LR) et Lactobacillus salivarius (LS). Dans un premier temps, toutes les formulations ont été caractérisées d’un point de vue physicochimique et microbiologique. Ces analyses ont permis de révéler une distribution homogène de l’inuline et de l’alginate au sein des matrices et ont démontré que la viabilité et la capacité antimicrobienne des souches utilisées n’étaient pas affectées par l’encapsulation. À la lumière de ces résultats, trois formulations A, AI5 et AI20 ont été sélectionnées pour la suite de l’étude. Dans un deuxième temps, la mucoadhésion et le comportement des billes A, AI5 et AI20 ont été étudiés dans les parties supérieures du tractus gastro-intestinal. Ces études ont démontré que la présence de l’inuline améliore les propriétés mucoadhésives des billes. Elles ont également établi que seule la formulation AI5 résiste jusqu’à la fin de la digestion. Ce comportement est expliqué en partie par l’interaction alginate-inuline décelée par spectroscopie infrarouge à transformée de Fourier (FTIR). Cette interaction était stable pour les billes AI5 au pH 6,8 mais instable pour la formulation AI20. Enfin, le comportement et la dynamique bactérienne de la formulation AI5 dans les milieux coliques fermenté et non fermenté ont été étudiés. Cette étude a révélé que les billes AI5 se dégradent et libèrent la totalité des bactéries après environ 4 heures d’incubation dans le milieu fermenté. Cette dégradation est due aux enzymes très abondantes dans ce milieu. En conclusion, la formulation AI5 s’est avérée être un très bon véhicule pour protéger les bactéries dans les parties supérieures du tube digestif et favoriser leur libération dans le côlon. Elle pourrait donc, être utilisée pour une application en alimentation animale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La structuration laser femtoseconde de verres d’oxydes est aujourd’hui un domaine de recherche en pleine expansion. L’interaction laser-matière est de plus en plus utilisée pour sa facilité de mise en œuvre et les nombreuses applications qui découlent de la fabrication des composants photoniques, déjà utilisés dans l’industrie des hautes technologies. En effet, un faisceau d’impulsions ultracourtes focalisé dans un matériau transparent atteint une intensité suffisante pour modifier la matière en trois dimensions sur des échelles micro et nanométriques. Cependant, l’interaction laser-matière à ces régimes d’intensité n’est pas encore complètement maîtrisée, et les matériaux employés ne sont pas entièrement adaptés aux nouvelles applications photoniques. Par ce travail de thèse, nous nous efforçons donc d’apporter des réponses à ces interrogations. Le mémoire est articulé autour de deux grands volets. Le premier aborde la question de l’interaction de surface de verres avec de telles impulsions lumineuses qui mènent à l’auto-organisation périodique de la matière structurée. L’influence du dopage en ions photosensibles et des paramètres d’irradiation est étudiée afin d’appuyer et de conforter le modèle d’incubation pour la formation de nanoréseaux de surface. À travers une approche innovante, nous avons réussi à apporter un contrôle de ces structures nanométriques périodiques pour de futures applications. Le second volet traite de cristallisation localisée en volume induite en grande partie par l’interaction laser-matière. Plusieurs matrices vitreuses, avec différents dopages en sel d’argent, ont été étudiées pour comprendre les mécanismes de précipitation de nanoparticules d’argent. Ce travail démontre le lien entre la physicochimie de la matrice vitreuse et le caractère hors équilibre thermodynamique de l’interaction qui influence les conditions de nucléation et de croissance de ces nano-objets. Tous ces résultats sont confrontés à des modélisations de la réponse optique du plasmon de surface des nanoparticules métalliques. Les nombreuses perspectives de ce travail ouvrent sur de nouvelles approches quant à la caractérisation, aux applications et à la compréhension de l’interaction laser femtoseconde pour l’inscription directe de briques photoniques dans des matrices vitreuses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les changements climatiques récents ont mené à l’expansion de la répartition de plusieurs espèces méridionales, mais ont aussi causé l’extinction locale d’espèces se retrouvant à la limite de leur tolérance environnementale. Ces populations en expansion peuvent favoriser différentes stratégies d’histoire de vie en répondant à différents facteurs limitants. Dans cette thèse, je vise à déterminer et quantifier l’effet du climat et des évènements extrêmes sur le cycle de vie complet d’une espèce en expansion (le dindon sauvage) pour comprendre les changements au niveau populationnel ainsi que les mécanismes impliqués dans l’expansion de la distribution d’une espèce. J’ai défini les évènements extrêmes de pluie, d’épaisseur de neige au sol et de température, comme un évènement dont la fréquence est plus rare que le 10e et 90e percentile. En utilisant l’approche « Measure-Understand-Predict » (MUP), j’ai tout d’abord suivi trois populations le long d’un gradient latitudinal de sévérité hivernale pour mesurer l’effet de variables météorologiques sur la dynamique des populations. La survie des dindons sauvages diminuait drastiquement lorsque l’accumulation de neige au sol dépassait 30 cm pour une période de 10 jours et diminuait également avec la température. Au printemps, la persistance de la neige affectait négativement le taux d’initiation de la nidification et l’augmentation de la pluie diminuait la survie des nids. Dans une deuxième étape, j’ai examiné l’impact des évènements climatiques extrêmes et des processus démographiques impliqués dans l’expansion du dindon, liés à la théorie des histoires de vie pour comprendre la relation entre la dynamique de ces populations en expansions avec le climat. J’ai démontré que la fréquence des évènements extrêmes hivernaux et, d’une façon moins importante, les évènements extrêmes estivaux limitaient l’expansion nordique des dindons sauvages. J’ai appuyé, à l’aide de données empiriques et de modélisation, les hypothèses de la théorie classique des invasions biologiques en montrant que les populations en établissement priorisaient les paramètres reproducteurs tandis que la survie adulte était le paramètre démographique affectant le plus la dynamique des populations bien établies. De plus, les populations les plus au nord étaient composées d’individus plus jeunes ayant une espérance de vie plus faible, mais avaient un potentiel d’accroissement plus élevé que les populations établies, comme le suggère cette théorie. Finalement, j’ai projeté l’impact de la récolte sur la dynamique des populations de même que le taux de croissance de cette espèce en utilisant les conditions climatiques futures projetées par les modèles de l’IPCC. Les populations en établissement avaient un taux de récolte potentiel plus élevé, mais la proportion de mâles adultes, possédant des caractéristiques recherchées par les chasseurs, diminuait plus rapidement que dans les populations établies. Dans le futur, la fréquence des évènements extrêmes de pluie devrait augmenter tandis que la fréquence des évènements extrêmes de température hivernale et d’accumulation de neige au sol devraient diminuer après 2060, limitant probablement l’expansion nordique du dindon sauvage jusqu’en 2100. Cette thèse améliore notre compréhension des effets météorologiques et du climat sur l’expansion de la répartition des espèces ainsi que les mécanismes démographiques impliqués, et nous a permis de prédire la probabilité de l’expansion nordique de la répartition du dindon sauvage en réponse aux changements climatiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’augmentation exponentielle de la demande de bande passante pour les communications laisse présager une saturation prochaine de la capacité des réseaux de télécommunications qui devrait se matérialiser au cours de la prochaine décennie. En effet, la théorie de l’information prédit que les effets non linéaires dans les fibres monomodes limite la capacité de transmission de celles-ci et peu de gain à ce niveau peut être espéré des techniques traditionnelles de multiplexage développées et utilisées jusqu’à présent dans les systèmes à haut débit. La dimension spatiale du canal optique est proposée comme un nouveau degré de liberté qui peut être utilisé pour augmenter le nombre de canaux de transmission et, par conséquent, résoudre cette menace de «crise de capacité». Ainsi, inspirée par les techniques micro-ondes, la technique émergente appelée multiplexage spatial (SDM) est une technologie prometteuse pour la création de réseaux optiques de prochaine génération. Pour réaliser le SDM dans les liens de fibres optiques, il faut réexaminer tous les dispositifs intégrés, les équipements et les sous-systèmes. Parmi ces éléments, l’amplificateur optique SDM est critique, en particulier pour les systèmes de transmission pour les longues distances. En raison des excellentes caractéristiques de l’amplificateur à fibre dopée à l’erbium (EDFA) utilisé dans les systèmes actuels de pointe, l’EDFA est à nouveau un candidat de choix pour la mise en œuvre des amplificateurs SDM pratiques. Toutefois, étant donné que le SDM introduit une variation spatiale du champ dans le plan transversal de la fibre, les amplificateurs à fibre dopée à l’erbium spatialement intégrés (SIEDFA) nécessitent une conception soignée. Dans cette thèse, nous examinons tout d’abord les progrès récents du SDM, en particulier les amplificateurs optiques SDM. Ensuite, nous identifions et discutons les principaux enjeux des SIEDFA qui exigent un examen scientifique. Suite à cela, la théorie des EDFA est brièvement présentée et une modélisation numérique pouvant être utilisée pour simuler les SIEDFA est proposée. Sur la base d’un outil de simulation fait maison, nous proposons une nouvelle conception des profils de dopage annulaire des fibres à quelques-modes dopées à l’erbium (ED-FMF) et nous évaluons numériquement la performance d’un amplificateur à un étage, avec fibre à dopage annulaire, à ainsi qu’un amplificateur à double étage pour les communications sur des fibres ne comportant que quelques modes. Par la suite, nous concevons des fibres dopées à l’erbium avec une gaine annulaire et multi-cœurs (ED-MCF). Nous avons évalué numériquement le recouvrement de la pompe avec les multiples cœurs de ces amplificateurs. En plus de la conception, nous fabriquons et caractérisons une fibre multi-cœurs à quelques modes dopées à l’erbium. Nous réalisons la première démonstration des amplificateurs à fibre optique spatialement intégrés incorporant de telles fibres dopées. Enfin, nous présentons les conclusions ainsi que les perspectives de cette recherche. La recherche et le développement des SIEDFA offriront d’énormes avantages non seulement pour les systèmes de transmission future SDM, mais aussi pour les systèmes de transmission monomode sur des fibres standards à un cœur car ils permettent de remplacer plusieurs amplificateurs par un amplificateur intégré.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Au cours des années une variété des compositions de verre chalcogénure a été étudiée en tant qu’une matrice hôte pour les ions Terres Rares (TR). Pourtant, l’obtention d’une matrice de verre avec une haute solubilité des ions TR et la fabrication d’une fibre chalcogénure dopée au TR avec une bonne qualité optique reste toujours un grand défi. La présente thèse de doctorat se concentre sur l’étude de nouveaux systèmes vitreux comme des matrices hôtes pour le dopage des ions TR, ce qui a permis d’obtenir des fibres optiques dopées au TR qui sont transparents dans l’IR proche et moyenne. Les systèmes vitreux étudiés ont été basés sur le verre de sulfure d’arsenic (As2S3) co-dopé aux ions de Tm3+ et aux différents modificateurs du verre. Premièrement, l’addition de Gallium (Ga), comme un co-dopant, a été examinée et son influence sur les propriétés d’émission des ions de Tm a été explorée. Avec l’incorporation de Ga, la matrice d’As2S3 dopée au Tm a montré trois bandes d’émission à 1.2 μm (1H5→3H6), 1.4 μm (3H4→3F4) et 1.8 μm (3F4→3H6), sous l’excitation des longueurs d’onde de 698 nm et 800 nm. Les concentrations de Tm et de Ga ont été optimisées afin d’obtenir le meilleur rendement possible de photoluminescence. À partir de la composition optimale, la fibre Ga-As-S dopée au Tm3+ a été étirée et ses propriétés de luminescence ont été étudiées. Un mécanisme de formation structurale a été proposé pour ce système vitreux par la caractérisation structurale des verres Ga-As-S dopés au Tm3+, en utilisant la spectroscopie Raman et l’analyse de spectrométrie d’absorption des rayons X (EXAFS) à seuil K d’As, seuil K de Ga et seuil L3 de Tm et il a été corrélé avec les caractéristiques de luminescence de Tm. Dans la deuxième partie, la modification des verres As2S3 dopés au Tm3+, avec l’incorporation d’halogénures (Iode (I2)), a été étudiée en tant qu’une méthode pour l’adaptation des paramètres du procédé de purification afin d’obtenir une matrice de verre de haute pureté par distillation chimique. Les trois bandes d’émission susmentionnées ont été aussi bien observées pour ce système sous l’excitation à 800 nm. Les propriétés optiques, thermiques et structurelles de ces systèmes vitreux ont été caractérisées expérimentalement en fonction de la concentration d’I2 et de Tm dans le verre, où l’attention a été concentrée sur deux aspects principaux: l’influence de la concentration d’I2 sur l’intensité d’émission de Tm et les mécanismes responsables pour l’augmentation de la solubilité des ions de Tm dans la matrice d’As2S3 avec l’addition I2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En vertu de l’expertise qu’il détient, l’agent public contribue à la réflexion du politique. L’acteur public est en quelque sorte un outil d’aide à la décision. Le paradigme classique en théorie des organisations assume que le bureaucrate est un acteur programmé dont les actions sont guidées par la règlementation et la codification juridico-légale entourant sa pratique. Quant à elle, l’École de la nouvelle gestion publique suppose que l’agent public doit opérer librement selon les indicateurs de la sphère privée ; il doit viser l’efficacité au moindre coût et prioriser la culture du résultat. De plus, dans des conditions respectant l’environnement où se dessine le partage de renseignements, les chercheurs ne s’entendent pas sur le principe de l’allié qui postule conventionnellement que des préférences similaires favorisent la transmission optimale de l’information entre le politique et la fonction publique. Quel modèle prévaut au Québec ? Sous quelles formes s’opérationnalise-t-il en contexte de transfert ? La thèse d’une compatibilité préférentielle est-elle garante d’une translation informationnelle améliorée ? En usant du modèle canonique principal-agent, ce mémoire confronte la croyance répandue voulant que l’État québécois soit foncièrement webérien en adressant certaines des plus importantes conclusions théoriques dans la discipline. Les résultats démontrent que l’appareil d’État est issu d’un croisement entre les deux principaux paradigmes reconnus dans la littérature. Aussi, le mémoire fait état d’une similarité entre l’interprétation traditionnelle de l’ally principle et la réalité empirique retrouvée dans la relation entre le haut fonctionnaire et le législateur québécois. Ultimement, l’étude démontre que l’administrateur d’État est stratégique dans certaines situations qu’il sait instrumentaliser et où il peut occuper un espace discrétionnaire suffisant pour valoriser ses intérêts professionnels et ceux de son organisation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Loin de la réduction pressentie du temps de travail et de l’émergence d’une société des loisirs, est plutôt observé, depuis une trentaine d’années, un accroissement du temps consacré au travail pour les travailleurs les plus qualifiés, au Québec comme dans la plupart des sociétés occidentales (Burke et Cooper, 2008; Lapointe, 2005; Lee, 2007). Dans un contexte où les « arrangements temporels » (Thoemmes, 2000) tendent à s’individualiser de façon à mieux prendre en compte les réalités et les besoins des salariés et salariées tout comme ceux des organisations, cette thèse interroge le caractère « volontaire » des conduites d’hypertravail observées chez les travailleurs et les travailleuses des secteurs des services informatiques et du multimédia. Elle s’attarde plus particulièrement aux processus psychosociaux qui sous-tendent la construction de ces conduites. Inscrite au sein d’une approche psychosociale et systémique, notre recherche articule une théorie qui met en résonance les fonctionnements individuel et organisationnel, soutenue par le modèle du Système psychique organisationnel (Aubert et de Gaulejac, 1991), et une théorie de la socialisation plurielle et active, soutenue par le modèle du Système des activités (Baubion-Broye et Hajjar, 1998; Curie, 2000). Opérationnalisée selon une grille articulée autour de cinq niveaux d’analyse (intra-individuel, interpersonnel, positionnel, idéologique et de la tâche et de l’organisation du travail), nous avons mené 34 entretiens biographiques (26 hommes et 8 femmes) auprès de salariés et salariées des secteurs des services informatiques et du multimédia. Les résultats mettent en évidence trois types de processus menant à l’adoption de conduites d’hypertravail ; un cas-type qui illustre un processus de renforcement d’une identité professionnelle de « grand travailleur » ; un cas-type qui rend compte d’un processus de suraffiliation organisationnelle et d’assujettissement de la vie hors-travail; et un cas-type qui expose le maintien d’une conduite d’hypertravail défensive, dans un contexte de mise à l’épreuve organisationnelle. Au final, les résonances particulières observées entre ces niveaux et facteurs nous amènent à souligner l’intérêt de mieux comprendre l’hypertravail en prenant en compte les significations que les individus donnent à leurs conduites, à partir d’un regard diachronique et synchronique. Nous discutons également du caractère dynamique et évolutif de la relation individu-collectif-organisation et du rôle différencié des organisations et des collectifs de travail dans la construction des conduites d’hypertravail. Nous relevons enfin certaines implications des nouvelles pratiques et normes de temps de travail observées dans ces organisations, favorables au développement et au maintien de l’hypertravail. Mots-clés : temps de travail, longues heures de travail, conduites d’hypertravail, articulation travail-vie personnelle, socialisation plurielle et active, domination au travail.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse s’intéresse à la manière dont des étudiants de l’Université Laval, à Québec, engagés dans différents programmes de mobilité pendant leur formation, donnent un sens à leur expérience et, ainsi, permettent pour une majorité d’entre eux l’émergence d’un cosmopolitisme. J’explore ces expériences de mobilité en plaçant l’étudiant au centre de ma réflexion. Ceci m’amène à analyser le sens profond de leur récit, dans le contexte de l’éducation supérieure et des enjeux de l’éducation au XXIe siècle. Mon analyse débouche sur trois parcours types d’étudiants, qui peuvent servir de guide pour faire émerger une pratique cosmopolite. À la suite d’une enquête ethnologique, j’ai analysé les données découlant de plus de 80 entrevues menées auprès de 53 étudiants inscrits dans une quarantaine de programmes d’études des trois cycles universitaires et ayant participé à l’un des dix programmes de mobilité offerts par le Bureau international. Un groupe de discussion a permis de compléter ces données et de valider un premier examen des diverses politiques en internationalisation de la formation (UNESCO, BCEI, MELS, UL) qui m’ont aidée à comprendre et à problématiser les données de la mobilité étudiante. Mon analyse s’appuie sur deux champs théoriques : d’une part, elle interpelle la théorie de la structuration d’Anthony Giddens (1987) et s’intéresse aux motivations, aux positionnements et à la capacité réflexive qui débouchent sur les interprétations qui structurent les pratiques liées à ces séjours. D’autre part, elle s’ancre dans une conceptualisation du cosmopolitisme proposée par Ulf Hannerz (2010). J’ai ainsi adopté une approche contemporaine du phénomène dans le cadre des études supérieures et construit les trois parcours types basés sur une approche anthropologique de la réflexivité de l’acteur en situation, en tenant compte de la complexité des expériences et des cheminements vécus lors d’une pratique de mobilité. Cette étude s’inscrit dans une anthropologie du chez-soi, et explore ainsi de nouveaux sentiers de recherche à considérer pour mieux saisir la construction du cosmopolitisme contemporain.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le domaine des centres d’appels, l’affectation d’agents au service à la clientèle efficaces et satisfaits représente une activité cruciale pour toute direction dédiée aux ressources humaines de ces unités d’affaires. Or, pour parvenir à prendre de bonnes décisions d’embauche et de rejet, des instruments de mesure et d’évaluation des compétences sont souvent mis à contribution. À cet effet, les tests de jugement situationnel (TJS) sont de plus en plus utilisés pour la sélection du personnel. L’objet de cette thèse est donc de vérifier l’efficacité relative des différentes méthodes d’élaboration des grilles de correction des TJS. En effet, jusqu’à présent, trois méthodes ont été privilégiées par les concepteurs de tests (Weekley, Ployhart, & Holtz, 2006) : (1) l’approche rationnelle ou théorique (2) l’approche empirique et (3) le recours à des experts. La possibilité qu’une combinaison de ces différentes approches puisse conduire à de meilleurs résultats est également explorée. Pour y parvenir, le résultat total obtenu à un TJS a été mis en lien avec une évaluation du rendement global effectuée par un supérieur immédiat en y appliquant huit grilles de correction différentes. Au total, un échantillon de 312 employés œuvrant dans des emplois de téléopérateurs au sein d’une grande institution financière québécoise ont participé à cette recherche. Dans l’ensemble, les résultats indiquent qu’une approche empirique permet généralement d’obtenir de meilleures statistiques descriptives en termes de distribution et de dispersion des scores pour un processus de sélection. Cependant, des analyses corrélationnelles indiquent qu’une approche multiple ou méthode hybride, basée sur une intégration des informations fournies par différentes sources d’informations (empirique, théorique et basé sur les experts) pour l’élaboration d’une grille de correction d’un TJS, permet de mieux prédire le rendement des employés (r=0,247**) comparativement à l’utilisation de la théorie pour définir les attentes (r=0,162**), le recours à des experts de contenu œuvrant dans le domaine de pratique (r=0,164**) ou l’utilisation d’une approche empirique (r=0,154*). Mots clés : Test de jugement situationnel, grilles de correction, validité critériée, centre d’appels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Le diabète de type 2 est une maladie évolutive débilitante et souvent mortelle qui atteint de plus en plus de personnes dans le monde. Le traitement antidiabétique non-insulinique (TADNI) notamment le traitement antidiabétique oral (TADO) est le plus fréquemment utilisé chez les adultes atteints de cette maladie. Toutefois, plusieurs de ces personnes ne prennent pas leur TADO tel que prescrit posant ainsi la problématique d’une adhésion sous-optimale. Ceci entraîne des conséquences néfastes aussi bien pour les patients que pour la société dans laquelle ils vivent. Il serait donc pertinent d’identifier des pistes de solution à cette problématique. Objectifs : Trois objectifs de recherche ont été étudiés : 1) Explorer la capacité de la théorie du comportement planifié (TCP) à prédire l’adhésion future au TADNI chez les adultes atteints de diabète de type 2, 2) Évaluer l’efficacité globale des interventions visant à améliorer l’adhésion au TADO chez les adultes atteints de diabète de type 2 et étudier l’influence des techniques de changement de comportement sur cette efficacité globale, et 3) Évaluer l’efficacité globale de l’entretien motivationnel sur l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique et étudier l’influence des caractéristiques de cette intervention sur son efficacité globale. Méthodes : Pour l’objectif 1 : Il s’agissait d’une enquête web, suivie d’une évaluation de l’adhésion au TADNI sur une période de 30 jours, chez des adultes atteints de diabète de type 2, membres de Diabète Québec. L’enquête consistait à la complétion d’un questionnaire auto-administré incluant les variables de la TCP (intention, contrôle comportemental perçu et attitude) ainsi que d’autres variables dites «externes». Les informations relatives au calcul de l’adhésion provenaient des dossiers de pharmacie des participants transmis via la plateforme ReMed. Une régression linéaire multivariée a été utilisée pour estimer la mesure d’association entre l’intention et l’adhésion future au TADNI ainsi que l’interaction entre l’adhésion passée et l’intention. Pour répondre aux objectifs 2 et 3, deux revues systématiques et méta-analyses ont été effectuées et rapportées selon les lignes directrices de PRISMA. Un modèle à effets aléatoires a été utilisé pour estimer l’efficacité globale (g d’Hedges) des interventions et son intervalle de confiance à 95 % (IC95%) dans chacune des revues. Nous avons également quantifié l’hétérogénéité (I2 d’Higgins) entre les études, et avons fait des analyses de sous-groupe et des analyses de sensibilité. Résultats : Objectif 1 : Il y avait une interaction statistiquement significative entre l’adhésion passée et l’intention (valeur-p= 0,03). L’intention n’était pas statistiquement associée à l’adhésion future au TADNI, mais son effet était plus fort chez les non-adhérents que chez les adhérents avant l’enquête web. En revanche, l’intention était principalement prédite par le contrôle comportemental perçu à la fois chez les adhérents [β= 0,90, IC95%= (0,80; 1,00)] et chez les non-adhérents passés [β= 0,76, IC95%= (0,56; 0,97)]. Objectif 2 : L’efficacité globale des interventions sur l’adhésion au TADO était de 0,21 [IC95%= (-0,05; 0,47); I2= 82 %]. L’efficacité globale des interventions dans lesquelles les intervenants aidaient les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables était de 0,64 [IC95%= (0,31; 0,96); I2= 56 %]. Objectif 3 : L’efficacité globale des interventions (basées sur l’entretien motivationnel) sur l’adhésion au traitement médicamenteux était de 0,12 [IC95%= (0,05; 0,20); I2= 1 %. Les interventions basées uniquement sur l’entretien motivationnel [β= 0,18, IC95%= (0,00; 0,36)] et celles dans lesquelles les intervenants ont été coachés [β= 0,47, IC95%= (0,03; 0,90)] étaient les plus efficaces. Aussi, les interventions administrées en face-à-face étaient plus efficaces que celles administrées par téléphone [β= 0,27, IC95%=(0,04; 0,50)]. Conclusion : Il existe un écart entre l’intention et l’adhésion future au TADNI, qui est partiellement expliqué par le niveau d’adhésion passée. Toutefois, il n’y avait pas assez de puissance statistique pour démontrer une association statistiquement significative entre l’intention et l’adhésion future chez les non-adhérents passés. D’un autre côté, quelques solutions au problème de l’adhésion sous-optimale au TADO ont été identifiées. En effet, le fait d’aider les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables contribue efficacement à l’amélioration de l’adhésion au TADO chez les adultes atteints de diabète de type 2. Aussi, les interventions basées sur l’entretien motivationnel améliorent efficacement l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique. L’entretien motivationnel pourrait donc être utilisé comme un outil clinique pour soutenir les patients dans l’autogestion de leur TADO.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À l’heure actuelle, il est estimé que 60% des personnes hébergées dans les centres d’hébergement publics du Québec seraient atteintes de la maladie d’Alzheimer. De ce nombre, plusieurs manifesteraient des symptômes comportementaux associés à la démence. Les préposés aux bénéficiaires représentent le corps de métier le plus en contact avec les personnes hébergées dans les unités et, de par la nature de leurs tâches, ils seraient plus à risque d’être exposés à des troubles comportementaux. Étant donné que ces comportements peuvent constituer une source de stress pour les préposés aux bénéficiaires, la présente étude vise à estimer la contribution d’un ensemble de variables sur leur niveau de détresse psychologique. Ces variables comprennent la fréquence des symptômes comportementaux perçus, les évaluations cognitives primaires et secondaires, le sentiment d’efficacité personnelle et les stratégies de coping. Au total, quatre-vingt-douze préposés aux bénéficiaires détenant des postes de jour ont été recrutés dans les centres d’hébergement de la région de Québec dans les Centres de santé et des services sociaux de la Vieille-Capitale, Québec-Nord et Portneuf. Une analyse de régression multiple révèle que le modèle explique 42,3% de la variance de la variable dépendante, et que la fréquence des troubles comportementaux non agressifs, l’évaluation cognitive de type menace et la recherche de soutien émotionnel contribuent à la détresse psychologique ressentie par les préposés. Les résultats de ce mémoire mettent en lumière l’importance des symptômes comportementaux non agressifs qui semblent souvent sous-estimés comparativement aux troubles agressifs. Le mémoire propose également une réflexion sur la théorie transactionnelle de Lazarus et Folkman et sur ses différentes composantes.