136 resultados para Contrainte
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).
Resumo:
Ce mémoire s’intéresse à l’endettement des gouvernements et aux facteurs historiques qui en sont les causes. L’analyse utilise des données historiques des cinquante États américains afin d’explorer l’influence de différents facteurs d’ordre économique, politique et institutionnel sur l’accumulation de la dette publique. Alors que la littérature met de l’avant l’impact des facteurs économiques, politiques et institutionnels dans la détermination de l’endettement public, la contrainte budgétaire du gouvernement fait ressortir la relation entre le stock de dette publique courant et les déficits passés. Cette relation est au cœur de la question de recherche abordée par le mémoire : quel est le rôle des facteurs économiques, politiques et institutionnels historiques dans l’accumulation de dette publique? Comment estimer leur poids respectif? Afin de répondre à ces questions, l’analyse empirique intègre des variables explicatives économiques, politiques et institutionnelles ayant une composante historique. De plus, elle accorde une attention particulière aux facteurs institutionnels en utilisant différentes sources de données et des caractérisations plus ou moins détaillées pour modéliser les règles budgétaires et les limites d’endettement. Par ailleurs, la méthodologie empirique tient compte de la question de l’endogénéité potentielle des institutions fiscales. Les résultats de l’analyse économétrique confirment l’importance des facteurs économiques. Dans le cas des variables politiques, ils infirment la théorie selon laquelle les gouvernements divisés s’endettent davantage, mais confirment que l’appartenance politique des gouverneurs a un effet certain sur le poids de la dette publique. Ils indiquent également que l’indice historique d’alternance des partis politiques est important, l’alternance plus fréquente étant associée à une légère diminution de l’endettement. L’instabilité politique n’alimenterait donc pas nécessairement l’endettement public, ce qui suggère qu’il est possible qu’une plus forte compétition électorale puisse avoir un effet positif sur la rigueur budgétaire dans un système à deux partis politiques. De façon générale, les effets estimés des variables institutionnelles impliquent qu’elles ne sont que peu efficaces à limiter l’endettement des États.
Resumo:
Le contexte de ce projet de recherche est celui de la stabilité des barrages-poids et aborde le besoin d’évaluation de la résistance de l’interface béton-rocher. Puisqu’il est techniquement difficile d’évaluer si l’interface est liée ou non, la cohésion réelle et sa contribution à la résistance au cisaillement sont souvent négligées et ce sujet précis est peu abordé dans la littérature. Un lien direct peut être fait entre cette non-considération et des travaux de stabilisation réalisés sur des ouvrages hydrauliques. Cette étude a comme objectif la caractérisation de la cohésion réelle dans le but de déterminer s’il est sécuritaire d’incorporer sa contribution dans l’évaluation de stabilité des barrages-poids. Pour ce faire, il est nécessaire d’évaluer les comportements en traction et en cisaillement de l’interface et d’analyser comment ils sont affectés par des paramètres importants telle la rugosité de l’interface. Cette caractérisation est faite à l’aide d’un programme expérimental sur 66 répliques d’interfaces béton-rocher en mortier. La rugosité est évaluée à l’aide d’un profilomètre laser et du paramètre Z2. Les répliques ont fait l’objet d’essais de traction directe, de traction par pression de fluide et de cisaillement direct. L’influence de la rugosité d’interface et de la résistance à la compression uniaxiale (UCS) des matériaux sur les résistances à la traction et au cisaillement est évaluée grâce à l’analyse des variances (ANOVA). Des essais supplémentaires ont permis d’approfondir la compréhension du mécanisme de rupture en cisaillement. Les résultats indiquent une résistance à la traction moyenne de l’interface liée de 0,62 MPa et une cohésion (en cisaillement) moyenne de 3,1 MPa. L’ANOVA montre une augmentation significative de la résistance à la traction avec la rugosité et une augmentation significative de la résistance au cisaillement au pic avec la rugosité, l’UCS et la contrainte normale. Il a aussi été observé que le pas d’échantillonnage a un impact important sur la valeur de Z2. Les résultats suggèrent qu’une valeur minimale de cohésion de 100 à 200 kPa pourrait être utilisée dans la mesure où il peut être démontré que l’interface est liée. Cette condition pourrait d’ailleurs constituer un sujet de recherche s’inscrivant dans la continuité des travaux réalisés.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Abstract : The structural build-up of fresh cement-based materials has a great impact on their structural performance after casting. Accordingly, the mixture design should be tailored to adapt the kinetics of build-up given the application on hand. The rate of structural build-up of cement-based suspensions at rest is a complex phenomenon affected by both physical and chemical structuration processes. The structuration kinetics are strongly dependent on the mixture’s composition, testing parameters, as well as the shear history. Accurate measurements of build-up rely on the efficiency of the applied pre-shear regime to achieve an initial well-dispersed state as well as the applied stress during the liquid-solid transition. Studying the physical and chemical mechanisms of build-up of cement suspensions at rest can enhance the fundamental understanding of this phenomenon. This can, therefore, allow a better control of the rheological and time-dependent properties of cement-based materials. The research focused on the use of dynamic rheology in investigating the kinetics of structural build-up of fresh cement pastes. The research program was conducted in three different phases. The first phase was devoted to evaluating the dispersing efficiency of various disruptive shear techniques. The investigated shearing profiles included rotational, oscillatory, and combination of both. The initial and final states of suspension’s structure, before and after disruption, were determined by applying a small-amplitude oscillatory shear (SAOS). The difference between the viscoelastic values before and after disruption was used to express the degree of dispersion. An efficient technique to disperse concentrated cement suspensions was developed. The second phase aimed to establish a rheometric approach to dissociate and monitor the individual physical and chemical mechanisms of build-up of cement paste. In this regard, the non-destructive dynamic rheometry was used to investigate the evolutions of both storage modulus and phase angle of inert calcium carbonate and cement suspensions. Two independent build-up indices were proposed. The structural build-up of various cement suspensions made with different cement contents, silica fume replacement percentages, and high-range water reducer dosages was evaluated using the proposed indices. These indices were then compared to the well-known thixotropic index (Athix.). Furthermore, the proposed indices were correlated to the decay in lateral pressure determined for various cement pastes cast in a pressure column. The proposed pre-shearing protocol and build-up indices (phases 1 and 2) were then used to investigate the effect of mixture’s parameters on the kinetics of structural build-up in phase 3. The investigated mixture’s parameters included cement content and fineness, alkali sulfate content, and temperature of cement suspension. Zeta potential, calorimetric, spectrometric measurements were performed to explore the corresponding microstructural changes in cement suspensions, such as inter-particle cohesion, rate of Brownian flocculation, and nucleation rate. A model linking the build-up indices and the microstructural characteristics was developed to predict the build-up behaviour of cement-based suspensions The obtained results showed that oscillatory shear may have a greater effect on dispersing concentrated cement suspension than the rotational shear. Furthermore, the increase in induced shear strain was found to enhance the breakdown of suspension’s structure until a critical point, after which thickening effects dominate. An effective dispersing method is then proposed. This consists of applying a rotational shear around the transitional value between the linear and non-linear variations of the apparent viscosity with shear rate, followed by an oscillatory shear at the crossover shear strain and high angular frequency of 100 rad/s. Investigating the evolutions of viscoelastic properties of inert calcite-based and cement suspensions and allowed establishing two independent build-up indices. The first one (the percolation time) can represent the rest time needed to form the elastic network. On the other hand, the second one (rigidification rate) can describe the increase in stress-bearing capacity of formed network due to cement hydration. In addition, results showed that combining the percolation time and the rigidification rate can provide deeper insight into the structuration process of cement suspensions. Furthermore, these indices were found to be well-correlated to the decay in the lateral pressure of cement suspensions. The variations of proposed build-up indices with mixture’s parameters showed that the percolation time is most likely controlled by the frequency of Brownian collisions, distance between dispersed particles, and intensity of cohesion between cement particles. On the other hand, a higher rigidification rate can be secured by increasing the number of contact points per unit volume of paste, nucleation rate of cement hydrates, and intensity of inter-particle cohesion.
Resumo:
La présente recherche couvre les premiers essais d’une nouvelle méthode de fonctionnalisation chimique de surfaces hydroxylées. La méthode consiste à faire réagir ladite surface avec un réactif en excès, le tétrachlorure de silicium (SiCl4), rendant celle-ci chimiquement réactive à n’importe quel alcool externe ajouté par la suite au milieu. L’alcool externe modifie les propriétés de surface du substrat dépendamment de sa composition. Une multitude de fonctionnalités chimiques peuvent être présentes sur l’alcool externe et ce sont elles qui dictent les nouvelles propriétés de surface. Dans l’étude présente, les substrats étudiés ont été la cellulose microcristalline commerciale (MCC), la fibre de chanvre délignifiée et la corde de lin. La MCC est une cellulose fortement hydrolysée et purifiée ayant une structure cristalline la rendant insoluble. L’absence d’impuretés pouvant engendrer des interférences est la raison majeure pour laquelle ce substrat a été employé en premier. Avec des alcools tels que le 1-décanol, le 10-undécènol et le PEG-400, les propriétés de surfaces ont été ajustées et ont permis les premières applications comme substrat fibreux dans des composites de LDPE et de PLA. Une fois modifiés avec le 1-décanol et le 10-undécènol, les substrats ont montré des propriétés surfaciques hydrophobes n’absorbant plus l’eau et montrant des angles de contacts supérieurs à 90o avec celle-ci. Des mélanges à 17 et à 50 % massiques de ces substrats modifiés ont donc été faits avec le LDPE et une caractérisation complète des composites a été effectuée. Les tests mécaniques des composites modifiés de 17 % massique de MCC et de corde ont démontré une claire adhésion substrat-matrice par l’augmentation de la contrainte maximale ainsi que de l’élongation à la rupture. Pour ce qui est des substrats avec PEG-400, la fonctionnalisation a été démontrée et des composites MCC-PLA ont été faits. La modification de la MCC a engendré un changement des propriétés mécaniques sans toutefois surpasser le PLA de départ. Néanmoins, dans tous les cas, l’adhésion substrat-matrice a été améliorée par la réaction et a pu être démontrée par l’étude des fractures et des coupes microtomes au MEB. Finalement, la dispersion et les interactions à l’intérieur des composites de MCC à 17 et à 50 % ont été observées par rhéologie. Les composites modifiés ont montré une meilleure dispersion comparativement aux composites de MCC qui eux engendrent même la formation de réseau substrat-substrat.
Resumo:
De nombreuses populations migratrices sont actuellement en déclin. Les changements climatiques entrainent des modifications dans les habitats des espèces migratrices et la phénologie des processus naturels, lesquels se répercutent sur la migration, une période critique pour ces espèces. Comprendre comment les variables environnementales et climatiques affectent la phénologie et les patrons de migration est donc crucial. Ma thèse s’intéresse à l’impact du climat, des ressources alimentaires et de la compétition sur les migrations printanières et automnales des caribous migrateurs, Rangifer tarandus, des troupeaux Rivière-George (TRG) et Rivière-aux-Feuilles (TRF) du Nord-du-Québec et du Labrador. Le premier volet de ma thèse propose une approche objective, basée sur la détection des changements dans la structure des déplacements saisonniers, pour identifier les dates de départ et arrivée en migration. Validée à l’aide de trajets simulés, elle a été appliquée aux migrations printanières et automnales de femelles caribous. Le second volet porte sur l’impact des conditions environnementales sur la phénologie des migrations de printemps et d’automne. Il montre que la phénologie de la migration est principalement affectée par les conditions climatiques rencontrées lors de la migration, les conditions d’enneigement affectant notamment les coûts des déplacements. Au printemps, les caribous subissent des conditions défavorables lorsque la fonte des neiges est précoce. À l’automne, ils semblent ajuster leurs déplacements et migrent plus vite quand la neige débute tôt pour limiter les coûts de déplacement dans une neige profonde. Le troisième volet porte sur les patrons de migration à l’automne et montre que ceux-ci sont affectés essentiellement par une compétition intra- et inter-troupeaux pour les aires d’hivernages. Les caribous du TRG répondent à une augmentation de la compétition sur les aires les plus proches de l’aire de mise bas, liée à une taille de population élevée, en migrant préférentiellement vers les aires les plus éloignées. L’utilisation des aires hivernales par les caribous du TRF est, quant à elle, contrainte par la présence et l’abondance du TRG, cette contrainte diminuant à mesure que le TRG décline et abandonne les migrations vers les aires d’hivernages communes aux deux troupeaux. Cette thèse améliore notre compréhension de l’influence des facteurs environnementaux sur la phénologie et les patrons de migration du caribou migrateur. Ces connaissances sont très utiles pour comprendre l’impact des changements climatiques et établir les plans de conservation pour les espèces migratrices.
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
À l’aide d’un modèle théorique, je remets en question l’idée généralement admise que le lobbying informationnel ne peut pas être nuisible pour les citoyens puisque le décideur public possède davantage d’information. Dans mon modèle, un décideur public doit choisir de maintenir le statu quo ou implémenter la réforme pour chacune des deux problématiques présentes. Ces problématiques ont une importance relative qui diffère. Le décideur public peut donc désirer acquérir de l’information sur ces dernières afin de prendre la meilleure décision possible. Cependant, il fait face à deux contraintes. La première est qu’il ne peut pas nécessairement implémenter la réforme sur les deux problématiques, le décideur public doit établir un agenda. La seconde contrainte est qu’il ne dispose pas nécessairement des moyens pour acquérir de l’information sur les problématiques qu’il désire. Deux groupes d’intérêts sont également présents. Ces derniers tentent d’influencer le décideur public en lui transmettant de l’information. Ils peuvent ni la cacher, ni la modifier. Les groupes d’intérêts acquièrent d’abord de l’information de manière simultanée, puis le décideur public, après avoir observé leur information, décide s’il acquiert de l’information, et ce, de manière séquentielle. La présence des deux contraintes du décideur public, ainsi que l’importance relative différente des deux problématiques peuvent mener à la situation où les citoyens sont mieux sans les groupes d’intérêts, et ce malgré le fait que les préférences du décideur public sont alignées avec celle des citoyens. Cela s’explique par le fait que l’information transmise par les groupes d’intérêts peut venir modifier l’ordre d’importance des problématiques pour le décideur public en plaçant la problématique de moindre importance au-dessus de l’autre. Le lobbying informationnel peut donc être nuisible aux citoyens, malgré le fait que le décideur public ait davantage d’information.
Resumo:
Le contrôle de l'asthme est défini comme la mesure dans laquelle les différentes manifestations de l'asthme ont été réduites ou éliminées par le traitement. Ce paramètre est un élément central dans l'évaluation des patients asthmatiques. Selon les recommandations actuelles, il doit aider le clinicien à déterminer le type et le dosage des médicaments à prescrire.Le travail réalisé au cours de cette thèse avait pour but de contribuer à l'évaluation fonctionnelle des patients asthmatiques. Ceci en particulier à propos de l'utilisation des questionnaires destinés à évaluer le niveau de contrôle de l'asthme.Dans une première étude, nous avons cherché à déterminer les degrés d'accord qu'il y avait entre cinq questionnaires de contrôle de l'asthme couramment utilisés en pratique clinique. Les résultats ont montré un degré d’accord modéré, signifiant que ces outils ne sont pas interchangeables. Par conséquent, nous conseillons d’être attentif lors de la lecture des publications qui n’utilisent pas les mêmes questionnaires.Du fait que la limitation d'activité était le seul thème commun aux cinq questionnaires étudiés, notre travail a été orienté vers l'étude de ce thème. Nous avons donc réalisé une revue de littérature approfondie destinée à décrire l'état actuel des connaissances sur la limitation des activités chez les patients souffrant d'asthme. Celle-ci à mis en évidence que le niveau de connaissance est assez faible. Ceci particulièrement à propos des liens entre ce que le patient ressent au sujet de sa limitation d’activité et la réalité de ses capacités physiques.L'objectif de la troisième partie fut donc d’étudier plus en détails ce sujet. Nous avons demandé à des patients asthmatiques exacerbés d’évaluer leurs sensations au sujet de leur limitation d'activité. Pendant ce temps, ils ont réalisés plusieurs tests fonctionnels et une actimétrie. L'analyse des corrélations entre ces différentes données a montré qu’en réponse à la question sur la limitation de l'activité, les patients ne répondent pas au sujet de leur limitation physique, mais plutôt au sujet de leur charge psychologique associé à cette contrainte.L’ensemble de ces résultats nous ont permis de conclure au sujet de l’évaluation du contrôle de l’asthme que, comme dans d’autres domaines, le choix de l’outils de mesure est tout aussi important que la compréhension de son contenu. L’étude des différentes modalités d’évaluation de la limitation d’activité des patients asthmatiques devrait donc être poursuivie afin d’optimaliser l’évaluation fonctionnelle de ce groupe de patients.
Resumo:
Les fluides magnétorhéologiques (MR) sont des fluides intelligents dont la viscosité apparente peut être modifiée rapidement (<1ms) par l'application d'un champ magnétique externe. À l'aide de cette caractéristique unique, les embrayages MR permettent de moduler rapidement un couple entre deux surfaces sans contact mécanique direct. De construction simple et robuste, les embrayages MR offrent ainsi un potentiel remarquable d'innovation pour diverses applications robotiques nécessitant un contrôle rapide et une haute fiabilité, comme dans les domaines de l'automobile [10], de l'aéronautique [16] ou de l'interaction humaine [77]. À ce jour, les embrayages MR exploitent le fluide MR strictement en cisaillement pur. Dans de telles conditions, la densité de couple des embrayages est limitée par l'optimisation de la mécanique des embrayages (ex. : poids) [63] et les propriétés fondamentales des fluides MR (ex. : contrainte) [11]. Alors qu'en cisaillement pur, la contrainte des fluides MR est limitée à ∼100 kPa, des études récentes démontrent qu'elle peut être augmentée d'un ordre de grandeur (>1000 kPa) lorsque le fluide MR est soumis à une compression, avant d'être cisaillé [89]. La combinaison de la compression et du cisaillement du fluide MR pourrait ainsi décupler la densité de couple des embrayages MR, mais ce phénomène d'agrégation assistée par compression, aussi appelé squeeze-strengthening ou super-strong} (SS), est toujours très mal compris. Beaucoup d'incertitude persiste quant à l'origine exacte du phénomène [45], des conditions qui le favorisent [55] [75] et des effets qu'il engendre [31]. Dans le but ultime d'augmenter la densité de couple des embrayages MR à l'aide du phénomène SS, le présent projet de recherche vise à étudier le comportement rhéologique des fluides MR dans des conditions de compression et de cisaillement simultané afin d'en comprendre les conditions qui favorisent le phénomène d'augmentation des contraintes. Pour ce faire, un banc d'essai permettant la compression pure, le cisaillement pur et la compression-cisaillement simultanée des fluides MR est conçu et utilisé pour étudier le fluide MR lorsque soumis à des conditions de chargement typique des embrayages MR. Les résultats expérimentaux issus de cette vaste étude expérimentale permettront d'établir un lien direct entre ce phénomène et le celui de filtration, duquel un modèle prédictif sera proposé. À l'aide du modèle théorique, le phénomène SS sera étudié à l'aide de diverses compositions de fluide MR (ex. : concentration, taille des particules, viscosité) et différentes géométries de compression, ce qui permettra de valoriser le modèle pour la conception préliminaire d'embrayages MR qui exploitent le phénomène SS.
Resumo:
L'accélération des changements dans tous les domaines, qu'il s'agisse d'environnement, de technologies ou de la vie des sociétés humaines, est une donnée majeure de notre temps. Jusqu'au XIXe siècle, les hommes gardaient une relative maîtrise des révolutions, qu'elles soient techniques (la vapeur, l'électricité, l'atome, ... ) ou sociales (la démocratie, le communisme, etc). A la fin du XXe siècle, la complexité des sociétés humaines, le foisonnement des découvertes scientifiques rapidement exploitées par l'industrie à des fins économiques et l'interdépendance croissante de toutes les activités dans des écosystèmes fragilisés ont conduit les communautés humaines à davantage subir les révolutions: mondialisation d'une économie de plus en plus immatérielle, explosion de l'informatique dans tous les secteurs, évolution du climat, bouleversement des modes de vie et de la vie même (actions sur les génomes animaux, voire humains) ... Aussi, cette accélération des changements rend d'autant plus indispensable une capacité d'anticiper les tendances et les enjeux qui déterminent l'avenir afin de disposer d'une liberté de réflexion et d'action indépendante de la stricte contrainte des évènements.
Resumo:
La municipalité de Weedon, en Estrie, a récemment acquis un terrain vacant à proximité du village. La municipalité désire un développement intégrant le concept de développement durable dans le plan d’aménagement du terrain et dans la construction des infrastructures. L’objectif général de ce travail est de recommander à la municipalité de Weedon des moyens pour adapter l’écoquartier aux caractéristiques hydrographiques et biophysiques du milieu. Premièrement, le milieu biophysique et hydrographique est caractérisé grâce à l’analyse de données géospatiales et par photointerprétation de photographies aériennes. Le potentiel de développement est analysé grâce à l’outil ArcGIS afin de déterminer les zones propices à l’urbanisation ainsi que les zones à exclure. Il est recommandé de concentrer le développement du site dans la zone n’ayant aucune contrainte et de limiter la densité des habitations dans les espaces présentant des contraintes. Selon ces suggestions, il sera possible de développer environ 40 bâtiments sur le site. Deuxièmement, les systèmes de gestion des eaux usées (le système septique individuel, le système décentralisé et le système centralisé) sont décrits en fonction de leurs avantages, de leurs inconvénients et de leurs limites. Ces points sont ensuite comparés et la création d’un arbre de décision permet de recommander le système le mieux adapté au milieu. Les zones avec contraintes de développement devraient utiliser des systèmes de traitement septiques. Pour ce qui est de la zone sans contraintes, le système de traitement septique est recommandé uniquement si la densité est égale ou inférieure à 5 unités d’habitations par hectare. Si la densité désirée par la municipalité est plus élevée pour cette zone, le raccordement au système de traitement centralisé est recommandé. Troisièmement, les mesures de gestion des eaux pluviales sont présentées selon différentes caractéristiques adaptées au site. Leur recommandation est basée sur une analyse multicritère pondérée. Les pratiques de gestion optimales qui devraient être utilisées conjointement sur le site sont la collecte et la réutilisation de l’eau de pluie pour la gestion sur le site, la noue engazonnée avec drain pour la gestion en réseau et le marais artificiel pour la gestion en fin de réseau. Les recommandations présentées dans ce travail visent à privilégier des modes de développement alternatifs à l’urbanisation classique afin d’établir les bases pour le développement d’un quartier durable à Weedon.
Resumo:
Les langages de programmation typés dynamiquement tels que JavaScript et Python repoussent la vérification de typage jusqu’au moment de l’exécution. Afin d’optimiser la performance de ces langages, les implémentations de machines virtuelles pour langages dynamiques doivent tenter d’éliminer les tests de typage dynamiques redondants. Cela se fait habituellement en utilisant une analyse d’inférence de types. Cependant, les analyses de ce genre sont souvent coûteuses et impliquent des compromis entre le temps de compilation et la précision des résultats obtenus. Ceci a conduit à la conception d’architectures de VM de plus en plus complexes. Nous proposons le versionnement paresseux de blocs de base, une technique de compilation à la volée simple qui élimine efficacement les tests de typage dynamiques redondants sur les chemins d’exécution critiques. Cette nouvelle approche génère paresseusement des versions spécialisées des blocs de base tout en propageant de l’information de typage contextualisée. Notre technique ne nécessite pas l’utilisation d’analyses de programme coûteuses, n’est pas contrainte par les limitations de précision des analyses d’inférence de types traditionnelles et évite la complexité des techniques d’optimisation spéculatives. Trois extensions sont apportées au versionnement de blocs de base afin de lui donner des capacités d’optimisation interprocédurale. Une première extension lui donne la possibilité de joindre des informations de typage aux propriétés des objets et aux variables globales. Puis, la spécialisation de points d’entrée lui permet de passer de l’information de typage des fonctions appellantes aux fonctions appellées. Finalement, la spécialisation des continuations d’appels permet de transmettre le type des valeurs de retour des fonctions appellées aux appellants sans coût dynamique. Nous démontrons empiriquement que ces extensions permettent au versionnement de blocs de base d’éliminer plus de tests de typage dynamiques que toute analyse d’inférence de typage statique.
Resumo:
Ce mémoire de maîtrise traite de la théorie de la ruine, et plus spécialement des modèles actuariels avec surplus dans lesquels sont versés des dividendes. Nous étudions en détail un modèle appelé modèle gamma-omega, qui permet de jouer sur les moments de paiement de dividendes ainsi que sur une ruine non-standard de la compagnie. Plusieurs extensions de la littérature sont faites, motivées par des considérations liées à la solvabilité. La première consiste à adapter des résultats d’un article de 2011 à un nouveau modèle modifié grâce à l’ajout d’une contrainte de solvabilité. La seconde, plus conséquente, consiste à démontrer l’optimalité d’une stratégie de barrière pour le paiement des dividendes dans le modèle gamma-omega. La troisième concerne l’adaptation d’un théorème de 2003 sur l’optimalité des barrières en cas de contrainte de solvabilité, qui n’était pas démontré dans le cas des dividendes périodiques. Nous donnons aussi les résultats analogues à l’article de 2011 en cas de barrière sous la contrainte de solvabilité. Enfin, la dernière concerne deux différentes approches à adopter en cas de passage sous le seuil de ruine. Une liquidation forcée du surplus est mise en place dans un premier cas, en parallèle d’une liquidation à la première opportunité en cas de mauvaises prévisions de dividendes. Un processus d’injection de capital est expérimenté dans le deuxième cas. Nous étudions l’impact de ces solutions sur le montant des dividendes espérés. Des illustrations numériques sont proposées pour chaque section, lorsque cela s’avère pertinent.