28 resultados para contraintes

em Université Laval Mémoires et thèses électroniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte : Les effets cumulés des contraintes psychosociales du modèle déséquilibre efforts-reconnaissance (DER) sur la santé mentale sont peu connus. Aussi, peu d’études ont évalué les effets du DER sur des indicateurs objectifs de problèmes de santé mentale (PSM). Enfin, aucune étude prospective antérieure n’a évalué l’effet combiné des contraintes psychosociales du DER et du modèle demande-latitude (DL) et sur les PSM médicalement certifiés. La présente thèse vise à combler ces limites. Objectifs : 1) Mesurer l’effet de l’exposition cumulée au déséquilibre efforts-reconnaissance sur la prévalence de la détresse psychologique sur une période de cinq ans; 2) Mesurer l’effet du déséquilibre efforts-reconnaissance sur l’incidence des absences médicalement certifiées pour PSM sur une période de cinq ans; 3) Évaluer l’effet indépendant et l’effet combiné des contraintes psychosociales des modèles Demande-Latitude et Déséquilibre Efforts-Reconnaissance sur l’incidence des absences médicalement certifiées pour PSM sur une période de cinq ans. Méthodes : La cohorte était constituée de plus de 2000 hommes et femmes occupant des emplois de cols blancs. La collecte des données a été réalisée à trois reprises avec une moyenne de suivi de cinq ans. À chaque temps, les contraintes psychosociales et la détresse psychologique ont été mesurées à l’aide d’instruments validés. Les absences médicalement certifiées pour PSM ont été récoltées à partir des fichiers administratifs des employeurs. Les PSM ont été modélisés à l’aide des régressions log-binomiale et de Cox. Les analyses ont été réalisées séparément chez les hommes et les femmes, en ajustant pour les principaux facteurs de confusion. Résultats : Chez les hommes et les femmes, une exposition chronique au DER sur trois ans était associée à une prévalence plus élevée de la détresse psychologique. Les effets observés à trois ans ont persisté à cinq ans chez les hommes (Rapport de prévalence (RP)=1,91 (1,20–3,04)) et les femmes (RP=2,48 (1,97–3,11)). Ces effets étaient de plus grande amplitude que ceux observés en utilisant l’exposition initiale à l’entrée dans l’étude (de +0,30 à +0,94). Par ailleurs, les hommes et les femmes exposés au DER présentaient un risque plus élevé d’absences médicalement certifiées pour PSM (Risque relatif (RR)=1,38 (1,08–1,76)), comparés aux travailleurs non-exposés. La faible reconnaissance au travail était associée à un risque important d’absences pour PSM chez les hommes (RR=3,04 (1,46–6,33)) mais pas chez les femmes (RR=1,24 (0,90–1,72)). Chez les femmes uniquement, un effet indépendant du « job strain » (RR=1,50 (1,12–2,07)) et du DER (RR=1,34 (0,98–1,84)), ainsi qu’un effet de l’exposition combinée au « job strain » (demande psychologique élevée et faible latitude décisionnelle) et au DER (RR=1,97 (1,40–2,78)) sur le risque d’absences médicalement certifiées pour PSM ont également été observés. Conclusion : Les résultats de cette thèse supportent l’effet délétère de l’exposition au DER sur la prévalence de la détresse psychologique et sur le risque d’absences médicalement certifiées pour PSM chez les hommes et les femmes. Chez les hommes et les femmes, l’exposition cumulée au DER était associée à une prévalence élevée de la détresse psychologique à trois ans et à cinq ans. De plus, les contraintes psychosociales du DER ont été associées aux absences médicalement certifiés pour PSM. Chez les femmes particulièrement, un effet combiné du « job strain » et du DER était associé à un risque plus élevé d’absences médicalement certifiées pour PSM, que l’exposition à un seul des deux facteurs. Ces résultats suggèrent que la réduction des contraintes psychosociales au travail pourrait contribuer à réduire l’incidence des PSM, incluant les absences médicalement certifiées pour PSM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La question du pluralisme religieux est au Québec, l’objet de désaccords et de variations dans son mode de régulation et ses instruments d’action publique. La consultation publique sur le projet loi n° 94, Loi établissant les balises encadrant les demandes d’accommodement dans l’Administration gouvernementale et dans certains établissements, est au cœur de ceux-ci. En se basant sur l’analyse des séances d’auditions publiques en commission parlementaire qui ont eu lieu au Québec entre mai 2010 et janvier 2011 sur le projet de loi n° 94, cette thèse vise à interroger les enjeux liés à la publicisation des prises de positions et de l’échange d’arguments entre différents acteurs. À partir d’une méthodologie par théorisation enracinée et d’un cadre conceptuel qui se rattache à la communication publique, cette thèse cherche à mettre en évidence quelques-unes des propriétés des interactions verbales et non verbales qui composent et incarnent cette activité délibérative. Elle approche ces interactions du point de vue de leur publicisation en s’appuyant sur deux principes : la participation publique en tant qu’un instant de la construction du problème public et l’audition publique en commission parlementaire comme maillon d’un réseau dialogique qui participe à la publicisation du désaccord sur les accommodements raisonnables. Mettant l’accent sur l’usage du langage (verbal, non verbal et para verbal), l’objectif de cette thèse est de mieux comprendre comment des groupes minoritaires et majoritaires, engagés dans une arène publique où les points de vue par rapport aux accommodements raisonnables sont confrontés et mis en visibilité, gèrent leur situation de parole publique. La démarche de recherche a combiné deux stratégies d’analyse : la première stratégie d’inspiration conversationnelle, qui observe chaque séquence comme objet indépendant, a permis de saisir le déroulement des séances d’audition en respectant le caractère séquentiel des tours de parole La deuxième stratégie reviens sur les principaux résultats de l’analyse des séances d’auditions pour valider les résultats et parvenir à la saturation théorique pour élaborer une modélisation. L’exploitation des données selon cette approche qualitative a abouti au repérage de trois dynamiques. La première fait état des contraintes discursives. La seconde met en évidence le rôle des dimensions motivationnelles et socioculturelles dans la construction des positionnements et dans l’adoption d’un registre polémique. La troisième souligne la portée de la parole publique en termes d’actualisation des rapports de pouvoir et de confirmation de son caractère polémique. La modélisation proposée par cette thèse représente le registre polémique comme un élément constitutif de l’engagement argumentatif des acteurs sociaux mais qui est considérablement enchâssé dans d’autres éléments contextuels et motivationnels qui vont orienter sa portée. En tant qu’elle est exprimée dans un site dialogique, la parole publique en situation d’audition publique en commission parlementaire est en mesure de créer de nouvelles intrigues et d’une possibilité de coexister dans le dissensus. Le principal apport de cette thèse est qu’elle propose une articulation, concrète et originale entre une approche de la parole publique en tant que révélatrice d’autre chose que d’elle-même (nécessaire à tout éclaircissement des points de vue dans cette controverse) et une approche de la parole publique en tant que performance conduisant à la transformation du monde social. D’où, le titre de la thèse : la parole en action. Mots clefs : parole publique, discours, arène publique, pluralisme religieux, accommodements raisonnables, controverses, dissensus, théorisation enracinée

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fromage Mozzarella entre dans la composition de plusieurs mets populaires d’Amérique du Nord. L’aptitude de ce fromage à être râpé et ses propriétés caractéristiques de cuisson en font un ingrédient idéal. Ces qualités sont attribuées principalement aux propriétés physiques particulières de ce fromage sous certaines conditions de cisaillement et de température. Le but de ce projet était d’évaluer l’impact de différentes stratégies couramment mises en oeuvre dans l’industrie fromagère sur la composition, la microstructure et les propriétés physiques du fromage. Diverses stratégies ont été étudiées : les conditions de filage du caillé lors du procédé de « pasta filata », l’addition de protéines sériques dénaturées, le contrôle de la minéralisation et le vieillissement du fromage. Les résultats ont démontré que le contrôle de l’intensité mécanique et thermique fournie lors du filage permettait respectivement de réduire les pertes de solides et d’améliorer la répartition de la phase aqueuse dans la matrice fromagère. L’aptitude au râpage du fromage peut être optimisée en combinant l’utilisation de plusieurs stratégies dont la réduction du calcium colloïdal, un temps de vieillissement adéquat et un râpage à basse température. Par ailleurs, des changements aux facteurs mentionnés précédemment sont apportés lors de l’ajout de protéines sériques dénaturées, ces dernières ayant un impact sur la composition et la structure du fromage. Des modèles prédictifs de l’aptitude au râpage ont été développés en sélectionnant uniquement les descripteurs de composition et de texture pertinents. La perception sensorielle du fromage cuit sur pizza et les propriétés physiques du fromage fondu ont été considérablement influencées par l’évolution physico-chimique du fromage au cours du vieillissement. L’utilisation d’une nouvelle approche pour la caractérisation des propriétés rhéologiques du fromage fondu sous fortes contraintes a permis d’établir de bonnes relations avec les descripteurs sensoriels de texture. Ce travail a permis de valider l’hypothèse que l’utilisation d’une ou plusieurs stratégies simples et accessibles pouvait être mise de l’avant afin d’optimiser les propriétés physiques du fromage Mozzarella. Cela contribue à une meilleure compréhension des facteurs pouvant être contrôlés afin de développer des fromages avec des attributs spécifiques, lorsqu’utilisés comme ingrédient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise présente les résultats de l’analyse ergonomique centrée sur l’activité de quatre préposées aux bénéficiaires (PAB) travaillant dans trois centres d’hébergement et de soins de longue durée (CHSLD) et ayant reçu la formation à l’approche relationnelle de soins (ARS). L’hypothèse spécifique de ce projet est que des facteurs de l’environnement de travail des PAB influencent la mise en œuvre des principes enseignés lors de la formation à l’ARS. Pour ce faire, une étude de cas en profondeur par observation in situ a été réalisée auprès de quatre PAB. 44 soins d’hygiène en ont été extraits, puis analysés à l’aide d’une grille d’objectivation de l’ARS. Des entretiens post-soin semi structurés ont été réalisés avec chaque PAB, afin de recueillir leur perception du soin réalisé. Des entretiens d’autoconfrontation ont complété l’étude. Les résultats montrent que les éléments de l’ARS les plus souvent mis en œuvre sont principalement reliés à la création de la bulle relationnelle et la communication alors que ceux qui sont les moins souvent mis en œuvre concernent le toucher et le maintien des capacités du résident. La connaissance préalable du résident ressort comme un facteur-clé facilitant la mise en œuvre de l’ARS. Les PAB se soucient toujours de l’environnement physique, mais elles le perçoivent comme un facteur nuisible à l’ARS, dont elles doivent se préoccuper continuellement. Les contraintes temporelles perçues constituent pour certaines une entrave à la mise en œuvre de l’ARS, alors que pour celles qui ont intégré l’ARS dans leur quotidien, elle leur permet de gagner du temps. Notre étude comporte toutefois certaines limites. Ainsi, certains éléments de la grille n’ont pu être évalués étant donné le non accès aux dossiers des résidents. La grille d’objectivation et le questionnaire post-soin se sont parfois avérés imprécis; les verbalisations des PAB ont alors permis d’éclaircir les résultats bruts. Les outils pourraient être plus sensibles à la mise en œuvre de l’ARS dans le travail réel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les lasers à fibre de haute puissance sont maintenant la solution privilégiée pour les applications de découpe industrielle. Le développement de lasers pour ces applications n’est pas simple en raison des contraintes qu’imposent les normes industrielles. La fabrication de lasers fibrés de plus en plus puissants est limitée par l’utilisation d’une fibre de gain avec une petite surface de mode propice aux effets non linéaires, d’où l’intérêt de développer de nouvelles techniques permettant l’atténuation de ceux-ci. Les expériences et simulations effectuées dans ce mémoire montrent que les modèles décrivant le lien entre la puissance laser et les effets non linéaires dans le cadre de l’analyse de fibres passives ne peuvent pas être utilisés pour l’analyse des effets non linéaires dans les lasers de haute puissance, des modèles plus généraux doivent donc développés. Il est montré que le choix de l’architecture laser influence les effets non linéaires. En utilisant l’équation de Schrödinger non linéaire généralisée, il a aussi été possible de montrer que pour une architecture en co-propagation, la diffusion Raman influence l’élargissement spectral. Finalement, les expériences et les simulations effectuées montrent qu’augmenter la réflectivité nominale et largeur de bande du réseau légèrement réfléchissant de la cavité permet d’atténuer la diffusion Raman, notamment en réduisant le gain Raman effectif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les pratiques culturelles des Québécois et des Québécoises et, plus spécifiquement dans un premier temps, sur les facteurs qui les influencent. Elle traite ensuite des comparaisons entre les individus selon les générations et les cycles de vie. Finalement, elle porte sur les découpages territoriaux régionaux sur le plan des pratiques culturelles et sur les questions liées au territoire. Tous les résultats sont tirés des enquêtes sur les pratiques culturelles au Québec menées à tous les cinq ans depuis 1979 par les ministères en charge de la culture. Les deux principaux référents théoriques sont la théorie de la légitimité de Bourdieu et la figure de l’omnivore de Peterson. Dans la première partie, cette thèse a cherché à savoir si les usages d’Internet sont associés à une ouverture culturelle ou à un confinement. Les résultats montrent que l’âge, la scolarité et les usages culturels que l’on fait d’Internet sont des prédicteurs importants des visites des lieux culturels et des sorties au spectacle. Les modèles qui incluent les usages d’Internet et des variables sociodémographiques sont plus performants que ceux ne considérant que ces dernières. Dans la deuxième partie, les quasi-cohortes à l’étude ont été comparées afin de voir si leurs comportements culturels diffèrent selon les cycles de vie et si leur parcours culturel a varié dans le temps. Finalement, la diversification des pratiques des quasi-cohortes a été étudiée afin d’estimer si elles deviennent plus omnivores avec le temps et d’une quasi-cohorte à l’autre. Le modèle explicatif créé affiche des différences dans le parcours culturel selon les cycles de vie, de même qu’au fil du temps. Il met également en lumière des différences d’une génération à l’autre, de même que des différences entre les générations lorsqu’elles traversent un même cycle de vie. À la différence de ceux de Peterson (2004), les résultats ne permettent pas de conclure que les quasi-cohortes plus âgées sont plus omnivores qu’avant ni que les jeunes sont plus omnivores que leurs aînés. La troisième partie de ce travail avait un objectif comparatif : il s’agissait de voir si les régions administratives du Québec, lorsqu’elles sont étudiées sous l’angle des pratiques culturelles, se regroupent conformément à la typologie des espaces culturels régionaux développée par Harvey et Fortin (1995) sur la base de l’offre culturelle. Les résultats montrent que les regroupements ne sont pas toujours conformes à la typologie et que les pratiques sont très hétérogènes, ce qui permet difficilement d’établir une constance dans les regroupements. Aussi semble-t-il indiqué de fonder la comparaison des territoires sur la prise en compte de l’objet (p. ex. offre ou pratique culturelle), de l’échelle territoriale (p. ex. bibliothèque municipale ou musée national) et de la nature du produit ou de la pratique (p. ex. mobile ou immobile). En conclusion, la pertinence d’élargir l’horizon des pratiques culturelles mesurées dans les enquêtes et d’y inclure des phénomènes transcendants, comme les valeurs, les contraintes et la motivation a été remise en question. À titre d’exemple, l’étude de la motivation pourrait permettre de préciser la figure de l’omnivore au Québec. Il est également apparu pertinent de poursuivre la réflexion en étudiant la manière dont les pratiques culturelles sont consommées afin de voir si, et comment, le cas échéant, s’opère la distinction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réalité veut que beaucoup de personnes en fin de vie meurent dans des unités de soins aigus. Aussi, les infirmières qui travaillent dans ce milieu ont à prodiguer des soins infirmiers à une clientèle à la fois de soins aigus et de soins palliatifs. Par contre, celles-ci ont à faire face, entre autres, à des contraintes et obstacles organisationnels et environnementaux qui viennent compliquer la prestation de soins infirmiers palliatifs au travers d’une clientèle majoritairement de soins aigus. Il importe donc de savoir comment elles y parviennent. Cette étude exploratoire descriptive a pour but d’explorer et de décrire les stratégies que les infirmières de milieux de soins aigus déploient pour favoriser une pratique optimale de soins palliatifs de fin de vie. Le cadre de référence utilisé est le profil des compétences générales et spécifiques en soins palliatifs attribué aux infirmières du MSSS (2008). Huit participantes (infirmières) travaillant dans des unités de médecine et de cardiologie dans les établissements du CHU de Québec ont été rencontrées. Beaucoup de stratégies ont été identifiées, dont une plus propice à ce milieu soit, « Optimiser le temps passé auprès du patient et sa famille ». La stratégie « Faire de l’enseignement et donner aux proches de l’information » est celle qui revient le plus souvent dans le discours de ces infirmières. Également, on note des divergences quant aux obstacles et aux facteurs favorables mentionnés dans la littérature générale en soins palliatifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, il est analysé la place que jouent les femmes dans l’espace public burkinabè à travers leurs activités dans le secteur informel et dans les associa-tions de 1983 à 2008. Après avoir analysé les grandes lignes de la politique de Tho-mas Sankara, il est étudié les réactions positives et négatives des femmes. Par la suite, nous analysons la continuité de la politique de Blaise Compaoré par rapport à celle de son prédécesseur et nous voyons dans quelle mesure certaines femmes, commerçantes et membres d’associations, parviennent à se frayer une place plus importante dans la vie économique à travers le secteur informel, à changer leur statut dans leurs familles respectives et à jouer du programme politique de l’État. Ces itinéraires féminins per-mettent de parler d’agency des femmes, mais sans que cela aboutisse à un réel empo-werment au regard des contraintes sociales qui demeurent fortes et des conditions économiques qui se sont aggravées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’émergence du Web 2.0 se matérialise par de nouvelles technologies (API, Ajax…), de nouvelles pratiques (mashup, geotagging…) et de nouveaux outils (wiki, blog…). Il repose principalement sur le principe de participation et de collaboration. Dans cette dynamique, le Web à caractère spatial et cartographique c’est-à-dire, le Web géospatial (ou GéoWeb) connait lui aussi de fortes transformations technologiques et sociales. Le GéoWeb 2.0 participatif se matérialise en particulier par des mashups entre wikis et géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). Les nouvelles applications nées de ces mashups évoluent vers des formes plus interactives d’intelligence collective. Mais ces applications ne prennent pas en compte les spécificités du travail collaboratif, en particulier la gestion de traçabilité ou l’accès dynamique à l’historique des contributions. Le Geodesign est un nouveau domaine fruit de l’association des SIG et du design, permettant à une équipe multidisciplinaire de travailler ensemble. Compte tenu de son caractère émergent, le Geodesign n’est pas assez défini et il requiert une base théorique innovante, de nouveaux outils, supports, technologies et pratiques afin de s’adapter à ses exigences complexes. Nous proposons dans cette thèse de nouvelles fonctionnalités de type WikiSIG, bâties sur les principes et technologies du GéoWeb 2.0 et visant en particulier à supporter la dimension collaborative du processus de Geodesign. Le WikiSIG est doté de fonctionnalités wiki dédiées à la donnée géospatiale (y compris dans sa composante géométrique : forme et localisation) permettant d’assurer, de manière dynamique, la gestion documentée des versions des objets et l’accès à ces versions (et de leurs métadonnées), facilitant ainsi le travail collaboratif en Geodesign. Nous proposons également la deltification qui consiste en la capacité de comparer et d’afficher les différences entre deux versions de projets. Finalement la pertinence de quelques outils du géotraitement et « sketching » est évoquée. Les principales contributions de cette thèse sont d’une part d’identifier les besoins, les exigences et les contraintes du processus de Geodesign collaboratif, et d’autre part de proposer des nouvelles fonctionnalités WikiSIG répondant au mieux à la dimension collaborative du processus. Pour ce faire, un cadre théorique est dressé où nous avons identifié les exigences du travail collaboratif de Geodesign et proposé certaines fonctionnalités WikiSIG innovantes qui sont par la suite formalisés en diagrammes UML. Une maquette informatique est aussi développée de façon à mettre en oeuvre ces fonctionnalités, lesquelles sont illustrées à partir d’un cas d’étude simulé, traité comme preuve du concept. La pertinence de ces fonctionnalités développées proposées est finalement validée par des experts à travers un questionnaire et des entrevues. En résumé, nous montrons dans cette thèse l’importance de la gestion de la traçabilité et comment accéder dynamiquement à l’historique dans un processus de Geodesign. Nous proposons aussi d’autres fonctionnalités comme la deltification, le volet multimédia supportant l’argumentation, les paramètres qualifiant les données produites, et la prise de décision collective par consensus, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire expose les résultats d’une étude de la performance des chantiers ouverts dans un contexte de mines profondes ayant été effectuée dans le cadre du projet de recherche « Mines profondes : défis d’exploitation et impacts sur la récupération minéralurgique » réalisé par le département de génie des mines, de la métallurgie et des matériaux de l’Université Laval. Les données utilisées dans le cadre de cette étude sont en lien avec la planification et l’exploitation de plus de mille chantiers minés entre 860 et 2 450 m de profondeur à la mine souterraine LaRonde de Mines Agnico Eagle, la plus profonde actuellement de l’hémisphère ouest. On y présente une revue de la littérature qui fait la description des problématiques de dilution et de pertes opérationnelles de la réserve minérale liées à la performance des chantiers ouverts ainsi que de leurs conséquences sur les projets miniers. Une comparaison des performances planifiées et réalisées au site de LaRonde y est présentée, ainsi que les résultats d’analyses statistiques ayant permis de montrer que la variation du ratio des contraintes in situ avec la profondeur est un facteur d’influence significatif de la performance des chantiers. L’effet de ce facteur d’influence y est aussi illustré et validé à l’aide d’une série de modèles numériques. Le mémoire présente également une première approche visant à développer un modèle d’évaluation de la dilution dans les chantiers ouverts qui prend en compte la profondeur de minage. Finalement, afin d’améliorer la précision de l’estimation de la réserve minérale lors de l’évaluation de projets miniers, une méthodologie d’estimation intégrant le modèle d’évaluation proposé est présentée pour les projets dont les contextes géologique, géotechnique et opérationnel sont comparables à ceux du site de LaRonde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un contexte climatique rigoureux comme celui du Québec, l’interaction entre la charge et le climat a une grande influence sur la performance des structures de chaussées flexibles (Doré et Zubeck, 2009). Pendant le dégel printanier, avec la fonte de la glace, la chaussée s’affaiblit et cet affaiblissement la rend vulnérable à la sollicitation par le trafic lourd ce qui accélère divers phénomènes de dégradation, notamment l’endommagement par fatigue et l’orniérage structural (Farcette, 2010). Afin de minimiser les effets des charges lourdes sur une chaussée affaiblie lors du printemps, les administrations routières choisissent souvent de limiter les charges par essieu ou par véhicule lors du dégel. L’objectif de ce projet est de développer un outil d’aide pour la gestion des restrictions de charge en période de dégel en fonction des données recueillies par les stations de météo routière. Deux sections expérimentales composées des mêmes matériaux mais avec des épaisseurs d’enrobés bitumineux différentes situées au Site Expérimental Routier de l’Université Laval (SERUL) ont été utilisées pour ce projet. Pour bien interpréter le comportement des structures, des jauges de déformations verticales et horizontales, des jauges de contraintes, des jauges de teneur en eau et des thermistances ont été installées dans chaque couche. Pour solliciter mécaniquement la chaussée, un déflectomètre à masse tombante (FWD) a été utilisé. Les résultats obtenus ont permis de de bien comprendre les mécanismes d’affaiblissement de la chaussée durant la période de dégel. Ils ont aussi montré que l’application d’une période de restriction de charge pendant la période de dégel permettait d’avoir un gain sur la durée de vie de la chaussée, cette période de restriction est donc justifiée et efficace. Néanmoins, pour une meilleure gestion du réseau routier, de nouveaux critères pour mieux déterminer la période de restriction de charges sont proposés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude qualitative visait à décrire l’expérience de mères québécoises vivant une grossesse à risque élevé dans le contexte d’une hospitalisation prolongée avec alitement et leur appréciation des soins reçus, deux aspects peu étudiés jusqu’à maintenant. Des entrevues individuelles semi-dirigées ont été effectuées auprès de huit mères hospitalisées et alitées depuis 30 jours en moyenne. Un devis qualitatif d’inspiration phénoménologique (Giorgi 1997, 2009) a été utilisé pour l’analyse des données, d’où a émergé 24 sous-thèmes, sept thèmes et deux énoncés descriptifs. Les résultats de recherche mettent en évidence la réalité évolutive et complexe des mères dans laquelle elles rapportent : 1) Passer du choc à l’ennui, du chaos à la réorganisation et de l’incompréhension à la compréhension ; 2) Avoir une nouvelle vie remplie de contraintes, de difficultés et de craintes ; 3) Vivre essentiellement des émotions négatives ; 4) Être orientée vers le futur tout en persévérant dans le présent. Les mères qualifient les soins prénataux reçus de techniques routinières, peu nombreuses et faciles à exécuter. Ils comportent deux principales lacunes : les oublis occasionnels et l’absence d’activités prénatales éducatives. Le manque de régularité et de constance dans l’assignation des infirmières aux mères hospitalisées est aussi relevé. Toutefois, à travers ces lacunes, les participantes soulignent les grandes forces du personnel soignant : l’humanisme, la gentillesse et la compétence. Les résultats de cette étude offrent une description approfondie de l’expérience subjective de huit mères, laquelle permet de perfectionner les connaissances des professionnels de la santé et de les sensibiliser davantage à ce vécu. Ces retombées peuvent contribuer à humaniser et à améliorer les soins périnataux actuels.