57 resultados para Mesure de la performance
Resumo:
L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.
Resumo:
Un nombre grandissant d’enfants en bas âge pratique un seul sport tout au long de l’année (American Academy of Pediatrics, 2000). Cette pratique, communément appelée la spécialisation hâtive, est pour plusieurs parents, entraineurs et enfants la meilleure façon d’atteindre les plus hauts niveaux de performance (rangs professionnels, compétitions internationales, bourses d’études universitaires, etc.). Toutefois, plusieurs études portant sur la performance et le développement de l’athlète proposent une alternative à la spécialisation hâtive : la spécialisation tardive (Güllich et Emrich, 2006; Lidor et Lavyan, 2002; Moesch, Elbe, Hauge et Wikman, 2011), qui est issue du modèle de la participation sportive de Côté, Baker et Abernethy (2007) et qui propose une spécialisation dans un seul sport seulement durant l’adolescence. Cette voie permettrait d’atteindre d’aussi hauts niveaux de performance, mais sans les conséquences négatives de la spécialisation hâtive. Parmi ces conséquences, Mostafavifar, Best et Myer (2013) ont émis l’hypothèse que la voie de la spécialisation hâtive mènerait à une limitation du développement des habiletés motrices. Venant ajouter à ce postulat, Fransen et ses collaborateurs (2012) ont démontré que les enfants ayant une pratique sportive diversifiée présentaient de meilleures aptitudes physiques (saut vertical et coordination). Par rapport à ces deux voies de développement, plusieurs modèles de développement (Balyi, Way et Higgs, 2013; Côté et al., 2007; Gulbin, Croser, Morley et Weissensteiner, 2013) proposent une troisième voie, la participation récréative, qui a pour finalité le maintien d’une bonne condition physique à long terme et dans laquelle le participant peut s’orienter (consciemment ou inconsciemment) dès son jeune âge ou après avoir suivi l’une des voies de la performance sportive. Devant cette diversité de voies de développement et en s’inspirant de l’hypothèse de Mostafavifar et autres (2013) selon laquelle la spécialisation hâtive mènerait à une limitation du développement des habiletés motrices et des résultats de Fransen et autres (2012) concernant les aptitudes physiques, le premier objectif est d’identifier les indicateurs du vécu sportif du participant (tels que l’âge de début du sport, le nombre de sports pratiqués, le volume d’entrainement de chacun des sports, la durée de la pratique de chacun des sports, le volume total d’entrainement et le niveau atteint dans chacun des sports) permettant d’expliquer un meilleur niveau de certaines habiletés motrices. Le deuxième objectif est de décrire la pratique sportive des étudiants et étudiantes selon les indicateurs du vécu sportif. L’hypothèse principale est qu’un participant s’inscrivant dans la voie de la performance sportive (spécialisation hâtive ou spécialisation tardive) peut diminuer ses chances de maintenir une bonne condition physique à long terme à cause d’une limitation du développement de ses habiletés motrices. Les habiletés motrices et les aptitudes physiques de 154 étudiantes et étudiants actifs en éducation physique et à la santé et en kinésiologie ont été mesurées. Le questionnaire (annexe F) a permis de quantifier certains indicateurs du vécu sportif des participants, soit (a) l’âge de début du sport, (b) le nombre de sports pratiqués, (c) le volume d’entrainement de chacun des sports, (d) la durée de la pratique de chacun des sports, (e) le volume total d’entrainement total et (f) le niveau atteint dans chacun des sports. Une analyse sommaire du questionnaire a permis d’obtenir deux autres indicateurs, soit (g) le pourcentage du volume total occupé par chacun des sports et (h) l’index des sports pratiqués (basé sur le nombre d’habiletés motrices stimulées par le sport et le nombre de sports). Le dernier indicateur, (i) les aptitudes physiques, a été calculé durant les tests physiques. Une analyse de régression multiple a été utilisée afin d’identifier parmi ces variables indépendantes le plus petit nombre d’entre elles qui explique le mieux la variabilité de la maitrise des habiletés motrices. Concernant le premier objectif, les résultats révèlent que les aptitudes physiques et l’index des sports pratiqués seraient les variables expliquant le mieux la variabilité des habiletés motrices d’un participant. Ces résultats montrent qu’il est préférable d’être génétiquement avantagé en termes d’aptitudes physiques afin d’avoir de bonnes habiletés motrices. Mais au-delà de la génétique, il demeure essentiel de solliciter les aptitudes physiques afin de les développer à leur plein potentiel (par exemple : un coureur peut avoir une excellente aptitude physique d’endurance cardiovasculaire, mais il ne pourra pas gagner de course s’il ne la sollicite pas à l’entrainement). De plus, afin de développer ses habiletés motrices, le participant devrait s’inscrire dans un parcours sportif qui lui permet de stimuler un grand nombre d’habiletés motrices, ce qui veut dire qu’au-delà du nombre de sports qu’il aura pratiqués, c’est le nombre d’habiletés motrices qu’il aura stimulées durant son vécu sportif qui lui permettra de développer ses habiletés motrices. Nos résultats viennent ainsi nuancer le postulat que la spécialisation hâtive peut mener à une limitation du développement des habiletés motrices (Mostafavifar et al., 2013) puisqu’un athlète s’étant spécialisé hâtivement dans un sport qui stimule plusieurs habiletés motrices devrait posséder un meilleur bagage d’habiletés motrices que celui ayant pratiqué plusieurs sports qui, au bout du compte, auront stimulé peu d’habiletés motrices (demi-fond, sprint, aviron, haies, bobsleigh, etc.). En ce qui a trait à l’hypothèse principale, nos résultats nous permettent d’avancer qu’un athlète s’inscrivant dans une voie de la performance sportive devrait être en mesure de maintenir une bonne condition physique à long terme si son vécu sportif a stimulé plusieurs habiletés motrices.
Développement des bétons autoplaçants à faible teneur en poudre, Éco-BAP: formulation et performance
Resumo:
Abstract : Although concrete is a relatively green material, the astronomical volume of concrete produced worldwide annually places the concrete construction sector among the noticeable contributors to the global warming. The most polluting constituent of concrete is cement due to its production process which releases, on average, 0.83 kg CO[subscript 2] per kg of cement. Self-consolidating concrete (SCC), a type of concrete that can fill in the formwork without external vibration, is a technology that can offer a solution to the sustainability issues of concrete industry. However, all of the workability requirements of SCC originate from a higher powder content (compared to conventional concrete) which can increase both the cost of construction and the environmental impact of SCC for some applications. Ecological SCC, Eco-SCC, is a recent development combing the advantages of SCC and a significantly lower powder content. The maximum powder content of this concrete, intended for building and commercial construction, is limited to 315 kg/m[superscript 3]. Nevertheless, designing Eco-SCC can be challenging since a delicate balance between different ingredients of this concrete is required to secure a satisfactory mixture. In this Ph.D. program, the principal objective is to develop a systematic design method to produce Eco-SCC. Since the particle lattice effect (PLE) is a key parameter to design stable Eco-SCC mixtures and is not well understood, in the first phase of this research, this phenomenon is studied. The focus in this phase is on the effect of particle-size distribution (PSD) on the PLE and stability of model mixtures as well as SCC. In the second phase, the design protocol is developed, and the properties of obtained Eco-SCC mixtures in both fresh and hardened states are evaluated. Since the assessment of robustness is crucial for successful production of concrete on large-scale, in the final phase of this work, the robustness of one the best-performing mixtures of Phase II is examined. It was found that increasing the volume fraction of a stable size-class results in an increase in the stability of that class, which in turn contributes to a higher PLE of the granular skeleton and better stability of the system. It was shown that a continuous PSD in which the volume fraction of each size class is larger than the consecutive coarser class can increase the PLE. Using such PSD was shown to allow for a substantial increase in the fluidity of SCC mixture without compromising the segregation resistance. An index to predict the segregation potential of a suspension of particles in a yield stress fluid was proposed. In the second phase of the dissertation, a five-step design method for Eco-SCC was established. The design protocol started with the determination of powder and water contents followed by the optimization of sand and coarse aggregate volume fractions according to an ideal PSD model (Funk and Dinger). The powder composition was optimized in the third step to minimize the water demand while securing adequate performance in the hardened state. The superplasticizer (SP) content of the mixtures was determined in next step. The last step dealt with the assessment of the global warming potential of the formulated Eco-SCC mixtures. The optimized Eco-SCC mixtures met all the requirements of self-consolidation in the fresh state. The 28-day compressive strength of such mixtures complied with the target range of 25 to 35 MPa. In addition, the mixtures showed sufficient performance in terms of drying shrinkage, electrical resistivity, and frost durability for the intended applications. The eco-performance of the developed mixtures was satisfactory as well. It was demonstrated in the last phase that the robustness of Eco-SCC is generally good with regards to water content variations and coarse aggregate characteristics alterations. Special attention must be paid to the dosage of SP during batching.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
L'industrie du ciment est l'une des principales sources d'émission de dioxyde de carbone. L'industrie mondiale du ciment contribue à environ 7% des émissions de gaz à effet de serre dans l'atmosphère. Afin d'aborder les effets environnementaux associés à la fabrication de ciment exploitant en permanence les ressources naturelles, il est nécessaire de développer des liants alternatifs pour fabriquer du béton durable. Ainsi, de nombreux sous-produits industriels ont été utilisés pour remplacer partiellement le ciment dans le béton afin de générer plus d'économie et de durabilité. La performance d'un additif de ciment est dans la cinétique d'hydratation et de la synergie entre les additions et de ciment Portland. Dans ce projet, deux sous-produits industriels sont étudiés comme des matériaux cimentaires alternatifs: le résidu de silice amorphe (RSA) et les cendres des boues de désencrage. Le RSA est un sous-produit de la production de magnésium provenant de l'Alliance Magnésium des villes d'Asbestos et Thedford Mines, et les cendres des boues de désencrage est un sous-produit de la combustion des boues de désencrage, l'écorce et les résidus de bois dans le système à lit fluidisé de l'usine de Brompton située près de Sherbrooke, Québec, Canada. Récemment, les cendres des boues de désencrage ont été utilisées comme des matériaux cimentaires alternatifs. L'utilisation de ces cendres comme matériau cimentaire dans la fabrication du béton conduit à réduire la qualité des bétons. Ces problèmes sont causés par des produits d'hydratation perturbateurs des cendres volantes de la biomasse quand ces cendres sont partiellement mélangées avec du ciment dans la fabrication du béton. Le processus de pré-mouillage de la cendre de boue de désencrage avant la fabrication du béton réduit les produits d'hydratation perturbateurs et par conséquent les propriétés mécaniques du béton sont améliorées. Les approches pour étudier la cendre de boue de désencrage dans ce projet sont : 1) caractérisation de cette cendre volante régulière et pré-humidifiée, 2) l'étude de la performance du mortier et du béton incorporant cette cendre volante régulière et pré-humidifiée. Le RSA est un nouveau sous-produit industriel. La haute teneur en silice amorphe en RSA est un excellent potentiel en tant que matériau cimentaire dans le béton. Dans ce projet, l'évaluation des RSA comme matériaux cimentaires alternatifs compose trois étapes. Tout d'abord, la caractérisation par la détermination des propriétés minéralogiques, physiques et chimiques des RSA, ensuite, l'optimisation du taux de remplacement du ciment par le RSA dans le mortier, et enfin l'évaluation du RSA en remplacement partiel du ciment dans différents types de béton dans le système binaire et ternaire. Cette étude a révélé que le béton de haute performance (BHP) incorporant le RSA a montré des propriétés mécaniques et la durabilité, similaire du contrôle. Le RSA a amélioré les propriétés des mécaniques et la durabilité du béton ordinaire (BO). Le béton autoplaçant (BAP) incorporant le RSA est stable, homogène et a montré de bonnes propriétés mécaniques et la durabilité. Le RSA avait une bonne synergie en combinaison de liant ternaire avec d'autres matériaux cimentaires supplémentaires. Cette étude a montré que le RSA peut être utilisé comme nouveaux matériaux cimentaires dans le béton.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Les problèmes de santé mentale liés au travail connaissent une forte croissance dans notre société. Les entreprises sont de plus en plus axées vers la performance autant individuelle qu'organisationnelle (Brun, 2003) en raison des conditions socio-économiques actuelles, du développement de nouvelles technologies et de la mondialisation. Ainsi, on demande de produire davantage avec moins. Cet état de fait entraîne alors une augmentation de l'apparition de ces troubles. Les gens sont appelés à se surpasser, à constamment aller au-delà de leurs capacités afin d'être concurrentiels. Les emplois sont également précaires, instables et les conditions de travail sont parfois difficiles. Autrefois, les hommes et les femmes ne connaissaient pas cette réalité. Ils pouvaient occuper même un emploi, au sein de la même entreprise et ce , tout au long de leur carrière. Leurs parcours étaient habituellement stables et linéaires (Bourdon, 2006). Toutefois, de nos jours, notre société axée sur l'économie du savoir amène les individus à s'adapter aux changements continuels et à acquérir de nouvelles connaissances pour assurer leur compétence en emploi. De ce fait, une conséquence majeure de la transformation du travail est la rupture du contrat psychologique traditionnel entre les personnes et les organisations. Le concept d'employabilité repose maintenant sur la sécurité en emploi et la responsabilité personnelle face à sa gestion de carrière (Lamoureux, 2000). Par conséquent, les individus n'ont plus les mêmes attentes envers leur organisation. Aujourd'hui, ils ne peuvent qu'espérer acquérir de l'expérience et avoir l'opportunité d'apprendre (Ibid.). Par ailleurs, une autre problématique qui découle de cette transformation est que la précarité et par le fait même, la pauvreté, peuvent désormais toucher tout individu, peu importe le niveau de scolarisation ou le secteur d'emploi (Bourdon, 2006). Ainsi, peu de gens sont à l'abri des changements pouvant survenir dans leur emploi, ce qui engendre parfois des effets néfastes sur la santé mentale des individus. Par conséquent, dans la littérature, certains chercheurs et chercheures (Brun, Biron et Ivers, 2007 ; Dion et Tessier, 1994 ; Maslach, Schaufeli et Leiter, 2001 ; Vézina et Bourbonnais, 2001) croient que les organisations et l'environnement de travail sont les principaux responsables des problèmes de santé psychologique au travail. Comme il a été mentionné précédemment, les technologies qui évoluent sans cesse, les modifications au travail, les fusions et les réorganisations internes font partie du quotidien des gestionnaires, des travailleuses et des travailleurs (Brun, 2003). Les individus doivent composer avec ces changements, qui engendrent parfois des problèmes de santé psychologique. Ils peuvent également vivre des tensions au travail, notamment par la surcharge de travail, par le manque de reconnaissance et par le manque de sollicitation dans la prise de décisions (Ibid.). Outre les changements organisationnels, certaines caractéristiques personnelles viennent influencer la manière dont un idividu réagit face à des situations difficiles. Le type de personnalité, le sexe et l'âge sont des caractéristiques qui peuvent rendre un individu plus vulnérable qu'un autre (Brun, 2003). Certaines personnes vivent également des problèmes personnels, conjugaux, financiers ou familiaux qui affectent leur travail. Ces différents facteurs sont alors susceptibles d'avoir un impact sur la santé mentale des individus. Face à cette problématique, Limoges (2001) et ses collaboratrices et ses collaborateurs (Caron, 1999 ; Cordeau, 1999 ; Lamarche, 2006 ; Langouche, 2004) ont voulu étudier le phénomène sous la forme préventive, du point de vue de la psychologie positive. Ils ont remarqué que malgré le fait que les problèmes de santé psychologique sont en hausses, bon nombre de travailleuses et travailleurs réussissaient quand même à se maintenir sainement au travail. Par conséquent, des chercheures et chercheurs (Caron, 1999 ; Cordeau, 1999 ; Lamarche, 2006 ; Langouche, 2004 ; Limoges, 2001) ont voulu connaître les stratégies de maintien des individus en bonne santé afin d'aider les plus souffrants à adopter de saines habitudes au travail. Pour ce faire, Caron (1999) a mené une recherche sur les stratégies utilisées par un groupe d'enseignants et d'enseignantes favorisant leur maintien professionnel. Cette étude a donné lieu à une taxinomie jusqu'à lors inexistante, représentant les stratégies utilisées par les individus afin de gérer les deux pôles du maintien, soit l'épuisement et l'obsolescence. Ensuite, Limoges (2001) a développé le paradigme du maintien professionnel, illustrant l'opposition entre ces deux pôles. Le modèle a également permis de décrire trois types de profils au travail, soit le maintien, l'épuiisement et l'obsolescence. Puis Langouche (2004) a repris le paradigme de Limoges dans son étude auprès d'un échantillon de travailleuses et de travailleurs belges afin d'estimer la répartition de ces sujets selon quatre profils de maintien (maintien, épuisement, obsolescence de Limoges (2001) et "double-profil" de Caron (1999)). Cette étude avait également pour objectif d'approfondir la réflexion sur l'amélioration du bien-être au travail des employées et des employés au sein de l'organisation dans laquelle la recherche a eu lieu (Ibid.). Par ailleurs, les recherches de Caron (1999), Langouche (2004) et Lamarche (2006) ont soulevé la présence d'un quatrième état, soit le "double-profil". Le "double-profil" résulte d'une combinaison des manifestations de l'épuisement et l'obsolescence. Suite à ces constatations, Lamarche (2006) a construit et validé un instrument psychométrique, le Questionnaire de la gestion du maintien au travail (QGMT), mesurant les états ainsi que les stratégies utilisés par les travailleuses et les travailleurss dans le but de connaître le profil de maintien des individus. À l'aide de cet outil, il est possible d'identifier le niveau de maintien d'un individu ainsi que le profil dans lequel il se situe (maintien, épuisement, obsolescence ou "double-profil") et d'autres états jusque-là inexplorés. Nous constatons que le maintien professionnel suscite un intérêt grandissant auprès de chercheurs et de chercheures. Puisque nous partageons également cet intérêt, ce présent essai porte sur ce concept. Notre préoccupation de recherche est alors de connaître la qualité du maintien au travail d'un groupe de gestionnaires de la fonction publique du Québec. Pour ce faire, nous allons examiner un groupe de gestionnaires tiré de la banque de données de la thèse doctorale de Lamarche (2006). Cette banque de données avait initialement pour but de procéder à la construction et à la validation d'un instrument psychométrique (QGMT). Conséquemment, la chercheure n'a pas réalisé d'analyses à partir de groupes d'appartenance. Nous trouvons alors intéressant de s'attarder à ce groupe précis de gestionnaires. Nous pourrons soumettre les sujets à des analyses stastistiques et examiner les états ainsi que les stratégies qu'ils utilisent afin de se maintenir au travail. Par ailleurs, nous avons ciblé ces individus en raison du peu de recherches consacrées à cette clientèle (Leclerc et Delmas, 2006). Nous constatons que ces individus sont susceptibles de vivre autant de problèmes de maintien au travail que les autres groupes de travailleurs et de travailleuses et qu'il est important de leur porter une attention particulière. Dans le premier chapitre, nous nous attarderons aux auteures et auteurs ayant traités de la problématique de santé psychologique au travail. Nous évoquerons également le rôle qu'ont les conseillers et les conseillères d'orientation face à la problématique de la santé mentale au travail. Au deuxième chapitre, nous examinerons les quatre profils de maintien au travail (maintien, épuisement, obsolescence et "double-profil") à l'aide de recherches menées à ce sujet. Nous exposerons également le paradigme du maintien professionnel de Limoges (2001) dans notre cadre théorique. Puis, le troisième chapitre sera consacré à la méthodologie de recherche, incluant la description de l'échantillon, l'outil de recherche (QGMT) et les procédures de traitement de données. Enfin, le quatrième chapitre exposera les résultats de notre recherche. Il comprendra également une discussion suite aux résultats obtenus ainsi que les limites à cette étude.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
Résumé: Le développement de l’industrie des polymères fourni de plus en plus de choix pour la formulation de matériaux pour les couvre-planchers. Les caoutchoucs, le PVC et le linoleum sont les polymères habituellement utilisés dans l’industrie des couvre-planchers. Ce projet répond à un problème de facilité de nettoyage des couvre-planchers de caoutchouc qui sont reconnus pour être mous, collants et ayant une surface rugueuse. L’INTRODUCTION couvrira l’état actuel de la recherche sur les couvre-planchers, surtout en regard au problème de la «nettoyabilité». La théorie pertinente et les informations générales sur les polymères, les composites polymériques et la science des surfaces seront introduites au CHAPITRE 1. Ensuite, le CHAPITRE 2 couvrira la méthode utilisée pour déterminer la nettoyabilité, l’évaluation des résultats ainsi que l’équipement utilise. Le CHAPITRE 3, discutera des premières expériences sur l’effet de la mouillabilité, la rugosité et la dureté sur la facilité de nettoyage des polymères purs. Plusieurs polymères ayant des surfaces plus ou moins hydrophobes seront investigués afin d’observer leur effet sur la nettoyabilité. L’effet de la rugosité sur la nettoyabilité sera investigué en imprimant une rugosité définie lors du moulage des échantillons; l’influence de la dureté sera également étudiée. Ensuite, un modèle de salissage/nettoyage sera établi à partir de nos résultats et observations afin de rationaliser les facteurs, ou « règles », qui détrminent la facilité de nettoyage des surfaces. Finalement, la réticulation au peroxyde sera étudiée comme une méthode de modification des polymères dans le but d’améliorer leur nettoyabilité; un mécanisme découlant des résultats de ces études sera présenté. Le CHAPITRE 4 étendra cette recherche aux mélanges de polymères; ces derniers servent habituellement à optimiser la performance des polymères purs. Dans ce chapitre, les mêmes tests discutés dans le CHAPITRE 3 seront utilisés pour vérifier le modèle de nettoyabilité établi ci-haut. De plus, l’influence de la non-miscibilité des mélanges de polymères sera discutée du point de vue de la thermodynamique (DSC) et de la morphologie (MEB). L’utilisation de la réticulation par peroxyde sera étudié dans les mélanges EPDM/ (E-ran-MAA(Zn)-ran-BuMA) afin d’améliorer la compatibilité de ces polymères. Les effets du dosage en agent de réticulation et du temps de cuisson seront également examinés. Finalement, un compatibilisant pré-réticulé a été développé pour les mélanges ternaires EPDM/ (E-ran-MAA(Zn)-ran-BuMA)/ HSR; son effet sur la nettoyabilité et sur la morphologie du mélange sera exposé.
Resumo:
Abstract : Adverse drug reactions (ADRs) are undesirable effects caused after administration of a single dose or prolonged administration of drug or result from the combination of two or more drugs. Idiosyncratic drug reaction (IDR) is an adverse reaction that does not occur in most patients treated with a drug and does not involve the therapeutic effect of the drug. IDRs are unpredictable and often life-threatening. Idiosyncratic reaction is dependent on drug chemical characteristics or individual immunological response. IDRs are a major problem for drug development because they are usually not detected during clinical trials. In this study we focused on IDRs of Nevirapine (NVP), which is a non-nucleoside reverse transcriptase inhibitor used for the treatment of Human Immunodeficiency Virus (HIV) infections. The use of NVP is limited by a relatively high incidence of skin rash. NVP also causes a rash in female Brown Norway (BN) rats, which we use as animal model for this study. Our hypothesis is that idiosyncratic skin reactions associated with NVP treatment are due to post-translational modifications of proteins (e.g., glutathionylation) detectable by MS. The main objective of this study was to identify the proteins that are targeted by a reactive metabolite of Nevirapine in the skin. The specific objectives derived from the general objective were as follow: 1) To implement the click chemistry approach to detect proteins modified by a reactive NVP-Alkyne (NVP-ALK) metabolite. The purpose of using NVP-ALK was to couple it with Biotin using cycloaddition Click Chemistry reaction. 2) To detect protein modification using Western blotting and Mass Spectrometry techniques, which is important to understand the mechanism of NVP induced toxicity. 3) To identify the proteins using MASCOT search engine for protein identification, by comparing obtained spectrum from Mass Spectrometry with theoretical spectrum to find a matching peptide sequence. 4) To test if the drug or drug metabolites can cause harmful effects, as the induction of oxidative stress in cells (via protein glutathionylation). Oxidative stress causes cell damage that mediates signals, which likely induces the immune response. The results showed that Nevirapine is metabolized to a reactive metabolite, which causes protein modification. The extracted protein from the treated BN rats matched 10% of keratin, which implies that keratin was the protein targeted by the NVP-ALK.
Resumo:
Il existe une multitude de façons de protéger un portefeuille formé d'obligations contre une variation des taux d'intérêt qui pourrait affecter défavorablement la valeur marchande du portefeuille. L'une d'elles consiste à vendre des contrats à terme sur obligations afin que les variations de la valeur marchande du portefeuille soient compensées par les gains (ou les pertes) sur le marché à terme. Le succès d'une telle opération dépend de l'évaluation du ratio de couverture puisque c'est lui qui déterminera quelle quantité de contrats à terme il faudra vendre pour protéger le portefeuille. L'objectif de cette étude consiste à déterminer, parmi cinq méthodes d'estimation du ratio de couverture (une naïve et quatre théoriques), celle qui permet de minimiser la variance du rendement du portefeuille à couvrir tout en sacrifiant le moins possible en terme de rendement. Pour ce faire, nous avons utilisé neuf portefeuilles formés d'obligations du gouvernement du Canada ayant des caractéristiques (coupon, échéance) très différentes que nous avons couverts en utilisant le contrat à terme sur obligations du gouvernement du Canada qui se transige à la Bourse de Montréal. L'analyse des résultats nous a amené à conclure que la méthode naïve génère de meilleurs résultats que les méthodes théoriques lorsque le portefeuille à couvrir possède des caractéristiques semblables au titre qui sert de couverture. Dans tous les autres cas (où le portefeuille à couvrir a des caractéristiques très différentes du contrat à terme qui sert de couverture), la performance de la méthode naïve est plutôt médiocre, mais aucune autre méthode n'est supérieure aux autres sur une base régulière.
Resumo:
L'objet de ce mémoire est de mesurer l'efficacité des programmes d'aide aux employés (PAE). Dans un deuxième temps, nous cherchons à identifier les facteurs explicatifs du succès des PAE. Nous avons conceptualisé ces interrogations autour d'un modèle théorique qui découpe le concept de succès des PAE en trois variables dépendantes soit, la résolution de la situation problématique, la satisfaction des usagers envers le PAE et l'amélioration de la performance au travail grâce et à la suite des consultations au PAE. De même, nous avons identifié quatre groupes de variables indépendantes susceptibles d'expliquer les variations dans le succès des PAE soit: le profil des usagers, les caractéristiques de la situation problématique, les caractéristiques de la consultation et finalement les caractéristiques de l'organisation à laquelle appartiennent les usagers. Pour évaluer ce modèle et afin de répondre à ces interrogations nous avons sondé par questionnaire vingt-deux usagers cliniques d'un PAE externe. L'échantillon était composé majoritairement de femmes âgées entre 30 et 49 ans, travaillant principalement dans des emplois professionnels. L'analyse quantitative des réponses nous a permis de conclure que généralement le PAE est assez efficace pour résoudre les situations problématiques vécues par ses usagers. Les résultats tendent aussi à montrer que les usagers du PAE sont très satisfaits des services dispensés. Il ressort finalement que, grâce aux consultations au PAE, l'impact négatif de la situation problématique sur la performance au travail de l'usager disparaît et même qu'en moyenne la performance au travail s'améliore légèrement. Suite aux analyses bi-variées, nous pouvons identifier certains facteurs explicatifs du succès des PAE. Les principales variables pour lesquelles le succès des PAE variait significativement étaient le sexe, l'âge, la catégorie d'emploi, le type de difficultés, l'urgence de la situation problématique, le motif de cessation des services, la taille de l'entreprise et la présence ou non d'un syndicat dans l'entreprise du répondant.
Resumo:
Cette recherche examine l'association entre les qualités de l'information comptable, son utilisation, le département qui en fait usage et la perception des gestionnaires de l'utilité de cette information comptable. On a mesuré la perception de Futilité de l'information comptable à partir d'un questionnaire auprès des responsables de deux départements fonctionnels d'entreprises: les directeurs des départements de production et de marketing en regard de la prise de décisions et de l'évaluation de la performance. La cueillette de données a été réalisée à l'aide d'un questionnaire qu'on a envoyé à 308 responsables dans 154 entreprises. L'étude empirique pour tester les hypothèses de recherche a été réalisée sur 71 répondants. Les résultats indiquent que dans le contexte de prise de décision, la perception positive de l'utilité de l'information comptable s'accroît si cette information est jugée de qualité et si elle est utilisée; de plus, cette perception peut varier d'un département à un autre. Dans le contexte de l'évaluation de la performance, la perception positive de l'utilité de l'information comptable s'accroît si cette information est jugée de qualité, elle peut varier d'un département à un autre, mais contrairement à l'hypothèse posée cette perception n'est pas liée à son utilisation. On note aussi que l'utilité perçue de l'information comptable est meilleure dans les départements de marketing que dans les départements de production.
Resumo:
Résumé : Dans une ère de concurrence économique accrue, les organisations éprouvent de plus en plus le besoin de mesurer le rendement de leurs employés, y compris celui de leurs dirigeants. À cette fin, l'évaluation demeure un outil de gestion privilégié. Au nombre des systèmes d'évaluation existants, le feed-back multi-source (FMS) — ou feed-back 360°— est en progression. Malheureusement, on ne connaît pas encore très bien l'incidence de ce type de système, la littérature étant plutôt muette sur ce qu'il donne concrètement et, particulièrement, sur la réaction des évalués subséquemment à l'obtention de leur rapport d'évaluation. Il ressort néanmoins de certaines études que les dirigeants, et surtout, les chefs se sentent laissés à eux-mêmes quant à l'évaluation de leurs compétences. Il y a quelques années, à la demande du Groupement des chefs d'entreprise du Québec (GCEQ), un instrument de type multi-source a été conçu par le Laboratoire de recherche sur la performance des entreprises (LaRePe), afin de mesurer spécifiquement la performance des chefs d'entreprise comme leader. À ce stade-ci, les promoteurs désirent mieux comprendre l'incidence de l'utilisation de leur outil : le PDG-Leadership. Pour combler les lacunes de la littérature, et aussi pour répondre au besoin du GCEQ, la présente thèse porte sur la réaction des chefs à la suite de la réception de leur rapport d'évaluation. L'objet de la recherche est double : il s'agit d'examiner les variables qui influencent le fait que les évalués entreprennent des actions à la suite de leur feed-back (considération théorique) et, d'autre part, de connaître davantage ces actions entreprises bref, ce que le système de feed-back multi-source XFMS) donne vraiment (considération pratique). Afin de mener à bien la recherche, une résidence a été réalisée. Elle a fourni le contexte pour élaborer un questionnaire d'enquête s'appliquant particulièrement aux chefs d'entreprise. L'enquête a permis de rejoindre 351 dirigeants ayant été évalués au moins une fois par l'entremise du PDG-Leadership. De ce nombre, 87 répondants, membres du Groupement se sont manifestés. Le cadre conceptuel utilisé consiste en une adaptation du modèle proposé par Smither, London et Reilly (2005a). comporte sept variables, desquelles ont été tirées cinq hypothèses de recherche. Quatre hypothèses ont été rejetées alors qu'une autre ne s'est avérée supportée que pour le groupe constitué des femmes faisant partie de l'échantillon. De plus, il est intéressant de constater que ce n'est pas le feed-back (rapport) qui déclenche l'acceptation puis les actions, mais une attitude personnelle représentée par la possibilité d'un changement perçue (V4). Chez les chefs, il ne se produit donc pas de réaction en chaîne comme le suppose le modèle théorique utilisé. Il semble que ce soit plutôt la possibilité de changement perçu qui est à la base du fait d'entreprendre des actions, laquelle s'apparente au sentiment d'auto-efficacité défini par Bandura (2007). Les données recueillies auront aussi servies à générer de nouvelles connaissances et à faire ressortir une liste de 112 actions que les chefs disent avoir engagées à la suite de l'obtention de leur rapport d'évaluation. Cette liste a permis de faire une catégorisation des actions posées. Les actions qu'ils entreprennent sont toutefois davantage dirigées vers l'amélioration de l'organisation que vers leur propre amélioration. Il s'agit là, d'une des contributions de la présente thèse.||Abstract : In a context of intense economic competition, organizations are increasingly using instruments of performance evaluation. The multi-source feedback or 360 [degrees] is one of those. The literature seems still silent on what type of evaluation is really about the reaction it generates among evaluated. In response to a request from the Groupement des chefs d'entreprise du Québec (GCEQ), a System of multi-source assessment was designed by the Laboratoire de recherche sur la performance des entreprises (LaRePe). The PDG-Leadership, specifically used to measure the skills of managers of SMLs as a leader. After some years of use, developers want to better understand its impact in order to improve it and make it even better. To address these theoretical and practical considérations, a survey was conducted among 87 business leaders from Quebec who had already been assessed using this tool. This research bas the purpose, the validation of a preliminary model proposed by Smither, London, and Reilly, 2005a, to examine the variables that influence that evaluated undertake actions as a result of their feedback and the other, to know these actions, in short, that the System of feed-back multi-source (FMS) really. From the analysis of data collected, a list of 112 shares was established. In turn, this led to a categorization of actions taken. Although the FMS system is effective, it should be noted that entrepreneurs seem to react differently from other catégories assessed.
Resumo:
Il est reconnu de nos jours que les ressources humaines sont la plus grande richesse de nos organisations et que c'est grâce à elles que l'on assure la performance et le développement de l'entreprise. Ce travail présente le processus d'élaboration d'une politique de gestion des ressources humaines en milieu collégial. Il présente les facteurs les plus significatifs permettant la motivation et la mobilisation du personnel, la démarche utilisée pour connaître la perception, le degré de satisfaction et les attentes du personnel du cégep de Saint-Hyacinthe vis-à-vis ces facteurs et, enfin, il propose un projet de politique de gestion des ressources humaines. La recherche se compose de cinq parties principales. La première partie du travail énonce la situation au cégep de Saint-Hyacinthe, qui, dans une perspective historique, incite à élaborer une politique de gestion des ressources humaines. Ensuite, sont présentées les différentes théories concernant la gestion des ressources humaines énoncées depuis 1980, par plusieurs auteurs. Les parties suivantes de ce travail sont consacrées à la démarche d'enquête auprès des employés du cégep de Saint-Hyacinthe, aux résultats de cette enquête et, enfin, à la proposition d'une politique de gestion des ressources humaines.