999 resultados para Amélioration de la performance
Resumo:
La conscience de l’environnement d’affaires est définie comme l’ensemble des savoirs détenus par les employés non-cadres par rapport à l’environnement d’affaires interne et externe de leur organisation. Elle se manifeste lorsque l’employé est impliqué dans la prise de décision ou résolution de problème affectant l’entreprise. Ce travail a comme objectifs la validation d’une échelle de mesure du concept à l’étude, ainsi que la vérification de sa validité de construit et nomologique. L’ensemble initial d’items de l’échelle de mesure a été déterminé suite à des entrevues avec les employés d’organisations participantes (Gauvreau-Jean, 2008). L’ensemble initial de 40 items a été testé avec un échantillon de 508 employés d’une manufacture. Suite à des ajustements, l’échelle modifiée couvre quatre dimensions du construit. L’adéquation de son contenu a ensuite été mise à l’épreuve par deux groupes cibles et deux évaluations expertes (Lessard, 2014). Finalement, dans le cadre de notre étude, la validité du contenu et nomologique de l’échelle modifiée (contenant 24 items) a été testée avec 330 employés de première ligne de quatre entreprises. Les quatre dimensions du construit furent supportées, la fiabilité de l’échelle était haute, puis les hypothèses reliant la conscience de l’environnement avec les caractéristiques au travail, l’évaluation de la performance par un superviseur et l’engagement affectif furent supportées également. Un autre sondage complété par les gestionnaires (n=43) avait comme but une évaluation de la performance contextuelle des employés supervisés. Le développement de l’échelle à 24 items sur la conscience de l’environnement d’affaires pourrait répondre aux questions portant sur la participation de l’employé et l’efficacité organisationnelle.
Resumo:
Introduction : Malgré leur état non-prolifératif in vivo, les cellules endothéliales cornéennes (CEC) peuvent être amplifiées in vitro. Leur transplantation subséquente par injection intracamérale pourrait surmonter la pénurie de tissus associée à l’allo-greffe traditionnelle – l’unique traitement définitif disponible pour les endothéliopathies cornéennes. Objectif : Évaluer la fonctionnalité d’un endothélium cornéen reconstitué par injection de CEC dans la chambre antérieure du félin. Méthodes : Les yeux droits de 16 animaux ont été opérés. Huit ont été désendothélialisés centralement avec injection de 2x10e5 (n=4) ou 1x10e6 (n=4) CEC félines supplémentées avec Y-27632 et marquées avec SP-DiOC18(3). Deux ont été désendothélialisés complètement et injectés avec 1x10e6 CEC et Y-27632. Six contrôles ont été désendothélialisés centralement (n=3) ou complètement (n=3) et injectés avec Y-27632 sans CEC. La performance clinique, l’intégrité anatomique, le phénotype fonctionnel et l’expression de SP-DiOC18(3) du nouvel endothélium ont été étudiés. Résultats : Les cornées greffées avec 2x10e5 CEC et les contrôles désendothélialisés centralement ont réussi le mieux cliniquement. Les contrôles désendothélialisés complètement sont restés opaques. L’histopathologie a révélé une monocouche endothéliale fonctionnelle dans les cornées greffées avec 2x10e5 CEC et les contrôles désendothélialisés centralement, une multicouche endothéliale non-fonctionnelle dans les cornées désendothélialisées centralement et greffées avec 1x10e6 CEC, et un endothélium fibrotique non-fonctionnel dans les cornées désendothélialisées complètement. L’expression de SP-DiOC18(3) était rare dans les greffes. Conclusion : La thérapie par injection cellulaire a reconstitué un endothélium partiellement fonctionnel, auquel les CEC injectées n’ont contribué que peu. L’injection de Y-27632 sans CEC a reconstitué l’endothélium le plus sain. Des études additionnelles investiguant l’effet thérapeutique de Y-27632 seul sont justifiées.
Resumo:
Motivé par l’évolution de la production architecturale durable dans les pays d’Amérique latine, et plus particulièrement en Colombie, mon projet de recherche porte sur l’adaptation de l’architecture à ce nouveau contexte. L’approche architecturale traditionnelle à la prise en compte de l’énergie et du climat est l’architecture bioclimatique : reproduite à partir de connaissances et techniques ancestrales remontant à la conception de l’abri, cette dernière étudie les phénomènes physiques associés au confort thermique afin de les reproduire dans une nouvelle architecture. De nouvelles méthodes d’évaluation environnementale se sont développées dans les dernières décennies pour améliorer l’intégration environnementale des bâtiments. Ces méthodes privilégient la normalisation des solutions et utilisent des systèmes de certification pour reconnaître la performance environnementale et énergétique des bâtiments. Le résultat visé est la conformité aux standards internationaux de durabilité. Ce mémoire porte sur l’analyse comparative de l’architecture bioclimatique et de la certification environnementale à partir de la structure des sujets abordés par LEED, une des méthodes les plus connues d’une telle certification. Cette comparaison permet de constater que les deux approches sont motivées par les mêmes préoccupations environnementales mais que leurs méthodes d’intégration de ces préoccupations diffèrent, en particulier quant à la prise en compte des facteurs locaux et globaux.
Resumo:
A modo de resumen de la introducción, objetivos, bases conceptuales-teóricas, resultados y conclusiones fundamentales de nuestra tesis titulada “Apertura “Inbound” en la Empresa Industrial Española: Resultados y Factores de Influencia”, señalamos lo siguiente… En un entorno dinámico como el actual, en el que las ideas valiosas pueden darse en el interior y en el exterior de las fronteras de la empresa (Chesbrough, 2003 a), cobra especial relevancia el estudio del impacto que la Innovación Abierta podría producir sobre sus resultados y comportamiento. En esta tesis, analizaremos la cuestión a través de un Modelo General de Investigación (MGI) dividido en dos partes. En la primera (Submodelo 1) estudiaremos si la innovación abierta tipo “inbound” podría: a) Potenciar el logro de resultados de innovación de acuerdo con las premisas del Manual de Oslo actual (OECD, 2005) y b) potenciar la mejora de la “performance” productiva y comercial. Tras su análisis, observamos –empíricamente- que la apertura “entrante” puede potenciar estos resultados, pero también tenderá a generar costes. Por tanto, parece razonable recomendar no sólo una “mayor” apertura “inbound” del proceso innovador, sino además su gestión eficiente. Ahora, si el “nuevo paradigma” estratégico parece tan interesante, ¿cómo podemos potenciarlo en nuestras empresas? En la segunda parte de nuestro modelo de investigación (Submodelo 2), tratamos de hallar una respuesta. Analizaremos cuáles podrían ser los factores “potenciadores” e “inhibidores” de este comportamiento, y lo haremos bajo un enfoque recomendado por la literatura: El enfoque contingente. De este modo, llegamos a la conclusión de que la apertura “inbound” puede ser vista como una capacidad dinámica (Teece, 2007) pues sustentaría su ventaja competitiva sostenible. En suma, la empresa deberá elegir cuál es el grado de apertura más ajustado a sus propios recursos, capacidades, negocio y/o visión estratégica; y todo ello, a lo largo del tiempo...
Resumo:
Introduction : Une proportion importante des individus ayant recours à des services de réadaptation physique vit avec de la douleur et des incapacités locomotrices. Plusieurs interventions proposées par les professionnels de la réadaptation afin de cibler leurs difficultés locomotrices nécessitent des apprentissages moteurs. Toutefois, très peu d’études ont évalué l’influence de la douleur sur l’apprentissage moteur et aucune n’a ciblé l’apprentissage d’une nouvelle tâche locomotrice. L’objectif de la thèse était d’évaluer l’influence de stimulations nociceptives cutanée et musculaire sur l’acquisition et la rétention d’une adaptation locomotrice. Méthodologie : Des individus en santé ont participé à des séances de laboratoire lors de deux journées consécutives. Lors de chaque séance, les participants devaient apprendre à marcher le plus normalement possible en présence d’un champ de force perturbant les mouvements de leur cheville, produit par une orthèse robotisée. La première journée permettait d’évaluer le comportement des participants lors de la phase d’acquisition de l’apprentissage. La seconde journée permettait d’évaluer leur rétention. Selon le groupe expérimental, l’apprentissage se faisait en présence d’une stimulation nociceptive cutanée, musculaire ou d’aucune stimulation (groupe contrôle). Initialement, l’application du champ de force provoquait d’importantes déviations des mouvements de la cheville (i.e. erreurs de mouvement), que les participants apprenaient graduellement à réduire en compensant activement la perturbation. L’erreur de mouvement moyenne durant la phase d’oscillation (en valeur absolue) a été quantifiée comme indicateur de performance. Une analyse plus approfondie des erreurs de mouvement et de l’activité musculaire a permis d’évaluer les stratégies motrices employées par les participants. Résultats : Les stimulations nociceptives n’ont pas affecté la performance lors de la phase d’acquisition de l’apprentissage moteur. Cependant, en présence de douleur, les erreurs de mouvement résiduelles se trouvaient plus tard dans la phase d’oscillation, suggérant l’utilisation d’une stratégie motrice moins anticipatoire que pour le groupe contrôle. Pour le groupe douleur musculaire, cette stratégie était associée à une activation précoce du muscle tibial antérieur réduite. La présence de douleur cutanée au Jour 1 interférait avec la performance des participants au Jour 2, lorsque le test de rétention était effectué en absence de douleur. Cet effet n’était pas observé lorsque la stimulation nociceptive cutanée était appliquée les deux jours, ou lorsque la douleur au Jour 1 était d’origine musculaire. Conclusion : Les résultats de cette thèse démontrent que dans certaines circonstances la douleur peut influencer de façon importante la performance lors d’un test de rétention d’une adaptation locomotrice, malgré une performance normale lors de la phase d’acquisition. Cet effet, observé uniquement avec la douleur cutanée, semble cependant plus lié au changement de contexte entre l’acquisition des habiletés motrices et le test de rétention (avec vs. sans douleur) qu’à une interférence directe avec la consolidation des habiletés motrices. Par ailleurs, malgré l’absence d’influence de la douleur sur la performance des participants lors de la phase d’acquisition de l’apprentissage, les stratégies motrices utilisées par ceux-ci étaient différentes de celles employées par le groupe contrôle.
Resumo:
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU).
Resumo:
Si on considère l'atteinte de l'autonomie comme étant un cheminement progressif, l'enseignante ou l'enseignant doit concevoir des stratégies d'apprentissage dans l'optique que ses interventions auprès des élèves deviennent de moins en moins fréquentes. On permet ainsi à ces derniers de prendre davantage le contrôle de leurs apprentissages et on réduit leur dépendance envers l'enseignant. Cette recherche porte sur le développement de l'autonomie dans l'utilisation des logiciels et présente une méthode d'enseignement sur l'utilisation de la fonction "Aide" des logiciels qui donne à l'élève des stratégies lui permettant d'être l'agent de son propre développement. De quelle manière pouvons-nous amener l'élève à utiliser l'"Aide" des logiciels, de façon stratégique, lorsqu'il doit se débrouiller par lui-même? La démarche de résolution de problèmes peut-elle lui être utile? Quelles sont les connaissances susceptibles de le mener graduellement vers la réussite et de le guider progressivement vers l'autonomie? Autant de questions auxquelles la recherche s'intéresse. Nous avons d'abord élaboré une stratégie d'enseignement, construit des instruments pour soutenir la démarche et conçu un modèle d'utilisation de la stratégie. Nous l'avons ensuite validée, par sa mise à l'essai auprès d'un groupe de neuf élèves et nous en avons, enfin, évalué les résultats. Différents instruments tels que grilles d'observation, questionnaires d'entrevue, fiches d'expérimentation, procéduriers et documents réalisés par les élèves ont permis de recueillir des données qui ont servi à l'évaluation de la stratégie. L'analyse de ces données révèle que la performance des élèves pour l'exécution des tâches s'est nettement améliorée après qu'on leur ait enseigné à utiliser la fonction "Aide" et révèle, également, qu'ils l'utilisent de façon plus adéquate. D'autres analyses confirment que le fait d'organiser une stratégie d'enseignement en fonction des catégories de connaissances (déclaratives, procédurales et conditionnelles) est un moyen de favoriser un meilleur engagement cognitif des élèves dans leurs apprentissages. La résolution de problèmes, démarche intégrée à la fiche d'expérimentation utilisée par ces derniers, a fourni un cadre pour utiliser leurs connaissances et préciser leurs stratégies. Les résultats obtenus permettent d'affirmer que les objectifs de la recherche ont été atteints. La mise en place d'activités complexes et variées a permis la construction du savoir stratégique. La démarche de résolution de problèmes a favorisé la réutilisation des connaissances dans différents contextes. Les modèles cognitiviste et constructiviste dont s'inspire la stratégie d'enseignement, ont incité les élèves à recourir à la fonction "Aide" ainsi qu'à leurs connaissances antérieures et à les associer à des contextes d'action où ils ont transféré leurs apprentissages de façon plus autonome. Enseigner à utiliser la fonction "Aide" des logiciels est une pratique qui devrait être intégrée dans les activités pédagogiques de toute enseignante ou enseignant désireux de développer l'autonomie de ses élèves dans l'utilisation de nouveaux logiciels. Cela doit, cependant, résulter d'une démarche structurée incluant des instruments élaborés de manière à induire chez les élèves, de façon progressive, un comportement les menant vers l'autonomie souhaitée.
Resumo:
Abstract : The goal of this study was to determine whether providing videos for students to watch before class would be more effective than assigning readings. The study took place within a flipped classroom: a methodology designed to engage students in the initial construction of knowledge before class, freeing up classroom time for active learning pedagogies. Preparing for class by watching videos should require less of the students’ time than doing readings, and they should respond better to videos than to readings because these more closely mimic this generation’s interactions with information and media. Consequently, flipped classroom students provided with videos should perceive a lower workload, which could translate into more positive learning outcomes. From an instructor’s perspective, however, developing and organizing videos is extremely time consuming. Thus, a teacher giving consideration to flipping their class would likely want to know whether videos would lead to positive outcomes for their students before actually committing to developing these. However, no research to date was identified which has examined the question of whether flipped class videos would be more effective than readings. The hypotheses for the study were that videos would result in measurable learning gains for the students, and would lead to lower time demands and perceived workloads, as well as more positive attitudes. These were tested using a quasi-experimental design involving a convenience sample of two small college General Biology 1 courses taught by the same teacher. One group had videos to watch before class for the first 1/3 of the course (treatment; Class A), during which the other was assigned readings (control; Class B). Following this, both groups were provided with videos. Student scores were compared on pre-instruction and in-class quizzes, activities, four unit tests, and a final exam. Further, students completed a 44 item survey as well as a demographic questionnaire. Results suggest greater learning gains for students provided with videos. Certainly, students from Class B improved significantly when provided with videos, especially as compared to Class A, whose improvement over the same time span was marginal. However, conclusions based on these results are somewhat tentative, as Class A performed rather poorly on all summative assessments, and this could have driven the patterns observed, at least partially. From the surveys, Class B students reported that they spent more time preparing for class, were less likely to do the necessary preparations, and generally perceived their effort and workload levels to be higher. These factors were significant enough that they contributed to four students from Class B (10% of the class) dropping the course over the semester. In addition, students from both groups also reported more positive attitudes towards videos than readings, although they did not necessarily feel that videos were (or would be) a more effective study and learning tool. The results of this study suggest that any effort on the part of an instructor to prepare or organize videos as pre-class instructional tools would likely be well spent. However, even outside of the context of a flipped classroom, this study provides an indication that assigned readings can place heavy workload requirements on students, which should give cause for any instructor employing mandatory readings to reassess their approach. Finally, since both groups were statistically equivalent across all measured demographic variables, it appears that some of the observed disparities in assessment scores may have been driven by differences in group dynamics. Consequently, the suggestion is made that an instrument to measure classroom climate should be incorporated into any research design comparing two or more interacting groups of students, as group dynamics have the potential to play a key role in any outcomes.||Résumé : L'objectif de cette étude était de déterminer si fournir des vidéos aux étudiants avant une classe serait plus efficace comme méthode d’apprentissage individuel que de leur donner une liste de lectures à compléter. L'étude a eu lieu dans une classe renversée – une stratégie plus reconnu sous le nom de «classroom flipping» – ce qui ce trouve à être une méthodologie qui vise à obliger les élèves d’accomplir le transfert de connaissances initial avant la classe, en vue de libérer du temps de classe pour des activités pédagogiques plus approfondie. En théorie, pour les élèves, se préparer pour une classe renversé en regardant des vidéos devrait exiger moins de temps que d’être obligé à apprendre le matériel en lisant. En plus, présenter le matériel d’un cours avec des vidéos imite de plus près les genres d’interactions qu’on les étudiants de cette génération avec de l'information et les médias, ce qui devrait faciliter leur tâche. Par conséquent, les élèves d’une classe renversée fournies avec des vidéos devraient percevoir une charge de travail moins élevée, et ceci pourrait se traduire en bilans d'apprentissage plus positifs. Cependant, du point de vue du professeur, avoir à développer et organiser des vidéos se présente comme un gros défi, surtout en vue du temps et de l’effort qui sont requis. Ainsi, un enseignant qui songe à renversée sa classe voudrait probablement savoir si le fait d’offrir des vidéos mène à des résultats positifs avant de réellement s'engager dans le développement de ces derniers. Par contre, lors de l’écriture de ce texte, aucune étude n’a été identifié qui répond à cette question, et aucune publication compare la performance des étudiants lorsqu’ils ont des vidéos à regarder avec lorsqu’ils sont obligés de faire de la lecture pour se préparer. Alors, les hypothèses de l'étude étaient que des étudiants ayant accès à des vidéos démontreraient des gains d’apprentissages évidents, qu’ils apercevraient des requêtes de temps moins encombrantes et une charge de travail plus faible, et, en vue de ces derniers, que les étudiants auraient des attitudes plus positives envers le cours et le matériel. Les hypothèses ont été testés à l'aide d'un modèle quasi-expérimental, avec comme échantillon deux classes collégiales de Biologie générale 1, tout les deux enseignés par le même professeur. Un de ces groupes avaient accès à des vidéos pour se préparer pour chaque classe lors du premier tiers du cours, alors que l’autre groupe étaient obligé de faire de la lecture. Après le premier tiers du cours, ce qui fut 10 des 30 classes du semestre, les deux groupes ont été fournis avec des vidéos pour le restant du cours. Des notes ont été ramassées et comparées sur des mini-examens préparatoires avant et durant les classes, sur des activités complétées en classe, sur quatre examens en classe, et un examen final. En outre, les étudiants ont rempli un questionnaire composé de 44 items, ainsi qu’un autre questionnaire démographique. Les résultats de l’étude suggèrent qu’une décision d’offrir des vidéos aux élèves peut mener à des gains d'apprentissage plus élevés comparativement à l’option lecture. En particulier, les élèves du groupe initial de lecture se sont considérablement améliorées lorsqu'ils ont été fournis avec des vidéos, surtout par rapport au groupe initial de vidéos, dont l’amélioration durant la même période était marginale. Cependant, ces conclusions sont un peu incertaines, parce que la performance du groupe initial de vidéos était globalement médiocre, ce qui aurait pu mener aux résultats observés. Par contre, les résultats obtenus des questionnaires étaient moins incertains, et indiquent que les élèves qui se sont vues attribués des lectures passaient plus de temps pour préparer leurs classes, étaient plus aptes à ne pas faire les préparatifs nécessaires, et ont aperçus leurs niveaux d'efforts et leurs charges de travails comme étant plus élevés. Ces facteurs étaient suffisamment importants qu'ils ont contribué au fait que quatre étudiants du groupe de lecture, soit 10% de la classe, ont abandonnés le cours durant le premier tiers du semestre. Finalement, les élèves ont démontrés des attitudes plus positives envers les vidéos, bien qu'ils ne trouvaient pas nécessairement que ceux-ci étaient plus efficaces que les lectures lorsqu’ils voulaient étudier pour les examens. Basé sur ces résultats, il est possible de conclure que tout effort de la part d'un instructeur pour préparer ou organiser des vidéos pédagogiques serait probablement un bon investissement. En plus, et même en dehors du contexte d'une classe renversée, cette étude offre une indication qu’une stratégie pédagogique qui oblige les étudiants à faire beaucoup de lecture peut imposer des exigences et une charge de travail très élevée pour les étudiants, ce qui devrait donner cause à tout instructeur qui attribue des lectures à réévaluer leur approche. Enfin, puisque les deux groupes étaient équivalents d’un point de vue statistique sur toutes les mesures démographiques, il semble que certaines disparités entre les deux groupes dans les notes d'évaluation et d’examens peuvent possiblement avoir été entraînées par des différentes dynamiques dans chaque group. Par conséquent, il est suggéré que des mesures de relations entre étudiants et de dynamiques de groupes devraient être incorporé dans n’importe qu’elle recherche comparant deux ou plusieurs groupes d’étudiants, et surtout quand ces étudiants sont en interaction, parce-que en toute apparence les dynamiques de groupes ont le potentiel de jouer un rôle clé dans les résultats obtenus.
Resumo:
L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.
Développement des bétons autoplaçants à faible teneur en poudre, Éco-BAP: formulation et performance
Resumo:
Abstract : Although concrete is a relatively green material, the astronomical volume of concrete produced worldwide annually places the concrete construction sector among the noticeable contributors to the global warming. The most polluting constituent of concrete is cement due to its production process which releases, on average, 0.83 kg CO[subscript 2] per kg of cement. Self-consolidating concrete (SCC), a type of concrete that can fill in the formwork without external vibration, is a technology that can offer a solution to the sustainability issues of concrete industry. However, all of the workability requirements of SCC originate from a higher powder content (compared to conventional concrete) which can increase both the cost of construction and the environmental impact of SCC for some applications. Ecological SCC, Eco-SCC, is a recent development combing the advantages of SCC and a significantly lower powder content. The maximum powder content of this concrete, intended for building and commercial construction, is limited to 315 kg/m[superscript 3]. Nevertheless, designing Eco-SCC can be challenging since a delicate balance between different ingredients of this concrete is required to secure a satisfactory mixture. In this Ph.D. program, the principal objective is to develop a systematic design method to produce Eco-SCC. Since the particle lattice effect (PLE) is a key parameter to design stable Eco-SCC mixtures and is not well understood, in the first phase of this research, this phenomenon is studied. The focus in this phase is on the effect of particle-size distribution (PSD) on the PLE and stability of model mixtures as well as SCC. In the second phase, the design protocol is developed, and the properties of obtained Eco-SCC mixtures in both fresh and hardened states are evaluated. Since the assessment of robustness is crucial for successful production of concrete on large-scale, in the final phase of this work, the robustness of one the best-performing mixtures of Phase II is examined. It was found that increasing the volume fraction of a stable size-class results in an increase in the stability of that class, which in turn contributes to a higher PLE of the granular skeleton and better stability of the system. It was shown that a continuous PSD in which the volume fraction of each size class is larger than the consecutive coarser class can increase the PLE. Using such PSD was shown to allow for a substantial increase in the fluidity of SCC mixture without compromising the segregation resistance. An index to predict the segregation potential of a suspension of particles in a yield stress fluid was proposed. In the second phase of the dissertation, a five-step design method for Eco-SCC was established. The design protocol started with the determination of powder and water contents followed by the optimization of sand and coarse aggregate volume fractions according to an ideal PSD model (Funk and Dinger). The powder composition was optimized in the third step to minimize the water demand while securing adequate performance in the hardened state. The superplasticizer (SP) content of the mixtures was determined in next step. The last step dealt with the assessment of the global warming potential of the formulated Eco-SCC mixtures. The optimized Eco-SCC mixtures met all the requirements of self-consolidation in the fresh state. The 28-day compressive strength of such mixtures complied with the target range of 25 to 35 MPa. In addition, the mixtures showed sufficient performance in terms of drying shrinkage, electrical resistivity, and frost durability for the intended applications. The eco-performance of the developed mixtures was satisfactory as well. It was demonstrated in the last phase that the robustness of Eco-SCC is generally good with regards to water content variations and coarse aggregate characteristics alterations. Special attention must be paid to the dosage of SP during batching.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
L'industrie du ciment est l'une des principales sources d'émission de dioxyde de carbone. L'industrie mondiale du ciment contribue à environ 7% des émissions de gaz à effet de serre dans l'atmosphère. Afin d'aborder les effets environnementaux associés à la fabrication de ciment exploitant en permanence les ressources naturelles, il est nécessaire de développer des liants alternatifs pour fabriquer du béton durable. Ainsi, de nombreux sous-produits industriels ont été utilisés pour remplacer partiellement le ciment dans le béton afin de générer plus d'économie et de durabilité. La performance d'un additif de ciment est dans la cinétique d'hydratation et de la synergie entre les additions et de ciment Portland. Dans ce projet, deux sous-produits industriels sont étudiés comme des matériaux cimentaires alternatifs: le résidu de silice amorphe (RSA) et les cendres des boues de désencrage. Le RSA est un sous-produit de la production de magnésium provenant de l'Alliance Magnésium des villes d'Asbestos et Thedford Mines, et les cendres des boues de désencrage est un sous-produit de la combustion des boues de désencrage, l'écorce et les résidus de bois dans le système à lit fluidisé de l'usine de Brompton située près de Sherbrooke, Québec, Canada. Récemment, les cendres des boues de désencrage ont été utilisées comme des matériaux cimentaires alternatifs. L'utilisation de ces cendres comme matériau cimentaire dans la fabrication du béton conduit à réduire la qualité des bétons. Ces problèmes sont causés par des produits d'hydratation perturbateurs des cendres volantes de la biomasse quand ces cendres sont partiellement mélangées avec du ciment dans la fabrication du béton. Le processus de pré-mouillage de la cendre de boue de désencrage avant la fabrication du béton réduit les produits d'hydratation perturbateurs et par conséquent les propriétés mécaniques du béton sont améliorées. Les approches pour étudier la cendre de boue de désencrage dans ce projet sont : 1) caractérisation de cette cendre volante régulière et pré-humidifiée, 2) l'étude de la performance du mortier et du béton incorporant cette cendre volante régulière et pré-humidifiée. Le RSA est un nouveau sous-produit industriel. La haute teneur en silice amorphe en RSA est un excellent potentiel en tant que matériau cimentaire dans le béton. Dans ce projet, l'évaluation des RSA comme matériaux cimentaires alternatifs compose trois étapes. Tout d'abord, la caractérisation par la détermination des propriétés minéralogiques, physiques et chimiques des RSA, ensuite, l'optimisation du taux de remplacement du ciment par le RSA dans le mortier, et enfin l'évaluation du RSA en remplacement partiel du ciment dans différents types de béton dans le système binaire et ternaire. Cette étude a révélé que le béton de haute performance (BHP) incorporant le RSA a montré des propriétés mécaniques et la durabilité, similaire du contrôle. Le RSA a amélioré les propriétés des mécaniques et la durabilité du béton ordinaire (BO). Le béton autoplaçant (BAP) incorporant le RSA est stable, homogène et a montré de bonnes propriétés mécaniques et la durabilité. Le RSA avait une bonne synergie en combinaison de liant ternaire avec d'autres matériaux cimentaires supplémentaires. Cette étude a montré que le RSA peut être utilisé comme nouveaux matériaux cimentaires dans le béton.
Resumo:
This dissertation, comprised of three separate studies, focuses on the relationship between remote work adoption and employee job performance, analyzing employee social isolation and job concentration as the main mediators of this relationship. It also examines the impact of concern about COVID-19 and emotional stability as moderators of these relationships. Using a survey-based method in an emergency homeworking context, the first study found that social isolation had a negative effect on remote work productivity and satisfaction, and that COVID-19 concerns affected this relationship differently for individuals with high and low levels of concern. The second study, a diary study analyzing hybrid workers, found a positive correlation between work from home (WFH) adoption and job performance through social isolation and job concentration, with emotional stability serving respectively as a buffer and booster in the relationships between WFH and the mediators. The third study, even in this case a diary study of hybrid workers, confirmed the benefits of work from home on job performance and the importance of job concentration as a mediator, while suggesting that social isolation may not be significant when studying employee job performance, but it is relevant for employee well-being. Although each study provides autonomously a discussion and research and practical implications, this dissertation also presents a general discussion on remote work and its psychological implications, highlighting areas for future research
Resumo:
Diversi studi in didattica della matematica sostengono che la performance sia influenzata non solo da fattori cognitivi ma anche da fattori affettivi. È ormai assodato che ogni individuo si approccia ai saperi da acquisire e da insegnare in modi dipendenti da aspetti come le emozioni che ha provato e che prova nei confronti della disciplina, le competenze che crede di possedere, le convinzioni sui contenuti disciplinari da apprendere o da spiegare. La matematica che si studia nella scuola secondaria di secondo grado è lontana dalla matematica contemporanea e dalla ricerca attuale. Questo, unito al fatto che quasi mai si sottolinea il percorso storico che ha portato allo sviluppo di certi strumenti matematici, fa sì che l’idea che uno studente si fa di questa disciplina sia irrealistica: una materia arida, immobile, con risultati indiscutibili e stabiliti nell’antichità più remota. Alla luce di ciò si può pensare di proporre agli studenti di scuola secondaria attività che li stimolino e li motivino, nell’ottica di modificare l'insieme delle loro convinzioni sulla matematica. In questo lavoro mi sono occupata della classificazione delle varietà bidimensionali per poi affrontare il passaggio alle 3-varietà. Si tratta di un problema che presenta diversi motivi di interesse: classico ma risolto in tempi moderni, frutto di un processo di pensiero collettivo e che mostra come la matematica sia una materia in costante evoluzione, nella quale l’approccio interdisciplinare può essere vincente rispetto a quello settoriale. Una prima parte del lavoro è stata dedicata allo studio dei temi topologici e geometrici con riferimento non solo alla genesi e, quando possibile, alla strategia dimostrativa, ma anche alla loro valenza didattica. Una seconda parte è stata dedicata alla selezione e all’analisi di come alcuni di questi contenuti si possano declinare in modo fruibile e fertile per gli studenti di scuola secondaria e alla progettazione di un possibile percorso didattico.
Resumo:
Il Modello Standard è attualmente la teoria che meglio spiega il comportamento della fisica subnucleare, includendo la definizione delle particelle e di tre delle quattro forze fondamentali presenti in natura; risulta però una teoria incompleta sulle cui integrazioni i fisici stanno lavorando in diverse direzioni: uno degli approcci più promettenti nella ricerca di nuova fisica risulta essere quello delle teorie di campo efficaci. Il vertice di interazione del processo di produzione di coppie di quark top dello stesso segno a partire da protoni è fortemente soppresso nel Modello Standard e deve quindi essere interpretato con le teorie di campo efficaci. Il presente elaborato si concentra su questo nuovo approccio per la ricerca di quark top same-sign e si focalizza sull’utilizzo di una rete neurale per discriminare il segnale dal fondo. L’obiettivo è capire se le prestazioni di quest’ultima cambino quando le vengono fornite in ingresso variabili di diversi livelli di ricostruzione. Utilizzando una rete neurale ottimizzata per la discriminazione del segnale dal fondo, le si sono presentati tre set di variabili per l’allenamento: uno di alto livello, il secondo strettamente di basso livello, il terzo copia del secondo con aggiunta delle due variabili principali di b-tagging. Si è dimostrato che la performance della rete in termini di classificazione segnale-fondo rimane pressoché inalterata: la curva ROC presenta aree sottostanti le curve pressoché identiche. Si è notato inoltre che nel caso del set di variabili di basso livello, la rete neurale classifica come input più importanti gli angoli azimutali dei leptoni nonostante questi abbiano distribuzioni identiche tra segnale e fondo: ciò avviene in quanto la rete neurale è in grado di sfruttare le correlazioni tra le variabili come caratteristica discriminante. Questo studio preliminare pone le basi per l’ottimizzazione di un approccio multivariato nella ricerca di eventi con due top dello stesso segno prodotti a LHC.