892 resultados para Mise en oeuvre
Resumo:
Les crimes sexuels génèrent beaucoup d’inquiétudes chez la société, particulièrement quand vient le temps de libérer certains délinquants sexuels à risque élevé de récidive. Les évaluations du risque sont ainsi pertinentes puisque la majorité des délinquants sexuels sont libérés suivant une peine d’emprisonnement déterminée (Wilson, Picheca and Prinzo, 2005). Certaines méthodes sont donc mises en place servant à gérer les délinquants sexuels en communauté. Un cadre légal impose certaines conditions de remise en liberté et vise à réduire le risque de récidive (Hanson and Morton-Bourgon, 2005). Toutefois, une fois leur sentence complétée, certains délinquants posent toujours un risque pour la société. Pour répondre à ce problème, des partenariats ont été développés au Québec entre les services correctionnels et policiers. Ils imposent une surveillance accrue des personnes à risque élevé de récidive (PRER). Les décisions qui sont prises peuvent être lourdes de conséquences. Il est donc important d’évaluer si les méthodes de ciblage sont efficaces, soit orientées vers les individus à haut risque de récidive. Les données utilisées dans le cadre de ce mémoire proviennent de deux sources. Premièrement, un échantillon comparatif issu d’une compilation de données comprenant l’ensemble des délinquants sexuels condamnés depuis 20 ans a été utilisé (n = 235). Puis, un registre développé depuis 10 ans regroupant l’ensemble des individus soumis au programme a été analysé (n = 235). Les participants ont été évalués en fonction des variables disponibles de la Statique-99R. L’utilité de l’outil pour la police a été mise en perspective. Le programme ne semble pas n’impliquer que des délinquants sexuels à haut risque de récidive. Les taux de récidive sont relativement bas et similaires dans les deux échantillons. Les services de police ont des données pertinentes qui permettent d’étudier la qualité du ciblage fait dans le cadre du programme. Des évaluations plus fiables pourraient améliorer l’allocation des ressources et les stratégies de ciblage.
Resumo:
Ce mémoire porte sur les recherches et les développements dans le domaine des électrolytes à base de liquide ionique redox. Une nouvelle famille de liquide ionique redox basée sur le ferrocenylsulfonyl(trifluoromethylsulfonyl) (FcNTf) a été développée et étudiée pour la première fois afin de démontrer le potentiel de ces liquides ioniques dans les dispositifs de stockage d’énergie. En premier lieu, les liquides ioniques redox (RILs) composés de l’anion électroactif et du cation d’alkylimidazolium sont synthétisés et caractérisés. L’impact de la variation des chaînes alkyles du cation sur les propriétés physicochimiques et électrochimiques du RIL a été étudié. À une faible concentration en solution, l’impact du cation a peu d’influence sur l’ensemble des propriétés. Cependant, à haute concentration (>50 % massique) et sans électrolyte de support, la formation de films en oxydation a été observée à l'électrode positive. Ce point est intéressant pour les futures recherches et développements dans le domaine, puisque la variation des chaînes alkyles du cation des liquides ioniques redox et la formation de films lors de l’oxydation du FcNTf est peu connue et comprise en littérature. De plus, l’optimisation des conditions de solution d'électrolyte RIL dans les supercapaciteurs est aussi présentée. En deuxième lieu, la mise en application des RILs dans les supercapaciteurs a été testée. La performance énergétique et le mécanisme d’autodécharge ont été ciblés dans cette étude. En présence de l’électrolyte redox, la contribution des réactions faradaiques permet d'accomplir un gain énergique de 287 % versus les systèmes purement capacitifs. À cause de la formation de film à l’électrode, l’électrolyte redox FcNTf joue un rôle primordial dans la prévention de l’autodécharge versus les liquides ioniques qui étaient connus jusqu’à présent. Finalement, ce mémoire a permis de mieux comprendre les effets structure-propriétés relative aux modifications du cation chez les liquides ioniques redox.
Resumo:
Le présent mémoire porte sur la présence de la violence et de la sexualité sur la scène théâtrale québécoise, ainsi que sur l’influence du mouvement britannique In-yer-face sur la dramaturgie québécoise contemporaine. Par l’étude comparative des didascalies des textes ainsi que des mises en scènes de trois productions québécoises – soit Shopping and F**king (texte de Mark Ravenhill traduit par Alexandre Lefebvre, mise en scène de Christian Lapointe), Faire des enfants (texte d’Éric Noël, mise en scène de Gaétan Paré) et En dessous de vos corps je trouverai ce qui est immense et qui ne s’arrête pas (texte et mise en scène de Steve Gagnon) –, ce mémoire explore les diverses manières de représenter la violence et la sexualité sur la scène québécoise actuelle. Ce travail dépasse l’étude textuelle, il présente une réflexion sur le théâtre québécois et les nombreuses contraintes auxquelles les artistes doivent faire face lorsqu’ils veulent présenter un spectacle de théâtre comportant des scènes de violence et de sexualité au Québec.
Resumo:
L’importance du rôle de l’infirmière dans le système de santé autant au niveau de l’accessibilité que la qualité et la sécurité des soins et services donnés à la population est reconnue. Pour être en mesure d’exercer pleinement ce rôle, les infirmières doivent être en mesure d’exercer à leur pleine étendue de pratique. Les infirmières œuvrant dans le domaine de la santé mentale n’y font pas exception. Or, les recherches démontrent que les infirmières ne parviennent pas à mettre en oeuvre l’ensemble des activités pour lesquelles elles détiennent la formation et l’expérience. Cette recherche vise à mesurer l’étendue de pratique effective des infirmières oeuvrant en santé mentale ainsi qu’à identifier l’influence du niveau de formation sur cette étendue de pratique. Cette étude prend appui sur le SCOP model de Déry et al. (2015) qui mentionne que certaines caractéristiques de l’environnement et individuelles, telles que le niveau de formation, peuvent influencer l’étendue effective de la pratique des infirmières. Le déploiement de cette étendue de pratique a le potentiel d’influencer à son tour la satisfaction professionnelle des infirmières (Déry et al., 2013), la qualité des soins aux patients ainsi que d’autres variables organisationnelles telles que l’accessibilité, les durées moyennes de séjours et les coûts. Un devis corrélationnel descriptif a été retenu pour cette étude. Un questionnaire de type Likert a été complété par les infirmières (n=80) d’un Institut universitaire en santé mentale du Québec. Des analyses de la variance ont été utilisées pour comparer les moyennes d’étendue de pratique selon les ni-veaux de formation. Les résultats démontrent un déploiement sous-optimal de l’étendue de la pratique des infirmières (4,24/6; E.T.= 0,63). Cette étendue de pratique est tout de même supérieure à l’étendue de pratique des infirmières d’autres milieux qui a été mesurée à l’aide du questionnaire de l’étendue de la pratique infirmière (QÉPI). Les analyses effectuées concernant l’influence du niveau de formation sur l’étendue de pratique n’ont révélées aucune différence significative entre les niveaux de formation F (3, 77) = 0,707, p = 0,551. Le niveau de formation des infirmières, la présence d’un biais de représentation, le manque de puissance statistique et certaines caractéristiques de l’emploi peuvent expliquer ces résultats. Les résultats de cette étude semblent constituer une recherche empirique initiale puisqu'il s’agit à ce jour de l’unique recherche à avoir mesuré l’étendue de pratique des infirmières œuvrant en santé mentale à l’aide du QÉPI et à avoir tenté de connaître l’influence que pouvait avoir le niveau de formation sur l’étendue de leur pratique.
Resumo:
L’intégration des nouvelles technologies en enseignement supérieur ne devrait pas être vue comme un simple effet de mode, mais plutôt comme un cadre de réflexion sur les orientations nouvelles à donner à l’Université du 21ème siècle, en termes de culture institutionnelle, de ressources organisationnelles et d’opérationnalisation d’objectifs de recherche et d’enseignement (Duderstadt et al, 2002 ; Guri-Rosenblit, 2005). En effet, l’émergence d’une nouvelle tendance de formation post-secondaire, qu’est l’intégration des solutions virtuelles au présentiel, n’est pas sans incidences sur les pratiques enseignantes. Or, la littérature n’offre pas de modèles descriptifs satisfaisants permettant de mieux saisir la pertinence des liens entre l’enseignement en contexte d’apprentissage hybride et le développement professionnel des enseignants universitaires. Aussi avons-nous procédé par des observations participantes de deux cours en sciences de la gestion à HEC Montréal, dans les programmes de certificat de premier cycle ainsi que par des entretiens d’explicitation et d’autoconfrontation, pendant toute la session d’automne 2014, pour respectivement recueillir des données sur les pratiques réelles d’un maître d’enseignement, en sociologie du travail, et d’une chargée de cours, en gestion de projets. Notre analyse du corpus, par catégorisations conceptualisantes, a permis la production d’énoncés nomologiques rendant compte de la dynamique de relations entre ces deux phénomènes. Sur le plan scientifique, elle a apporté un éclairage nouveau sur les processus de construction identitaire professionnelle en pédagogie universitaire, en regard des mutations technologiques, socioculturelles et économiques que subissent l’Université, en général, et les pratiques enseignantes et étudiantes, en particulier. L’approche inductive utilisée a donc permis de définir la structure des interactions des deux phénomènes, selon la perspective des deux enseignants, et d’élaborer des modèles d’intervention enracinés dans leurs pratiques quotidiennes. Aussi sur le plan social, ces modèles sont-ils l’expression d’une grammaire de la pensée et de l’action, ancrée dans les valeurs des enseignants eux-mêmes. Nous avons pris en compte le paradigme de la tâche réelle, versus celui de la tâche prescrite, en termes de mise en œuvre concrète des processus pédagogiques, pour rendre les résultats de cette recherche signifiants pour la pratique. Les modèles, qui ont émergé de notre configuration de la pensée dialogique des participants, peuvent être intégrés à la formation des enseignants universitaires en contexte de bimodalisation de l’Université.
Resumo:
L’article montre que la trajectoire de la réforme de l’inspection en Fédération Wallonie-Bruxelles (FWB) est loin d’être linéaire. Elle est marquée par des processus de reconversion institutionnelle d’institutions existantes, mais aussi de sédimentation et d’hybridation entre l’« ancien » et le « nouveau ». En effet, elle participe à la fois d’une politique de changement institutionnel ambitieuse et de construction du « système scolaire » dans un paysage au départ assez décentralisé et fragmenté ; mais, simultanément, elle est marquée par des « contraintes » institutionnelles existantes, des négociations et transactions entre différents acteurs politiques et scolaires qui déterminent les contours et les compétences du nouveau corps d’inspection en gestation après le décret de 2007 comme les rôles des inspecteurs et leur division du travail avec d’autres acteurs. De plus, dans la mise en œuvre du décret, les orientations normatives, cognitives et professionnelles des acteurs, la permanence de la diversité institutionnelle des réseaux comme la variance structurelle des territoires « modulent » et « tempèrent » l’ambition du changement institutionnel affiché par la politique de la FWB. Cela change mais pas complètement : il y a un processus de conversion partielle et « en tension » de l’institution qu’est l’inspection.
Resumo:
C’est en réponse aux plus récentes crises financières que plusieurs processus réglementaires – dont certains constituent les objets d’étude de cette thèse – ont été déployés pour concevoir et implanter diverses réformes « d’amélioration » au sein de la pratique professionnelle des auditeurs financiers. Tant la crise du début des années 2000 que celle de 2007-2008 auraient attiré de vives critiques à l’égard du travail des auditeurs et de leur contribution (prétendument défaillante) au sein du fonctionnement des marchés des capitaux. Considérant leur fonction de « chien de garde » qui est censée assurer, avant tout, la protection du public au sein de ces marchés, il semblait inévitable que leur travail soit, dans une certaine mesure, remis en doute à travers les processus de révision réglementaire mis en place. C’est ainsi que chacun des trois articles qui composent cette thèse offre une analyse de différents aspects – tels que la mise en place, le déroulement, la nature et la substance des discours et des résultats – liés à ces processus de révision réglementaire qui entourent la pratique professionnelle des auditeurs au lendemain des crises financières. En somme, en plus d’indiquer comment ces processus ne sont point à l’abri de controverses, les conclusions de cette thèse inciteront à ce qu’une attention sérieuse soit portée à leur égard afin de préserver le bienfondé de la profession des comptables et des auditeurs. Alors que, dans le premier article, il sera question d’illustrer l’infiltration (critiquable) d’un discours néolibéral au sein des débats qui entourent les processus de révision réglementaire dont il est question, dans le deuxième article, il sera question d’exposer, au sein de ces processus, un mécanisme de production de mythes prônant un certain statu quo. Par ailleurs, dans le dernier article, en plus de mettre en évidence le fait que les approches de gouvernance déployées à travers ces processus de révision réglementaire ne sont pas suffisamment englobantes, on pourra aussi prendre conscience de l’inféodation de l’expertise de l’audit face à son environnement (et plus précisément, face aux expertises de la normalisation comptable et de la financiarisation de l’économie). Sous un regard critique, et à travers des analyses qualitatives, chacun des articles de cette thèse permettra de remettre en question certaines facettes des processus réglementaires et institutionnels qui entourent le champ de la comptabilité et de l’audit.
Resumo:
Actuellement au Québec, le contexte d’insertion professionnelle en enseignement représente plusieurs défis pour les enseignants débutants, et ce, en raison de multiples causes (p.ex. la précarité et le manque de soutien). Résultat : près de 15 % à 20 % d’entre eux quitteront la profession dans les cinq premières années de leur carrière et cette statistique ne cesse d’augmenter. Pour remédier à la situation, l’une des solutions envisagées est la mise en place de programmes d’insertion professionnelle (PIP) par les commissions scolaires, lesquels offrent différentes mesures de soutien telles que du mentorat, des ateliers de formation et des réseaux d’entraide en ligne. Cela dit, les modalités de mise en place de ces programmes varient grandement d’un milieu à l’autre, et ce, autant en ce qui a trait aux services offerts qu’à l’admission des candidats. De plus, ceux-ci ne sont généralement évalués que de façon informelle par le milieu. On ne sait donc pas si les enseignants débutants qui y participent se distinguent réellement quant à leur persévérance dans le métier, laquelle repose notamment sur leur motivation au travail, leur capacité de résilience et leur sentiment d’efficacité personnelle (SEP) en classe et à l’école (Bandura, 1997, 2007; Bélair & Lebel, 2007; Deci & Ryan, 1985, 2002; Fernet, Sénécal, Guay, Marsh, & Dowson, 2008; Zacharyas & Brunet, 2012). Ce projet de recherche vise d’une part à mesurer les différences sur le plan de ces variables chez les enseignants débutants participant ou non à un PIP. D’autre part, il vise également à mesurer la prédiction de ces variables par les différentes mesures de soutien offertes dans les PIP chez ceux qui y participent pour constater leur contribution respective dans un PIP. Pour ce faire, une étude préexpérimentale a été menée auprès de 86 participants. À l’aide d’un questionnaire, la motivation au travail, la capacité de résilience et le SEP en classe et à l’école ont été mesurés afin de comparer les résultats du groupe d’enseignants participant à un programme à ceux n’y participant pas. Une MANCOVA a d’abord été conduite avec ces variables et trois variables contrôles « avoir pensé quitter » le milieu d’enseignement, « ordre d’enseignement » et « expérience d’enseignement » comme covariables. Des régressions linéaires multivariées ont ensuite été menées à partir des mesures de soutien. Aucun résultat significatif n’a été obtenu quant aux différences entre les participants en fonction de la participation à un PIP ce qui est représentatif des résultats obtenus dans d’autres recherches sur le sujet (Ingersoll & Strong, 2011). Aucun résultat significatif n’a été obtenu concernant la prédiction des variables d’intérêt par les mesures de soutien.
Resumo:
Résumé : Cette juxtaposition de matériaux solides -blocs, pierres ou briques,...- liés ou non entre eux que nous appelons maçonnerie ne se comporte pas très bien vis-à-vis des forces latérales, surtout si elle n’a pas été réalisée suivant les normes parasismiques ou de façon adéquate. Cette vulnérabilité (glissement, cisaillement, déchirure en flexion, ou tout autre) vient souvent du fait même de ce processus d’empilement, des problèmes d’interaction avec le reste de la structure et aussi à cause des caractéristiques mécaniques peu fiables de certains éléments utilisés. Malgré cette défaillance structurale, la maçonnerie est encore utilisée aujourd’hui grâce à son côté traditionnel, sa facilité de mise en œuvre et son coût d’utilisation peu élevé. Depuis quelques années, la maçonnerie s’est enrichie de documents qui ont été publiés par divers chercheurs dans le but d’une meilleure compréhension des caractéristiques mécaniques des éléments et aussi, et surtout, des mécanismes de rupture des murs de maçonnerie pour une meilleure réponse face aux sollicitations sismiques. Beaucoup de programmes expérimentaux ont alors été effectués et tant d’autres sont encore nécessaires. Et c’est dans ce contexte que cette recherche a été conduite. Elle présentera, entre autres, le comportement sous charges latérales d’un mur en maçonnerie armée entièrement rempli de coulis. Ce projet de recherche fait partie d’un programme plus large visant à une meilleure connaissance du comportement sismique de la maçonnerie pour une amélioration des techniques de construction et de réparation des ouvrages en maçonnerie.
Resumo:
Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.
Resumo:
Résumé : Les performances de détecteurs à scintillation, composés d’un cristal scintillateur couplé à un photodétecteur, dépendent de façon critique de l’efficacité de la collecte et de l’extraction des photons de scintillation du cristal vers le capteur. Dans les systèmes d’imagerie hautement pixellisés (e.g. TEP, TDM), les scintillateurs doivent être arrangés en matrices compactes avec des facteurs de forme défavorables pour le transport des photons, au détriment des performances du détecteur. Le but du projet est d’optimiser les performances de ces détecteurs pixels par l'identification des sources de pertes de lumière liées aux caractéristiques spectrales, spatiales et angulaires des photons de scintillation incidents sur les faces des scintillateurs. De telles informations acquises par simulation Monte Carlo permettent une pondération adéquate pour l'évaluation de gains atteignables par des méthodes de structuration du scintillateur visant à une extraction de lumière améliorée vers le photodétecteur. Un plan factoriel a permis d'évaluer la magnitude de paramètres affectant la collecte de lumière, notamment l'absorption des matériaux adhésifs assurant l'intégrité matricielle des cristaux ainsi que la performance optique de réflecteurs, tous deux ayant un impact considérable sur le rendement lumineux. D'ailleurs, un réflecteur abondamment utilisé en raison de ses performances optiques exceptionnelles a été caractérisé dans des conditions davantage réalistes par rapport à une immersion dans l'air, où sa réflectivité est toujours rapportée. Une importante perte de réflectivité lorsqu'il est inséré au sein de matrices de scintillateurs a été mise en évidence par simulations puis confirmée expérimentalement. Ceci explique donc les hauts taux de diaphonie observés en plus d'ouvrir la voie à des méthodes d'assemblage en matrices limitant ou tirant profit, selon les applications, de cette transparence insoupçonnée.
Resumo:
La recherche porte sur le premier cours obligatoire de français au collégial, Écriture et littérature, au cours duquel les étudiants – en majorité jugés faibles lecteurs par leurs professeurs – font face à des défis de lecture importants lorsqu’il s’agit de lire des œuvres littéraires complètes, dont le programme d’études impose la lecture. Lire une œuvre complète exige non seulement du temps, mais aussi la mise en relation complexe et constamment réévaluée de détails avec l’ensemble de l’œuvre. De plus, les titres imposés à l’entrée au cégep présentent aussi des différences notables avec les œuvres généralement lues au secondaire. Dans ce contexte, différents acteurs du milieu collégial questionnent les pratiques d’enseignement mises en œuvre, mais ils infèrent surtout ces pratiques au départ de leur expérience professionnelle; notre recension des écrits montre que l’enseignement de l’o.c. au collégial n’est pas documenté sur le plan scientifique, en dehors des résultats obtenus par l’équipe de Dezutter et al. (2009-2012), qui a mené une recherche sur la place de cette œuvre complète dans les trois cours de français confondus. Nous avons ainsi opté pour l’exploitation secondaire des données collectées spécifiquement dans le cours Écriture et littérature pour décrire les pratiques d’enseignement mises en œuvre par trois professeurs autour de la lecture d’une œuvre littéraire complète choisie par eux. Notre étude multicas, descriptive et exploratoire, est centrée sur le registre épistémique des pratiques d’enseignement, que Vinatier (2007) définit comme « ce qui s’enseigne et comment ». À partir de trois séquences d’enseignements filmées, une analyse thématique a été réalisée. Les angles d’entrée dans l’œuvre, la place laissée à celle-ci et quatre formes de savoirs (sur la littérature, sur la langue, sur les processus de lecture et sur le monde) ont été examinés afin de déterminer ce qui s’enseigne. La notion de rôles, croisée ultérieurement avec les savoirs convoqués, a permis de décrire comment cela s’enseigne. Les résultats obtenus montrent que la proportion de l’œuvre exploitée est très variable et que les trois professeurs adoptent surtout un rôle d’expert de savoirs sur le monde pour la traiter. Les savoirs sur les processus cognitifs ne sont presque jamais convoqués, et nous n’avons pu observer aucune manifestation évidente de rôles soutenant le développement de la lecture comme activité cognitive. La place laissée à la subjectivité des lecteurs s’avère ténue, et la lecture implicitement convoquée s’éloigne largement de celle susceptible d’être mise en œuvre en contexte extrascolaire, bien que certains liens soient plus souvent établis par l’un des professeurs avec la culture première des étudiants. En conformité avec le programme d’études, les activités entourant l’œuvre littéraire complète semblent au final souvent au service de l’évaluation de l’écriture, ce qui fait plutôt de la lecture de l’œuvre littéraire complète un prétexte à d’autres apprentissages.
Resumo:
Abstract : Recently, there is a great interest to study the flow characteristics of suspensions in different environmental and industrial applications, such as snow avalanches, debris flows, hydrotransport systems, and material casting processes. Regarding rheological aspects, the majority of these suspensions, such as fresh concrete, behave mostly as non-Newtonian fluids. Concrete is the most widely used construction material in the world. Due to the limitations that exist in terms of workability and formwork filling abilities of normal concrete, a new class of concrete that is able to flow under its own weight, especially through narrow gaps in the congested areas of the formwork was developed. Accordingly, self-consolidating concrete (SCC) is a novel construction material that is gaining market acceptance in various applications. Higher fluidity characteristics of SCC enable it to be used in a number of special applications, such as densely reinforced sections. However, higher flowability of SCC makes it more sensitive to segregation of coarse particles during flow (i.e., dynamic segregation) and thereafter at rest (i.e., static segregation). Dynamic segregation can increase when SCC flows over a long distance or in the presence of obstacles. Therefore, there is always a need to establish a trade-off between the flowability, passing ability, and stability properties of SCC suspensions. This should be taken into consideration to design the casting process and the mixture proportioning of SCC. This is called “workability design” of SCC. An efficient and non-expensive workability design approach consists of the prediction and optimization of the workability of the concrete mixtures for the selected construction processes, such as transportation, pumping, casting, compaction, and finishing. Indeed, the mixture proportioning of SCC should ensure the construction quality demands, such as demanded levels of flowability, passing ability, filling ability, and stability (dynamic and static). This is necessary to develop some theoretical tools to assess under what conditions the construction quality demands are satisfied. Accordingly, this thesis is dedicated to carry out analytical and numerical simulations to predict flow performance of SCC under different casting processes, such as pumping and tremie applications, or casting using buckets. The L-Box and T-Box set-ups can evaluate flow performance properties of SCC (e.g., flowability, passing ability, filling ability, shear-induced and gravitational dynamic segregation) in casting process of wall and beam elements. The specific objective of the study consists of relating numerical results of flow simulation of SCC in L-Box and T-Box test set-ups, reported in this thesis, to the flow performance properties of SCC during casting. Accordingly, the SCC is modeled as a heterogeneous material. Furthermore, an analytical model is proposed to predict flow performance of SCC in L-Box set-up using the Dam Break Theory. On the other hand, results of the numerical simulation of SCC casting in a reinforced beam are verified by experimental free surface profiles. The results of numerical simulations of SCC casting (modeled as a single homogeneous fluid), are used to determine the critical zones corresponding to the higher risks of segregation and blocking. The effects of rheological parameters, density, particle contents, distribution of reinforcing bars, and particle-bar interactions on flow performance of SCC are evaluated using CFD simulations of SCC flow in L-Box and T-box test set-ups (modeled as a heterogeneous material). Two new approaches are proposed to classify the SCC mixtures based on filling ability and performability properties, as a contribution of flowability, passing ability, and dynamic stability of SCC.
Resumo:
Les concentrations de métaux lourds retrouvées dans les sols augmentent considérablement depuis la révolution industrielle et s’accumulent quotidiennement dans la biosphère. Ces composés métalliques persisteront pendant plusieurs années au niveau des différents écosystèmes affectés et voyageront dans les chaînes alimentaires par bioaccumulation. Les activités humaines, telle que l’industrie minière contribuent activement à cette problématique environnementale. En effet, l’excavation minière perturbe la roche-mère et favorise l’oxydation des métaux lourds sulfurés qui, lentement, produiront de l’acide sulfurique. Cette acidification peut mobiliser les éléments métalliques stables en condition neutre ou alcaline. Ces phénomènes induisent la formation du drainage minier acide (DMA) qui peut contaminer les cours d’eau ou les nappes phréatiques à proximité. Plusieurs mines sont situées en Abitibi-Témiscamingue en raison de l’abondance de divers minerais dans la roche mère tels que l’or. Une importante quantité de déchets industriels est produite lors de l’excavation du minerai, dont les résidus miniers entreposés dans des bassins de rétention extérieurs. Ces bassins prennent de l’expansion quotidiennement autour du site minier substituant la place de la végétation saine et des territoires. Une mise en végétation des sites miniers du Québec est exigée depuis 1995 afin de redonner une apparence naturelle aux sites et limiter le phénomène d’érosion. Depuis 2013, un plan de réaménagement et de restauration des sites exploités est obligatoire selon la loi sur les mines. Ces bassins seront donc ciblés pour effectuer des essais de revégétalisation par l’entremise de plantes actinorhiziennes. Les plantes actinorhiziennes sont des végétaux robustes pouvant coloniser nombreux habitats perturbés et hostiles. L’aulne est une plante actinorhizienne pouvant établir une relation symbiotique avec l’actinobactérie fixatrice d’azote du genre Frankia. La symbiose actinorhizienne est une interaction équitablement profitable entre la plante et la bactérie. Cette symbiose repose sur la capacité de la bactérie à transformer, au niveau des nodules, l’azote atmosphérique en ammonium assimilable grâce à une enzyme spécifique, la nitrogénase. Lorsque la symbiose est bien établie, elle donnera un avantage significatif aux plantes pour leur développement et leur croissance, et ce, même dans un substrat pauvre en nutriments ou contaminé. En effet, la symbiose actinorhizienne permet d’améliorer la structure physicochimique d’un sol et de l’enrichir en azote grâce à la fixation de l’azote atmosphérique. Dans la région de l’Abitibi-Témiscamingue, la mine Doyon est une mine d’or qui détient des sols acidogènes contenant des traces non négligeables de métaux lourds. Ce projet de recherche en microbiologie environnementale avait comme objectif principal d’évaluer la capacité des aulnes rugueux et des aulnes crispés à coloniser des résidus miniers acidogènes aurifères (concentrations différentes de 0 %, 35 %, 65 % et 100 %) avec ou sans l’aide de Frankia. La dispersion des contaminants par les feuilles a aussi été étudiée afin d’évaluer le risque environnemental de l’utilisation des aulnes sur le terrain à des fins de revégétalisation. Les objectifs préliminaires avaient comme but d’évaluer la résistance, de manière individuelle, de la souche ACN10a du genre Frankia (par extrait aqueux) puis des espèces d’aulne aux résidus miniers non stérilisés. Par le fait même, la microflore des résidus miniers a été étudiée dans le but d’isoler des espèces symbiotiques d’endophytes écoadaptées aux conditions arides du site minier Doyon. Concernant les objectifs préliminaires, les résultats ont démontré que la souche ACN10a résiste bien jusqu’à 35 % d’extrait aqueux de résidus miniers de la mine Doyon. Pour les concentrations supérieures à 50 %, Frankia (souche ACN10a) a démontré une respiration cellulaire et des concentrations protéiques décroissantes en raison de la présence d’éléments toxiques biodisponibles dans l’extrait aqueux. Par ailleurs, les aulnes rugueux et crispés ont démontré une tolérance jusqu’à la concentration de 35 % de résidus miniers non stérilisés sans la présence de Frankia. Par la suite, les résultats d’isolement n’ont pas démontré la capacité des aulnes à recruter des bactéries symbiotiques à partir des résidus miniers de la mine Doyon. Concernant l’objectif principal, les résultats ont démontré que l’aulne rugueux résiste mieux que l’aulne crispé jusqu’aux concentrations de 35 % de résidus miniers lorsqu’inoculés en manifestant une meilleure biomasse sèche totale, une plus grande concentration de chlorophylle dans les feuilles et un plus grand nombre spécifique de nodules. L’établissement symbiotique a été affecté par la présence des résidus miniers acidogène révélant que le nombre de site d’infection racinaire diminuait en fonction des concentrations de résidus miniers croissantes (0 %, 35 %, 65 % et 100 %). Ensuite, une analyse des éléments chimiques des feuilles a démontré que le transfert des métaux lourds des résidus miniers vers les feuilles était minime. Les plantes révélant de hautes teneurs en métaux lourds dans leurs feuilles ont développé par le fait même, une faible biomasse aérienne limitant ainsi la dispersion de contaminants lors de la perte des feuilles à l’automne. Le modèle expérimental aulne-Frankia possédait un seuil de tolérance visible à la concentration de 35 % de résidus miniers acidogènes aurifères de la mine Doyon. De plus, la présence de la symbiose actinorhizienne a modulé la distribution de certains éléments chimiques dans les feuilles en comparaison avec les aulnes non-inoculés (molybdène, nickel). Puis, une similarité a été notée dans la composition chimique des feuilles d’aulnes inoculés s’étant développés dans 0 % (témoin positif) et 35 % de résidus miniers.
Resumo:
An interpretative methodology for understanding meaning in cinema since the 1950s, auteur analysis is an approach to film studies in which an individual, usually the director, is studied as the author of her or his films. The principal argument of this thesis is that proponents of auteurism have privileged examination of the visual components in a film-maker’s body of work, neglecting the potentially significant role played by sound. The thesis seeks to address this problematic imbalance by interrogating the creative use of sound in the films written and directed by Rolf de Heer, asking the question, “Does his use of sound make Rolf de Heer an aural auteur?” In so far as the term ‘aural’ encompasses everything in the film that is heard by the audience, the analysis seeks to discover if de Heer has, as Peter Wollen suggests of the auteur and her or his directing of the visual components (1968, 1972 and 1998), unconsciously left a detectable aural signature on his films. The thesis delivers an innovative outcome by demonstrating that auteur analysis that goes beyond the mise-en-scène (i.e. visuals) is productive and worthwhile as an interpretive response to film. De Heer’s use of the aural point of view and binaural sound recording, his interest in providing a ‘voice’ for marginalised people, his self-penned song lyrics, his close and early collaboration with composer Graham Tardif and sound designer Jim Currie, his ‘hands-on’ approach to sound recording and sound editing and his predilection for making films about sound are all shown to be examples of de Heer’s aural auteurism. As well as the three published (or accepted for publication) interviews with de Heer, Tardif and Currie, the dissertation consists of seven papers refereed and published (or accepted for publication) in journals and international conference proceedings, a literature review and a unifying essay. The papers presented are close textual analyses of de Heer’s films which, when considered as a whole, support the thesis’ overall argument and serve as a comprehensive auteur analysis, the first such sustained study of his work, and the first with an emphasis on the aural.