1000 resultados para stratégies du temps d’attente
Resumo:
Les accidents sont la cause la plus fréquente de décès chez l’enfant, la plupart du temps à cause d’un traumatisme cranio-cérébrale (TCC) sévère ou d’un choc hémorragique. Malgré cela, la prise en charge de ces patients est souvent basée sur la littérature adulte. Le mannitol et le salin hypertonique (3%) sont des traitements standards dans la gestion de l’hypertension intracrânienne, mais il existe très peu d’évidence sur leur utilité en pédiatrie. Nous avons entrepris une revue rétrospective des traumatismes crâniens sévères admis dans les sept dernières années, pour décrire l’utilisation de ces agents hyperosmolaires et leurs effets sur la pression intracrânienne. Nous avons établi que le salin hypertonique est plus fréquemment utilisé que le mannitol, qu’il ne semble pas y avoir de facteurs associés à l’utilisation de l’un ou l’autre, et que l’effet sur la pression intracrânienne est difficile à évaluer en raison de multiples co-interventions. Il faudra mettre en place un protocole de gestion du patient avec TCC sévère avant d’entreprendre des études prospectives. La transfusion sanguine est employée de façon courante dans la prise en charge du patient traumatisé. De nombreuses études soulignent les effets néfastes des transfusions sanguines suggérant des seuils transfusionnels plus restrictifs. Malgré cela, il n’y a pas de données sur les transfusions chez l’enfant atteint de traumatismes graves. Nous avons donc entrepris une analyse post-hoc d’une grosse étude prospective multicentrique sur les pratiques transfusionnelles des enfants traumatisés. Nous avons conclu que les enfants traumatisés sont transfusés de manière importante avant et après l’admission aux soins intensifs. Un jeune âge, un PELOD élevé et le recours à la ventilation mécanique sont des facteurs associés à recevoir une transfusion sanguine aux soins intensifs. Le facteur le plus prédicteur, demeure le fait de recevoir une transfusion avant l’admission aux soins, élément qui suggère probablement un saignement continu. Il demeure qu’une étude prospective spécifique des patients traumatisés doit être effectuée pour évaluer si une prise en charge basée sur un seuil transfusionnel restrictif serait sécuritaire dans cette population.
Resumo:
Cette recherche explore comment l’infrastructure et les utilisations d’eBird, l’un des plus grands projets de science citoyenne dans le monde, se développent et évoluent dans le temps et l’espace. Nous nous concentrerons sur le travail d’eBird avec deux de ses partenaires latino-américains, le Mexique et le Pérou, chacun avec un portail Web géré par des organisations locales. eBird, qui est maintenant un grand réseau mondial de partenariats, donne occasion aux citoyens du monde entier la possibilité de contribuer à la science et à la conservation d’oiseaux à partir de ses observations téléchargées en ligne. Ces observations sont gérées et gardées dans une base de données qui est unifiée, globale et accessible pour tous ceux qui s’intéressent au sujet des oiseaux et sa conservation. De même, les utilisateurs profitent des fonctionnalités de la plateforme pour organiser et visualiser leurs données et celles d’autres. L’étude est basée sur une méthodologie qualitative à partir de l’observation des plateformes Web et des entrevues semi-structurées avec les membres du Laboratoire d’ornithologie de Cornell, l’équipe eBird et les membres des organisations partenaires locales responsables d’eBird Pérou et eBird Mexique. Nous analysons eBird comme une infrastructure qui prend en considération les aspects sociaux et techniques dans son ensemble, comme un tout. Nous explorons aussi à la variété de différents types d’utilisation de la plateforme et de ses données par ses divers utilisateurs. Trois grandes thématiques ressortent : l’importance de la collaboration comme une philosophie qui sous-tend le développement d’eBird, l’élargissement des relations et connexions d’eBird à travers ses partenariats, ainsi que l’augmentation de la participation et le volume des données. Finalement, au fil du temps on a vu une évolution des données et de ses différentes utilisations, et ce qu’eBird représente comme infrastructure.
Resumo:
Avec l’apparition de plus en plus de souches de bactérie résistante aux antibiotiques, le développement de nouveaux antibiotiques est devenu une important problématique pour les agences de santé. C’est pour cela que la création de nouvelles plateformes pour accélérer la découverte de médicaments est devenu un besoin urgent. Dans les dernières décennies, la recherche était principalement orientée sur la modification de molécules préexistantes, la méta-analyse d’organismes produisant des molécules activent et l’analyse de librairies moléculaires pour trouver des molécules synthétiques activent, ce qui s’est avéré relativement inefficace. Notre but était donc de développer de nouvelles molécules avec des effets thérapeutiques de façon plus efficace à une fraction du prix et du temps comparé à ce qui se fait actuellement. Comme structure de base, nous avons utilisé des métabolites secondaires qui pouvaient altérer le fonctionnement des protéines ou l’interaction entre deux protéines. Pour générer ces molécules, j’ai concentré mes efforts sur les terpènes, une classe de métabolites secondaires qui possède un large éventail d’activités biologiques incluant des activités antibactériennes. Nous avons développé un système de chromosome artificiel de levure (YAC) qui permet à la fois l’assemblage directionnel et combinatoire de gènes qui permet la création de voies de biosynthèse artificielles. Comme preuve de concept, j’ai développé des YACs qui contiennent les gènes pour l’expression des enzymes impliquées dans la biosynthèse de la -carotène et de l’albaflavenone et produit ces molécules avec un haut rendement. Finalement, Des YACs produits à partir de librairies de gènes ont permis de créer une grande diversité de molécules.
Resumo:
Les accidents sont la cause la plus fréquente de décès chez l’enfant, la plupart du temps à cause d’un traumatisme cranio-cérébrale (TCC) sévère ou d’un choc hémorragique. Malgré cela, la prise en charge de ces patients est souvent basée sur la littérature adulte. Le mannitol et le salin hypertonique (3%) sont des traitements standards dans la gestion de l’hypertension intracrânienne, mais il existe très peu d’évidence sur leur utilité en pédiatrie. Nous avons entrepris une revue rétrospective des traumatismes crâniens sévères admis dans les sept dernières années, pour décrire l’utilisation de ces agents hyperosmolaires et leurs effets sur la pression intracrânienne. Nous avons établi que le salin hypertonique est plus fréquemment utilisé que le mannitol, qu’il ne semble pas y avoir de facteurs associés à l’utilisation de l’un ou l’autre, et que l’effet sur la pression intracrânienne est difficile à évaluer en raison de multiples co-interventions. Il faudra mettre en place un protocole de gestion du patient avec TCC sévère avant d’entreprendre des études prospectives. La transfusion sanguine est employée de façon courante dans la prise en charge du patient traumatisé. De nombreuses études soulignent les effets néfastes des transfusions sanguines suggérant des seuils transfusionnels plus restrictifs. Malgré cela, il n’y a pas de données sur les transfusions chez l’enfant atteint de traumatismes graves. Nous avons donc entrepris une analyse post-hoc d’une grosse étude prospective multicentrique sur les pratiques transfusionnelles des enfants traumatisés. Nous avons conclu que les enfants traumatisés sont transfusés de manière importante avant et après l’admission aux soins intensifs. Un jeune âge, un PELOD élevé et le recours à la ventilation mécanique sont des facteurs associés à recevoir une transfusion sanguine aux soins intensifs. Le facteur le plus prédicteur, demeure le fait de recevoir une transfusion avant l’admission aux soins, élément qui suggère probablement un saignement continu. Il demeure qu’une étude prospective spécifique des patients traumatisés doit être effectuée pour évaluer si une prise en charge basée sur un seuil transfusionnel restrictif serait sécuritaire dans cette population.
Resumo:
Cette recherche explore comment l’infrastructure et les utilisations d’eBird, l’un des plus grands projets de science citoyenne dans le monde, se développent et évoluent dans le temps et l’espace. Nous nous concentrerons sur le travail d’eBird avec deux de ses partenaires latino-américains, le Mexique et le Pérou, chacun avec un portail Web géré par des organisations locales. eBird, qui est maintenant un grand réseau mondial de partenariats, donne occasion aux citoyens du monde entier la possibilité de contribuer à la science et à la conservation d’oiseaux à partir de ses observations téléchargées en ligne. Ces observations sont gérées et gardées dans une base de données qui est unifiée, globale et accessible pour tous ceux qui s’intéressent au sujet des oiseaux et sa conservation. De même, les utilisateurs profitent des fonctionnalités de la plateforme pour organiser et visualiser leurs données et celles d’autres. L’étude est basée sur une méthodologie qualitative à partir de l’observation des plateformes Web et des entrevues semi-structurées avec les membres du Laboratoire d’ornithologie de Cornell, l’équipe eBird et les membres des organisations partenaires locales responsables d’eBird Pérou et eBird Mexique. Nous analysons eBird comme une infrastructure qui prend en considération les aspects sociaux et techniques dans son ensemble, comme un tout. Nous explorons aussi à la variété de différents types d’utilisation de la plateforme et de ses données par ses divers utilisateurs. Trois grandes thématiques ressortent : l’importance de la collaboration comme une philosophie qui sous-tend le développement d’eBird, l’élargissement des relations et connexions d’eBird à travers ses partenariats, ainsi que l’augmentation de la participation et le volume des données. Finalement, au fil du temps on a vu une évolution des données et de ses différentes utilisations, et ce qu’eBird représente comme infrastructure.
Resumo:
Considérée plus manifestement comme une analyse de la perception et du temps et de l’espace vécus, la Phénoménologie de la perception de Merleau-Ponty fait en outre droit à une réflexion naissante – mais aussi peut-être, plus essentielle – sur le phénomène de l’expression et l’horizon englobant de la question du sens. En effet, le problème de l’expression n’est pas à comprendre comme un épiphénomène de l’existence humaine : il témoigne plus holistiquement des liens profonds qui unissent subjectivité et intersubjectivité, rattache notre existence à un passé humain et décrit plus généralement la complicité de notre corps avec le monde. Cette recherche se propose de comprendre intérieurement la toile des liens intimes qui unissent corporéité et expression, afin d’éclairer le rôle constitutif du corps dans la reprise d’intentions de signification et l’institution créative de nouveaux actes expressifs.
Resumo:
Considérée plus manifestement comme une analyse de la perception et du temps et de l’espace vécus, la Phénoménologie de la perception de Merleau-Ponty fait en outre droit à une réflexion naissante – mais aussi peut-être, plus essentielle – sur le phénomène de l’expression et l’horizon englobant de la question du sens. En effet, le problème de l’expression n’est pas à comprendre comme un épiphénomène de l’existence humaine : il témoigne plus holistiquement des liens profonds qui unissent subjectivité et intersubjectivité, rattache notre existence à un passé humain et décrit plus généralement la complicité de notre corps avec le monde. Cette recherche se propose de comprendre intérieurement la toile des liens intimes qui unissent corporéité et expression, afin d’éclairer le rôle constitutif du corps dans la reprise d’intentions de signification et l’institution créative de nouveaux actes expressifs.
Resumo:
Méthodologie: Test de Johansen, Test économétrique de cointégration, Modèle à variable latente
Resumo:
Méthodologie: Cadre conceptuel: interactionnisme symbolique ; socialisation.
Resumo:
Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.
Resumo:
Abstract : The goal of this study was to determine whether providing videos for students to watch before class would be more effective than assigning readings. The study took place within a flipped classroom: a methodology designed to engage students in the initial construction of knowledge before class, freeing up classroom time for active learning pedagogies. Preparing for class by watching videos should require less of the students’ time than doing readings, and they should respond better to videos than to readings because these more closely mimic this generation’s interactions with information and media. Consequently, flipped classroom students provided with videos should perceive a lower workload, which could translate into more positive learning outcomes. From an instructor’s perspective, however, developing and organizing videos is extremely time consuming. Thus, a teacher giving consideration to flipping their class would likely want to know whether videos would lead to positive outcomes for their students before actually committing to developing these. However, no research to date was identified which has examined the question of whether flipped class videos would be more effective than readings. The hypotheses for the study were that videos would result in measurable learning gains for the students, and would lead to lower time demands and perceived workloads, as well as more positive attitudes. These were tested using a quasi-experimental design involving a convenience sample of two small college General Biology 1 courses taught by the same teacher. One group had videos to watch before class for the first 1/3 of the course (treatment; Class A), during which the other was assigned readings (control; Class B). Following this, both groups were provided with videos. Student scores were compared on pre-instruction and in-class quizzes, activities, four unit tests, and a final exam. Further, students completed a 44 item survey as well as a demographic questionnaire. Results suggest greater learning gains for students provided with videos. Certainly, students from Class B improved significantly when provided with videos, especially as compared to Class A, whose improvement over the same time span was marginal. However, conclusions based on these results are somewhat tentative, as Class A performed rather poorly on all summative assessments, and this could have driven the patterns observed, at least partially. From the surveys, Class B students reported that they spent more time preparing for class, were less likely to do the necessary preparations, and generally perceived their effort and workload levels to be higher. These factors were significant enough that they contributed to four students from Class B (10% of the class) dropping the course over the semester. In addition, students from both groups also reported more positive attitudes towards videos than readings, although they did not necessarily feel that videos were (or would be) a more effective study and learning tool. The results of this study suggest that any effort on the part of an instructor to prepare or organize videos as pre-class instructional tools would likely be well spent. However, even outside of the context of a flipped classroom, this study provides an indication that assigned readings can place heavy workload requirements on students, which should give cause for any instructor employing mandatory readings to reassess their approach. Finally, since both groups were statistically equivalent across all measured demographic variables, it appears that some of the observed disparities in assessment scores may have been driven by differences in group dynamics. Consequently, the suggestion is made that an instrument to measure classroom climate should be incorporated into any research design comparing two or more interacting groups of students, as group dynamics have the potential to play a key role in any outcomes.||Résumé : L'objectif de cette étude était de déterminer si fournir des vidéos aux étudiants avant une classe serait plus efficace comme méthode d’apprentissage individuel que de leur donner une liste de lectures à compléter. L'étude a eu lieu dans une classe renversée – une stratégie plus reconnu sous le nom de «classroom flipping» – ce qui ce trouve à être une méthodologie qui vise à obliger les élèves d’accomplir le transfert de connaissances initial avant la classe, en vue de libérer du temps de classe pour des activités pédagogiques plus approfondie. En théorie, pour les élèves, se préparer pour une classe renversé en regardant des vidéos devrait exiger moins de temps que d’être obligé à apprendre le matériel en lisant. En plus, présenter le matériel d’un cours avec des vidéos imite de plus près les genres d’interactions qu’on les étudiants de cette génération avec de l'information et les médias, ce qui devrait faciliter leur tâche. Par conséquent, les élèves d’une classe renversée fournies avec des vidéos devraient percevoir une charge de travail moins élevée, et ceci pourrait se traduire en bilans d'apprentissage plus positifs. Cependant, du point de vue du professeur, avoir à développer et organiser des vidéos se présente comme un gros défi, surtout en vue du temps et de l’effort qui sont requis. Ainsi, un enseignant qui songe à renversée sa classe voudrait probablement savoir si le fait d’offrir des vidéos mène à des résultats positifs avant de réellement s'engager dans le développement de ces derniers. Par contre, lors de l’écriture de ce texte, aucune étude n’a été identifié qui répond à cette question, et aucune publication compare la performance des étudiants lorsqu’ils ont des vidéos à regarder avec lorsqu’ils sont obligés de faire de la lecture pour se préparer. Alors, les hypothèses de l'étude étaient que des étudiants ayant accès à des vidéos démontreraient des gains d’apprentissages évidents, qu’ils apercevraient des requêtes de temps moins encombrantes et une charge de travail plus faible, et, en vue de ces derniers, que les étudiants auraient des attitudes plus positives envers le cours et le matériel. Les hypothèses ont été testés à l'aide d'un modèle quasi-expérimental, avec comme échantillon deux classes collégiales de Biologie générale 1, tout les deux enseignés par le même professeur. Un de ces groupes avaient accès à des vidéos pour se préparer pour chaque classe lors du premier tiers du cours, alors que l’autre groupe étaient obligé de faire de la lecture. Après le premier tiers du cours, ce qui fut 10 des 30 classes du semestre, les deux groupes ont été fournis avec des vidéos pour le restant du cours. Des notes ont été ramassées et comparées sur des mini-examens préparatoires avant et durant les classes, sur des activités complétées en classe, sur quatre examens en classe, et un examen final. En outre, les étudiants ont rempli un questionnaire composé de 44 items, ainsi qu’un autre questionnaire démographique. Les résultats de l’étude suggèrent qu’une décision d’offrir des vidéos aux élèves peut mener à des gains d'apprentissage plus élevés comparativement à l’option lecture. En particulier, les élèves du groupe initial de lecture se sont considérablement améliorées lorsqu'ils ont été fournis avec des vidéos, surtout par rapport au groupe initial de vidéos, dont l’amélioration durant la même période était marginale. Cependant, ces conclusions sont un peu incertaines, parce que la performance du groupe initial de vidéos était globalement médiocre, ce qui aurait pu mener aux résultats observés. Par contre, les résultats obtenus des questionnaires étaient moins incertains, et indiquent que les élèves qui se sont vues attribués des lectures passaient plus de temps pour préparer leurs classes, étaient plus aptes à ne pas faire les préparatifs nécessaires, et ont aperçus leurs niveaux d'efforts et leurs charges de travails comme étant plus élevés. Ces facteurs étaient suffisamment importants qu'ils ont contribué au fait que quatre étudiants du groupe de lecture, soit 10% de la classe, ont abandonnés le cours durant le premier tiers du semestre. Finalement, les élèves ont démontrés des attitudes plus positives envers les vidéos, bien qu'ils ne trouvaient pas nécessairement que ceux-ci étaient plus efficaces que les lectures lorsqu’ils voulaient étudier pour les examens. Basé sur ces résultats, il est possible de conclure que tout effort de la part d'un instructeur pour préparer ou organiser des vidéos pédagogiques serait probablement un bon investissement. En plus, et même en dehors du contexte d'une classe renversée, cette étude offre une indication qu’une stratégie pédagogique qui oblige les étudiants à faire beaucoup de lecture peut imposer des exigences et une charge de travail très élevée pour les étudiants, ce qui devrait donner cause à tout instructeur qui attribue des lectures à réévaluer leur approche. Enfin, puisque les deux groupes étaient équivalents d’un point de vue statistique sur toutes les mesures démographiques, il semble que certaines disparités entre les deux groupes dans les notes d'évaluation et d’examens peuvent possiblement avoir été entraînées par des différentes dynamiques dans chaque group. Par conséquent, il est suggéré que des mesures de relations entre étudiants et de dynamiques de groupes devraient être incorporé dans n’importe qu’elle recherche comparant deux ou plusieurs groupes d’étudiants, et surtout quand ces étudiants sont en interaction, parce-que en toute apparence les dynamiques de groupes ont le potentiel de jouer un rôle clé dans les résultats obtenus.
Resumo:
Les femmes occupent une place considérable au XVIIIe siècle, comme à toutes les époques. Que ce soit sur le plan du travail, au sein du ménage ou pour l’éducation des enfants, on ne peut occulter leurs rôles. Cependant, sur le plan juridique, elles sont la plupart du temps assujetties à l’autorité des hommes. Pendant leur minorité, elles sont « filles de », donc sous l’autorité du père, avant de devenir « femmes de » et de passer sous l’autorité du mari une fois le mariage contracté. Il y a malgré tout des moments d’autonomie. Le veuvage est celui qui a été le plus étudié. Cet état a été considéré par certaines historiennes comme un moment de libération, où les femmes récupèrent le droit d’administrer leurs biens et d’ester en justice. L’absence d’homme est aussi un de ces moments – dont la durée varie – qui permet à certaine femme d’avoir une plus grande autonomie. Pour finir, il y a les femmes qui sont autonomes juridiquement et capables d’administrer leurs biens en permanence, dès l’âge de la majorité – 25 ans –, les femmes célibataires laïques. Ces femmes n’ont été l’objet d’aucune étude pour le XVIIIe siècle canadien. Pourtant, dans une société où le mariage est la norme, on peut se demander pourquoi certaines femmes se retrouvent sans époux. Ont-elles choisi le célibat ou leur a- t-il été imposé? Est-ce qu’il s’agit d’une source de liberté pour ces femmes émancipées d’une tutelle masculine? Quel est leur rôle dans la famille et sur le plan du travail? Comprendre le statut de ces femmes n’est pas aisé, il se situe à la jonction de plusieurs éléments, comme la noblesse, les titres et le niveau de fortune. Il en va de même pour comprendre les motifs qui peuvent expliquer le célibat. Le contexte familial, l’agentivité et le hasard sont autant d’éléments qui peuvent permettre d’expliquer le célibat. C’est sur le plan du travail que le célibat féminin permet de mieux appréhender l’étendue du rôle des femmes dans la famille et dans la société. Loin d’être en marge du monde, plusieurs femmes étaient très actives dans le commerce. Elles entretenaient aussi des liens affectifs avec les membres de leur famille, comme en témoignent les legs testamentaires. Malgré leur petit nombre au sein de la société canadienne du XVIIIe siècle, ces femmes avaient une grande importance pour bien des familles et de nombreux individus. Étudier ces femmes permet d’éclairer encore un peu plus l’histoire de la famille et des femmes pour la période préindustrielle.
Resumo:
Résumé : Les ions hydronium (H3O + ) sont formés, à temps courts, dans les grappes ou le long des trajectoires de la radiolyse de l'eau par des rayonnements ionisants à faible transfert d’énergie linéaire (TEL) ou à TEL élevé. Cette formation in situ de H3O + rend la région des grappes/trajectoires du rayonnement temporairement plus acide que le milieu environnant. Bien que des preuves expérimentales de l’acidité d’une grappe aient déjà été signalées, il n'y a que des informations fragmentaires quant à son ampleur et sa dépendance en temps. Dans ce travail, nous déterminons les concentrations en H3O + et les valeurs de pH correspondantes en fonction du temps à partir des rendements de H3O + calculés à l’aide de simulations Monte Carlo de la chimie intervenant dans les trajectoires. Quatre ions incidents de différents TEL ont été sélectionnés et deux modèles de grappe/trajectoire ont été utilisés : 1) un modèle de grappe isolée "sphérique" (faible TEL) et 2) un modèle de trajectoire "cylindrique" (TEL élevé). Dans tous les cas étudiés, un effet de pH acide brusque transitoire, que nous appelons un effet de "pic acide", est observé immédiatement après l’irradiation. Cet effet ne semble pas avoir été exploré dans l'eau ou un milieu cellulaire soumis à un rayonnement ionisant, en particulier à haut TEL. À cet égard, ce travail soulève des questions sur les implications possibles de cet effet en radiobiologie, dont certaines sont évoquées brièvement. Nos calculs ont ensuite été étendus à l’étude de l'influence de la température, de 25 à 350 °C, sur la formation in situ d’ions H3O + et l’effet de pic acide qui intervient à temps courts lors de la radiolyse de l’eau à faible TEL. Les résultats montrent une augmentation marquée de la réponse de pic acide à hautes températures. Comme de nombreux processus intervenant dans le cœur d’un réacteur nucléaire refroidi à l'eau dépendent de façon critique du pH, la question ici est de savoir si ces fortes variations d’acidité, même si elles sont hautement localisées et transitoires, contribuent à la corrosion et l’endommagement des matériaux.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
La recherche porte sur le premier cours obligatoire de français au collégial, Écriture et littérature, au cours duquel les étudiants – en majorité jugés faibles lecteurs par leurs professeurs – font face à des défis de lecture importants lorsqu’il s’agit de lire des œuvres littéraires complètes, dont le programme d’études impose la lecture. Lire une œuvre complète exige non seulement du temps, mais aussi la mise en relation complexe et constamment réévaluée de détails avec l’ensemble de l’œuvre. De plus, les titres imposés à l’entrée au cégep présentent aussi des différences notables avec les œuvres généralement lues au secondaire. Dans ce contexte, différents acteurs du milieu collégial questionnent les pratiques d’enseignement mises en œuvre, mais ils infèrent surtout ces pratiques au départ de leur expérience professionnelle; notre recension des écrits montre que l’enseignement de l’o.c. au collégial n’est pas documenté sur le plan scientifique, en dehors des résultats obtenus par l’équipe de Dezutter et al. (2009-2012), qui a mené une recherche sur la place de cette œuvre complète dans les trois cours de français confondus. Nous avons ainsi opté pour l’exploitation secondaire des données collectées spécifiquement dans le cours Écriture et littérature pour décrire les pratiques d’enseignement mises en œuvre par trois professeurs autour de la lecture d’une œuvre littéraire complète choisie par eux. Notre étude multicas, descriptive et exploratoire, est centrée sur le registre épistémique des pratiques d’enseignement, que Vinatier (2007) définit comme « ce qui s’enseigne et comment ». À partir de trois séquences d’enseignements filmées, une analyse thématique a été réalisée. Les angles d’entrée dans l’œuvre, la place laissée à celle-ci et quatre formes de savoirs (sur la littérature, sur la langue, sur les processus de lecture et sur le monde) ont été examinés afin de déterminer ce qui s’enseigne. La notion de rôles, croisée ultérieurement avec les savoirs convoqués, a permis de décrire comment cela s’enseigne. Les résultats obtenus montrent que la proportion de l’œuvre exploitée est très variable et que les trois professeurs adoptent surtout un rôle d’expert de savoirs sur le monde pour la traiter. Les savoirs sur les processus cognitifs ne sont presque jamais convoqués, et nous n’avons pu observer aucune manifestation évidente de rôles soutenant le développement de la lecture comme activité cognitive. La place laissée à la subjectivité des lecteurs s’avère ténue, et la lecture implicitement convoquée s’éloigne largement de celle susceptible d’être mise en œuvre en contexte extrascolaire, bien que certains liens soient plus souvent établis par l’un des professeurs avec la culture première des étudiants. En conformité avec le programme d’études, les activités entourant l’œuvre littéraire complète semblent au final souvent au service de l’évaluation de l’écriture, ce qui fait plutôt de la lecture de l’œuvre littéraire complète un prétexte à d’autres apprentissages.