978 resultados para Techniques d’orthèses et de prothèses orthopédiques
Resumo:
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts.
Resumo:
La régulation de l’expression des gènes est ce qui permet à nos cellules de s’adapter à leur environnement, de combattre les infections ou, plus généralement, de produire la quantité exacte de protéine nécessaire pour répondre à un besoin spécifique. Parmi les joueurs les plus importants dans cette régulation de l’expression des gènes on retrouve les microARN (miARN). Ces petits ARN de 22 nucléotides sont présents chez la majorité des espèces multicellulaires et sont responsables du contrôle direct de plus de 30% des gènes exprimant des protéines chez les vertébrés. La famille de miARN lethal-7 (let-7) est composée de miARN parmi les plus connus et ayant des fonctions cruciales pour la cellule. La régulation du niveau des miARN let-7 est essentielle au bon développement cellulaire. La biogenèse de ces miARN, du transcrit primaire jusqu’à leur forme mature, est régulée principalement par Lin28, une protéine pluripotente très conservée. Cette protéine est composée d’un domaine cold shock (CSD) et de deux domaines de liaison au zinc. C’est grâce à ces domaines de liaison à l’ARN que Lin28 peut lier et inhiber la maturation des miARN let-7. L’objectif de cette thèse est de caractériser l’interaction entre Lin28 et le microARN précurseur let-7g afin de mieux comprendre le rôle de cette protéine dans l’inhibition de la biogenèse du miARN. À l’aide de techniques biochimiques et biophysiques, nous avons d’abord défini les principaux déterminants de l’interaction entre Lin28 et la boucle terminale du miARN précurseur let-7g (TL-let-7g). Nous avons conclu que le domaine C-terminal de Lin28, composé d’un motif riche en lysines et arginines ainsi que de deux motifs de liaison au zinc, permet à la protéine de lier spécifiquement et avec haute affinité un renflement riche en guanine conservé chez les précurseurs de la famille let-7. Aussi, parce que la séquence et la spécificité de liaison à l’ARN de ce domaine C-terminal sont semblables à celles de la protéine NCp7 du VIH, nous avons défini ce dernier comme le domaine NCp7-like de Lin28. Par la suite, nous avons caractérisé la multimérisation de trois protéines Lin28 sur la boucle terminale de pre-let-7g. Ceci a permis de réconcilier d’apparentes contradictions retrouvées dans la littérature actuelle concernant les sites de liaison de Lin28 lors de sa liaison aux miARN précurseurs. Nous avons identifié trois sites de liaison à haute affinité sur TL-let-7g qui sont liés dans un ordre précis par trois protéines Lin28. Lors de la formation du complexe multimérique, le CSD permet une déstabilisation de l’ARN, ce qui rend accessible plusieurs sites de liaison. Le domaine NCp7-like permet plutôt un assemblage ordonné de la protéine et facilite la liaison initiale de cette dernière. Ces nouveaux résultats rendent possible la mise au point d’un nouveau modèle de l’interaction entre Lin28 et le miARN précurseur let-7g. En conclusion, les études réalisées dans cette thèse apportent une meilleure compréhension des mécanismes moléculaires impliqués dans la régulation post-transcriptionnelle d’une importante famille de miARN et permettront de guider les futures études dans le domaine de recherche en pleine effervescence qu’est celui de la biogenèse des miARN.
Resumo:
Ce projet analyse le rôle des images – photographies, films, dessins – produites dans le cadre des recherches ethnographiques « interdisciplinaires » menées par l’anthropologue italien Ernesto De Martino en Italie méridionale dans les années 1950. Ces expéditions ont donné lieu à des documents multiformes puisqu’elles regroupent des chercheurs de formations différentes : historien des religions, ethnomusicologue, psychiatre, photographe, et occasionnellement cinéaste. Plus spécifiquement, il s’agit d’étudier le rôle des matériaux visuels dans la recherche sur le tarentisme, rituel de possession observé dans les Pouilles en 1959 par De Martino et son équipe, matériaux dont une partie constitue l’annexe photographique de son œuvre célèbre La terra del rimorso (1961). Nous portons également attention à l’atlas iconographique de son ouvrage sur la lamentation funèbre, Morte e pianto rituale nel mondo antico. Dal lamento pagano al pianto di Maria (1958), fruit d’une étude de terrain dans la région sud italienne de la Lucania (Basilicata). Tout en considérant les relations intermédiales entre les images, le texte, le son et le corps, ce mémoire identifie les rapports dialectiques entre les techniques d’enregistrement et les logiques répétitives, rythmiques et performatives des rituels en question. Chez De Martino, l’image est point de tension en matière de temporalité et de ressemblance : elle suggère une anthropologie de la « survivance » nous permettant de relever plusieurs correspondances avec l'oeuvre de l’historien de l’art Aby Warburg.
Resumo:
Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.
Resumo:
L’espace est un élément peu exploré en musique. Méconnu des compositeurs, il n’est généralement pas pensé comme paramètre musical « composable ». Pourtant si la musique peut être perçue comme une organisation et une succession d’éléments dans le temps, pourquoi ne pourrait-elle pas l’être aussi dans l’espace? Ce travail se veut en quelque sorte un pont entre la recherche et la pratique, qui se construit par la synthèse de l’information que j’ai pu trouver sur chacune des quatre méthodes de spatialisation abordées ici. Dans un premier temps, je traiterai de leur développement, leur fonctionnement et des possibilités d’intégration de ces méthodes dans le processus de composition musicale, notamment en discutant les outils disponibles. Dans un second temps, les pièces Minimale Sédation et Fondations, toutes deux composées en octophonie seront discutées. J’expliquerai leurs processus de composition à travers les intentions, les techniques d’écriture et les outils qui ont menés à leurs créations.
Resumo:
Depuis ces dernières décennies, le domaine des biomatériaux a connu un essor considérable, évoluant de simples prothèses aux dispositifs les plus complexes pouvant détenir une bioactivité spécifique. Outre, le progrès en science des matériaux et une meilleure compréhension des systèmes biologiques a offert la possibilité de créer des matériaux synthétiques pouvant moduler et stimuler une réponse biologique déterminée, tout en améliorant considérablement la performance clinique des biomatériaux. En ce qui concerne les dispositifs cardiovasculaires, divers recouvrements ont été développés et étudiés dans le but de modifier les propriétés de surface et d’améliorer l’efficacité clinique des tuteurs. En effet, lorsqu’un dispositif médical est implanté dans le corps humain, son succès clinique est fortement influencé par les premières interactions que sa surface établit avec les tissus et les fluides biologiques environnants. Le recouvrement à la surface de biomatériaux par diverses molécules ayant des propriétés complémentaires constitue une approche intéressante pour atteindre différentes cibles biologiques et orienter la réponse de l’hôte. De ce fait, l’élucidation de l’interaction entre les différentes molécules composant les recouvrements est pertinente pour prédire la conservation de leurs propriétés biologiques spécifiques. Dans ce travail, des recouvrements pour des applications cardiovasculaires ont été créés, composés de deux molécules ayant des propriétés biologiques complémentaires : la fibronectine (FN) afin de promouvoir l’endothélialisation et la phosphorylcholine (PRC) pour favoriser l’hémocompatibilité. Des techniques d’adsorption et de greffage ont été appliquées pour créer différents recouvrements de ces deux biomolécules sur un polymère fluorocarboné déposé par traitement plasma sur un substrat en acier inoxydable. Dans un premier temps, des films de polytétrafluoroéthylène (PTFE) ont été utilisés en tant que surface modèle afin d’explorer l’interaction de la PRC et de la FN avec les surfaces fluorocarbonées ainsi qu’avec des cellules endothéliales et du sang. La stabilité des recouvrements de FN sur l’acier inoxydable a été étudiée par déformation, mais également par des essais statiques et dynamiques sous-flux. Les recouvrements ont été caractérisés par Spectroscopie Photoéléctronique par Rayons X, immunomarquage, angle de contact, Microscopie Électronique de Balayage, Microscopie de Force Atomique et Spectrométrie de Masse à Ionisation Secondaire à Temps de Vol (imagerie et profilage en profondeur). Des tests d’hémocompatibilité ont été effectués et l’interaction des cellules endothéliales avec les recouvrements a également été évaluée. La FN greffée a présenté des recouvrements plus denses et homogènes alors que la PRC quant à elle, a montré une meilleure homogénéité lorsqu’elle était adsorbée. La caractérisation de la surface des échantillons contenant FN/PRC a été corrélée aux propriétés biologiques et les recouvrements pour lesquels la FN a été greffée suivie de l’adsorption de la PRC ont présenté les meilleurs résultats pour des applications cardiovasculaires : la promotion de l’endothélialisation et des propriétés d’hémocompatibilité. Concernant les tests de stabilité, les recouvrements de FN greffée ont présenté une plus grande stabilité et densité que dans le cas de l’adsorption. En effet, la pertinence de présenter des investigations des essais sous-flux versus des essais statiques ainsi que la comparaison des différentes stratégies pour créer des recouvrements a été mis en évidence. D’autres expériences sont nécessaires pour étudier la stabilité des recouvrements de PRC et de mieux prédire son interaction avec des tissus in vivo.
Resumo:
La matérialité biologique du corps humain est devenue l’objet d’interventions inédites au moyen de nouvelles technologies biomédicales, comme la procréation médicalement assistée, les tests génétiques, la contraception hormonale. Cette thèse part des difficultés inhérentes à une approche antinaturaliste pour aborder la dimension biologique des corps sexués. “On ne naît pas femme, on le devient” : mais qu’en est-il des corps ? Les technologies biomédicales investissent la chair selon des modalités qui échappent aux grilles d’analyses matérialiste et butlérienne. Faut-il y voir une réfutation du constructivisme, la revanche d’un socle biologique – hormonal, génétique, moléculaire – primant sur les effets anatomiques de la socialisation, comme le suggèrent les partisan·e·s d’un material turn féministe ? À partir d’une analyse de l’évolution de la notion de nature, définie comme "vie elle-même" depuis la révolution moléculaire de la biologie, cette thèse propose une autre interprétation, en définissant les technologies biomédicales comme des technologies de pouvoir relevant d’une biopolitique moléculaire de genre. Sans infirmer la perspective constructiviste, ces médiations sociales originales (adossées au nouveau paradigme épistémique) permettent de comprendre comment les frontières et limites du genre sont déplacées, tout en produisant des identités, des expériences et des subjectivités genrées inédites. En dégageant les coordonnées d’un véritable dispositif biomédical, notre étude comparative entre techniques disciplinaires et biopolitique moléculaire de genre plaide pour une critique antinaturaliste renouvelée, s’articulant à une critique de la technique qui permette d’inventer collectivement des moyens pour se réapproprier démocratiquement les technologies biomédicales.
Resumo:
Cette recherche porte sur le thème de l’accompagnement du développement de l’identité professionnelle pour le nouveau personnel enseignant en techniques humaines. Plus précisément, nous voulons mesurer l’impact d’un projet novateur, soit la création d’un groupe de soutien en période d’insertion professionnelle. La problématique s’articule principalement autour du fait que, dans les trois techniques humaines ciblées, les nouveaux professeurs et professeures sont embauchés d’abord et avant tout pour leurs compétences disciplinaires. À leur arrivée au collégial, leur emploi est précaire et leurs tâches morcelées. Malgré le fait qu’ils débutent dans un état d’urgence, cette transition professionnelle semble être laissée pour compte ainsi que le soutien psychologique. Ce contexte, qui favorise l’isolement, influence parfois la motivation à s’engager dans leur deuxième carrière. Au cégep de Sainte-Foy, il n’existe pas de mentorat départemental ni d’accompagnement spécifique. Seul le programme d’accueil et d’intégration offre une série d’activités obligatoires. Le cadre de référence présente deux classifications des besoins du nouveau personnel enseignant au collégial au regard des travaux de Raymond (2001) et Caplan, Clough, Ellis et Muncey (2009). La recension des écrits nous a également permis de distinguer l’insertion, l’identité et le développement professionnels. Les différents dispositifs d’insertion pédagogique des nouveaux enseignants ont également fait l’objet d’une recherche documentaire. Ces assises théoriques ont guidé le choix du développement de notre groupe de soutien sous l’angle d’une communauté d’apprentissage favorisant l’interaction entre pairs. Cet essai poursuit trois objectifs : 1) concevoir le processus d’accompagnement et la trousse éducative pour le groupe de soutien, 2) valider le processus d’accompagnement et la trousse éducative auprès d’un groupe de nouveaux professeurs et professeures provenant des trois techniques humaines et 3) analyser le point de vue de professeurs et professeures par rapport au processus d’accompagnement et à la trousse éducative proposés. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celleci repose sur une approche méthodologique qualitative, une posture épistémologique interprétative et une recherche de type recherche développement. Dix participantes ont pris part au processus d’accompagnement proposé soit : des entrevues individuelles semi-dirigées et des rencontres de groupe. Les données ont été recueillies grâce à des entrevues semi-dirigées, des rencontres de groupe de discussion, des autoévaluations des participantes ainsi qu’un questionnaire d’évaluation finale. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu s’est faite par l’entremise du logiciel Transana qui a aidé à la transcription des enregistrements, au codage et à la production de rapports synthèse. La dimension éthique a été au coeur de nos préoccupations et nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant que la création du groupe de soutien a eu des retombées positives sur le nouveau personnel enseignant en techniques humaines. Ce nouveau dispositif d’accompagnement a permis de raffiner la classification des besoins de notre cadre de référence. Les catégories émergentes ont révélé des spécificités propres à la deuxième carrière. La formule du groupe de soutien telle que mise à l’essai a, pour sa part, été fortement appréciée des participantes autant pour son fonctionnement que pour son contenu. L’ensemble de ce processus a bonifié la représentation de l’identité professionnelle de Gohier et al. (2001). Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager des éléments favorisant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que le groupe de soutien constitue une avenue pertinente et essentielle au sein de la communauté collégiale.
Resumo:
En 2008, le Québec fait son entrée dans le marché du livre numérique. Cette année-là, l’Association nationale des éditeurs de livres du Québec (ANEL) s’associe avec l’entreprise De Marque pour créer l’Entrepôt numérique (www.entrepotnumerique.com), une plateforme de diffusion et de distribution de livres numériques québécois. Sa structure permet de stocker et de gérer les fichiers numériques, tout en offrant aux éditeurs une interface personnalisée afin que chacun puisse commercialiser ses titres en quelques étapes simples. Dès le départ, les instigateurs de ce projet font le pari de mettre en place une infrastructure de diffusion-distribution propre aux Québécois et qui répond à l’internationalisation du marché du livre. Mais les enjeux sont nombreux pour les professionnels du système-livre du Québec qui tentent de s’adapter aux nouvelles structures et de se frayer un chemin dans la sphère numérique. À la fois d’ordre technologique, économique et culturel, ces enjeux posent la double question de la commercialisation d’une nouvelle forme de livre et de la présence de la culture québécoise sur le web. En effet, face à la multiplication des titres et devant l’espace infini de la Toile, comment assurer la circulation et la promotion du livre numérique ? Comment adapter les circuits traditionnels à un nouveau format de livre qui se distingue de la forme fixe du livre imprimé que l’on connaît ? Et comment, surtout, la culture québécoise peut-elle prendre place auprès de géants internationaux comme Amazon, Google ou Apple ? Ayant précisément pour mandat d’offrir une solution de diffusion numérique simple et efficace aux éditeurs québécois et canadiens-français, l’Entrepôt numérique distribue la production de 148 éditeurs, donnant ainsi aux lecteurs un accès à un catalogue mutualisé comptant 17 144 publications. Plus de 750 000 livres numériques ont été vendus depuis 2009 et de nombreuses ententes de partenariat ont été signées avec 194 revendeurs provenant de 58 pays. Or, en assurant la circulation et la commercialisation des titres dans l’espace numérique, l’Entrepôt numérique participe à la mutation du secteur de la diffusion-distribution au Québec. Il illustre ainsi les évolutions techniques, économiques et structurelles du marché. S’intéresser à l’Entrepôt numérique comme objet d’étude, c’est donc s’intéresser aux enjeux (technologiques, culturels, économiques) pouvant se dégager des nouvelles stratégies de circulation et de commercialisation du livre numérique implantées au sein de la filière québécoise. Trois chapitres composent ce mémoire. Le premier propose un historique de l’Entrepôt numérique. En décrivant à la fois les enjeux de départ, les acteurs impliqués et l’évolution de la plateforme, il permet de situer les conditions culturelles, commerciales et éditoriales ayant permis le développement de cette plateforme. Le deuxième chapitre, qui examine les mécanismes de distribution via l’Entrepôt numérique, met en lumière les différents jalons qui marquent le passage de la distribution traditionnelle à la distribution du livre numérique. Enfin, le troisième chapitre porte sur les mécanismes de diffusion du livre numérique de la plateforme et illustre ainsi les nouvelles conditions de promotion du livre dans la sphère numérique. En somme, la présentation de l’historique de l’Entrepôt numérique et l’examen des mécanismes de diffusion et de distribution de la plateforme permettent d’offrir une meilleure préhension des transformations et enjeux émanant de l’industrie du livre numérique au Québec, entre 2007 et 2015.
Resumo:
Plusieurs programmes de formation offrent des stages pour compléter la formation et valider les apprentissages des stagiaires en regard du développement de leurs compétences. L’évaluation des savoirs et des savoir-faire occupe une grande place lors de la prestation des stagiaires et permet d’établir leur niveau de compétence. Mais qu’en est-il de l’évaluation de leurs savoir-être professionnels ? Pourtant le savoir-être est une composante indispensable au plein développement de la compétence. Les stagiaires manifestent leurs savoir-être professionnels en milieu clinique. Sans s’en rendre compte, leurs comportements influencent leur future embauche par une institution de santé. C’est la plus value qui fait la différence. Dans notre pratique enseignante, souvent nous éprouvons des difficultés dans l’accompagnement des stagiaires pour le plein développement de leurs savoir-être professionnels. Lorsque surviennent des difficultés, l’absence d’outil rend difficile la tâche d’évaluation des savoir-être professionnels. Cette réalité nous amène au thème de cet essai qui vise la conception d’outils d’évaluation des savoir-être professionnels pour les stagiaires du programme collégial Techniques d’inhalothérapie. Les difficultés d’évaluation des savoir-être professionnels dues à l’absence d’outils a entraîné une réflexion nous menant tout droit à nous questionner sur les caractéristiques essentielles des outils d’évaluation permettant aux enseignantes et aux enseignants de porter un jugement objectif sur les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie. Suite à une recension d’écrits en lien avec les concepts des savoir-être professionnels, de l’évaluation et des outils d’évaluation, nous nous sommes fixé cinq objectifs spécifiques pour répondre à notre question générale de l’essai : 1) Établir une nomenclature des savoir-être professionnels pour le programme collégial Techniques d’inhalothérapie; 2) Décrire les savoir-être professionnels en manifestations observables; 3) Concevoir un outil d’autoévaluation en regard du développement des savoir-être professionnels pour les stagiaires du programme collégial Techniques d’inhalothérapie; 4) Concevoir une liste de vérification des comportements observables pour évaluer les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie; et 5) Concevoir une grille d’évaluation à échelle descriptive pour évaluer les savoir-être professionnels des stagiaires du programme collégial Techniques d’inhalothérapie. Avec une posture épistémologique interprétative et une approche qualitative, nous avons opté pour un essai de type recherche développement, selon Harvey et Loiselle (2009), visant la conception de trois outils d’évaluation des savoir-être professionnels, soit : a) un outil d’autoévaluation, b) une liste de vérification des comportements observables et c) une grille d’évaluation à échelle descriptive. Après avoir réalisé les deux premiers objectifs spécifiques de cet essai, nous avons sollicité les enseignantes et les enseignants des départements de Techniques d’inhalothérapie du Collège de Rosemont et du Collège de Valleyfield pour procéder à la validation des outils d’évaluation des savoir-être professionnels. Pour accompagner les cinq enseignantes et les trois enseignants dans leur démarche de validation, nous avons privilégié un questionnaire de validation, des entrevues semidirigées et un groupe de discussion pour recueillir les données qualitatives et quantitatives que nous avons traitées en deux temps.L’analyse et l’interprétation des résultats ont permis l’atteinte des objectifs spécifiques fixés. En plus d’établir la nomenclature des savoir-être professionnels, les données recueillies portent un regard critique sur la conception des outils d’évaluation des savoir-être professionnels destinés aux stagiaires du programme collégial Techniques d’inhalothérapie. Grâce aux commentaires et aux suggestions obtenus, nous peaufinerons nos outils pour les rendre plus efficaces après cet essai pour ensuite les remettre aux enseignantes et aux enseignants cliniques participants qui décideront avec leur département respectif s’ils désirent les utiliser. Cet essai identifie huit savoir-être professionnels que doivent démontrer les stagiaires du programme collégial Techniques d’inhalothérapie. Ces savoir-être professionnels se manifestent à partir de quarante-deux comportements observables. La conception de nos outils d’évaluation permet de porter un regard objectif sur le développement des savoir-être professionnels de nos stagiaires. Cet essai ne vise pas à généraliser ces résultats. Nous souhaitons plutôt la transférabilité des résultats à d’autres programmes afin d’accompagner d’autres enseignantes et enseignants qui éprouvent des difficultés lors de l’évaluation des savoir-être professionnels.
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
Les bergères de l'Apocalypse est le récit de la protagoniste Ariane qui projette de réécrire, en marge du discours officiel, les événements qui ont conduit à la création d'une société gynocentrique. À la diversité des préoccupations qui alimentent cette vision utopiste de la société répond une indétermination générique qui rend le récit difficile à classer. Mettant en scène une société idéale qui n'en est pas une (puisque les femmes, après l'extermination des hommes, ont reproduit certaines structures de pouvoir patriarcales), l’ouvrage ne peut pas être identifié uniquement comme un roman de science-fiction puisqu'il emprunte à la fois à l'essai, à l’utopie féministe et au récit apocalyptique. Cette hybridation apparaît comme l’un des traits de cet ouvrage éclaté qui multiplie les techniques narratives et les récits dans un cadre où l’intertextualité joue un rôle important. L'hypothèse que je propose pour expliquer une telle variation générique est que le roman représente ici une forme modulable qui marie à la complexité des propositions apportées au discours féministe ambiant. Grâce au mélange des genres et des discours, l'auteure, à travers Ariane, parvient à dialoguer avec une panoplie d'intertextes dont le contrepoint original et touffu ne peut que déconcerter la lectrice. Afin d'analyser le roman, j'observerai comment l’oeuvre exploite les potentiels de généricité dans la forme, les techniques narratives, leur liens avec les motifs écoféministes, ainsi que le mode d'inscription des différents discours.
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
Les bergères de l'Apocalypse est le récit de la protagoniste Ariane qui projette de réécrire, en marge du discours officiel, les événements qui ont conduit à la création d'une société gynocentrique. À la diversité des préoccupations qui alimentent cette vision utopiste de la société répond une indétermination générique qui rend le récit difficile à classer. Mettant en scène une société idéale qui n'en est pas une (puisque les femmes, après l'extermination des hommes, ont reproduit certaines structures de pouvoir patriarcales), l’ouvrage ne peut pas être identifié uniquement comme un roman de science-fiction puisqu'il emprunte à la fois à l'essai, à l’utopie féministe et au récit apocalyptique. Cette hybridation apparaît comme l’un des traits de cet ouvrage éclaté qui multiplie les techniques narratives et les récits dans un cadre où l’intertextualité joue un rôle important. L'hypothèse que je propose pour expliquer une telle variation générique est que le roman représente ici une forme modulable qui marie à la complexité des propositions apportées au discours féministe ambiant. Grâce au mélange des genres et des discours, l'auteure, à travers Ariane, parvient à dialoguer avec une panoplie d'intertextes dont le contrepoint original et touffu ne peut que déconcerter la lectrice. Afin d'analyser le roman, j'observerai comment l’oeuvre exploite les potentiels de généricité dans la forme, les techniques narratives, leur liens avec les motifs écoféministes, ainsi que le mode d'inscription des différents discours.
Resumo:
Par expérience, les étudiantes et étudiants du collégial sont beaucoup plus motivés lorsque les activités d'apprentissage proposées dans le cours sont en lien direct avec leur programme, surtout lorsqu'il s'agit d'un cours d'une discipline contributive. Comme il y a seize cours de physique offerts dans neuf programmes techniques au cégep de Trois-Rivières, les applications pertinentes de chaque programme ne sont pas toujours connues du département de physique et il n'y a que peu de sources d'informations vulgarisées qui expliquent le fonctionnement de ces systèmes ou qui font des liens explicites avec la physique. Cet essai vise à élaborer une démarche permettant d'obtenir les informations pertinentes sur les systèmes utilisés dans les programmes de techniques physiques afin d'organiser les savoirs à enseigner de façon cohérente et pertinente dans les cours de physique. Cette démarche générale sera ensuite appliquée au cours de mécanique appliquée du programme de génie civil afin de la valider concrètement. Tout en s'appuyant sur les sources didactiques comme les savoirs disciplinaires, les savoirs à enseigner et le rapport des élèves aux savoirs, le cadre de référence propose un processus de transposition didactique pour déterminer et organiser les contenus du cours de physique en fonction des applications concrètes reliées au programme. Le cadre méthodologique de cette recherche-intervention propose une démarche cyclique permettant d'abord d'identifier les systèmes techniques pertinents et leurs liens avec la physique puis de modéliser le fonctionnement de ce système. Enfin, le processus de transposition didactique sera appliqué aux résultats et vérifié par des enseignantes et enseignants du département de physique.