976 resultados para Validation par connaissance expert
Resumo:
Les stages en milieux hospitaliers offrent une opportunité aux personnes étudiantes dans le domaine de la santé d’exécuter différentes méthodes d’évaluation et des méthodes de soins. Le Programme de soins infirmiers offre plusieurs de ces stages. Pour chaque stage, les personnes étudiantes elles doivent faire une liste des méthodes d’évaluation et des méthodes de soins effectuées dans un cahier. Elles doivent aussi y faire leur autoévaluation sur, par exemples, le déroulement de la méthode de soins, sur la relation avec le patient, ses difficultés... Le Programme de soins infirmiers comprenant 11 différents stages sur les 3 ans, il devient difficile d’avoir un suivi des acquis antérieurs et une bonne évaluation de la compétence. La création d’un portfolio sur les techniques effectuées lors des stages, permettra le suivi et l’évaluation des apprentissages relatifs à la compétence « utiliser des méthodes d’évaluation et des méthodes de soins » (Gouvernement du Québec, 2004) et ce, sur toute la durée du programme, soit trois ans, plutôt que sur la base d’un seul stage. Pour ce faire, un questionnaire en ligne a été complété par 46 personnes étudiantes et enseignantes dans le Programme de soins infirmiers du Cégep de Thetford. Suite à l’analyse, des focus groupes ont eu lieu pour valider ou clarifier certaines informations. L’analyse du questionnaire a permis de voir que la majorité des personnes répondantes est ouverte à essayer un portfolio électronique. De plus, des données pouvant figurer dans le portfolio et une grille des méthodes de soins ont été soulignées pour s’assurer de débuter le développement de ce dernier selon les besoins des personnes participantes. Comme il s’agit d’un nouvel outil pédagogique, leur implication dans le projet dès le début du processus pourrait permettre une meilleure collaboration lors de l’implantation du portfolio. Contrairement à la version papier, le portfolio électronique a l’avantage d’être accessible plus facilement et peut être utilisé en ligne par plus d’une personne à la fois. Il devient plus facile pour les personnes étudiantes et les enseignantes de commenter l’évolution de leurs compétences au fur et à mesure plutôt qu’à la fin du stage seulement. L’objectif étant d’avoir tous les éléments en main avant de commencer à travailler sur le développement du portfolio. En ayant déjà les attentes des personnes potentiellement utilisatrices, nous espérons diminuer le nombre de modifications ou d’ajustements à postériori. Nous espérons aussi que les personnes pouvant utiliser le portfolio y adhérent plus facilement s’il répond à leur besoins dès le départ. L’utilisation d’un portfolio sur la durée du programme pour l’évaluation des compétences longitudinales serait grandement aidant pour la progression et la réussite des personnes étudiantes. Pour le moment, il s’agit de créer le portfolio pour une compétence seulement. Toutefois, toutes les compétences évaluées pourraient éventuellement se retrouver dans cet outil et pourrait permettre aux personnes étudiantes d’avoir, en tout temps, le curriculum de leur formation, facilitant leur réflexion personnel et permettant de développer un jugement critique face à leur propre cheminement.
Resumo:
Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.
Resumo:
1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.
Resumo:
International audience
Resumo:
(Introdução): Après une formation en architecture, la participation au Master TPTI a été une occasion précieuse pour acquérir de nouvelles connaissances, théoriques et pratiques, en rapport avec l'histoire, le patrimoine et l’environnement dans son sens le plus large. Ces dimensions ont souvent été d’un grand apport pour bien des oeuvres et interventions architecturales et leur ont permis de convaincre et de s’imposer au temps. Elles occupent également une place devenue de plus en plus importante dans la réflexion sur bien des sujets dont la gestion territoriale et l’exploitation des ressources naturelles. Leur considération favorise des approches intégrées et est même indispensable pour toute oeuvre ou intervention visant la durabilité. Elle est, en tout cas, indispensable pour l’étude d’un thème comme celui des friches liées à l’exploitation des ressources naturelles, que nous tentons d’aborder dans ce mémoire à travers le cas des carrières de grès-calcaire des environs de la ville de Korba, en Tunisie. En effet, par ses enseignements variées et pluridisciplinaires, le Master TPTI, nous a offert une ouverture sur l'histoire et l'anthropologie des techniques ainsi que la conservation, la gestion et la valorisation du patrimoine industriel, historique et culturel. En plus des séminaires et des contacts directs avec des professionnels de différents domaines et pays, une place importante a été accordée aux visites de terrains. A tout cela s'ajoute une mobilité de spécialité, qui dans notre cas, a eu lieu au Département d'Economie à l'Université d'Alicante. Le premier volet de ce mémoire sera consacré au projet personnel qui traite, comme évoqué plus haut, des carrières de Korba et ses environs. Il est le fruit d'un travail au cours duquel nous avons essayé, sur les deux années du Master, de tirer profit des différents enseignements dispensés afin d’enrichir notre réflexion sur le thème.
Resumo:
Ce document s’inscrit dans le cadre de la problématique des mortalités de moules bleues sur les côtes françaises depuis l’hiver 2014. Il a été conçu comme une contribution aux projets Morbleu (projet de recherche) et Mytilobs (observatoire national sur les traits de vie de la moule). D’un point de vu historique, depuis le début du 20ème siècle, le principale « ennemi » de la moule reste la météo et en particulier, les tempêtes. Une seule crise de mortalité, majeure, est survenue en 1960-61 dans le pertuis Breton. Elle résulte d’une interaction entre le parasite mytilicola intestinalis et des conditions drastiques d’élevage sur bouchots dans la baie de l’Aiguillon. L’évaluation des mortalités de moules est difficile du fait des pratiques d’élevage et des pertes qui en résultent. Lorsque la crise survient en 2014, l’investigation scientifique s’appuie à la fois sur des déclarations (professionnels), des constats (DDTMs), des saisines (Repamo) et des mesures (réseau Mytilobs). L’intensité des mortalités, variable selon les sites et les années (2014 et 2015) est comparée à un référentiel de mortalités issu d’un réseau régional de suivi des mortalités de moules en paniers (Remoula, 2000-2010). En février 2014, les mortalités surviennent dans le pertuis Breton et s’étendent en quelques mois vers le sud (pertuis d’Antioche) et vers le Nord (Côte de Noirmoutier et Baie de Bourgneuf). Les simulations hydrodynamiques montrent la connectivité spatio-temporelle entre le site d’émergence des mortalités et les sites touchés quelques semaines plus tard. Alors qu’il existe plusieurs génomes de Mytililus edulis et des populations hybrides (entre Mytililus edulis et Mytilus galloprovincialis) sur les cotes de la France, seul le génome Mytililus edulis de la cote atlantique semble au départ concerné par ces mortalités. La quasi simultanéité d’occurrence d’épisodes de mortalités de moules en Rade de Brest (en hiver 2014), et sur les gisements profonds de la cote Est du Cotentin (dès le printemps 2014) reste aujourd’hui une énigme scientifique. Lorsque les mortalités surviennent en 2014 et lors de leur reprise en 2015, les moules sont en période de reproduction. Ce rapport synthétise également des résultats acquis sur la reproduction de Mytilus edulis sur la cote atlantique (Arcachon et Pertuis Charentais).
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Cette recherche est née de constats (Sénéchal, 2012) et de la volonté d’outiller l’enseignement de la communication orale dans la perspective du développement de la compétence langagière orale des élèves. En vue d’atteindre le principal objectif de cette thèse, qui est de proposer des séquences didactiques valides pour l’enseignement de la discussion et de l’exposé critique, nous avons emprunté aux recherches d’ingénierie didactique de première génération (Artigue, 1988; Goigoux, 2012) afin de proposer une démarche d’ingénierie didactique collaborative, dont l’originalité tient à la collaboration qui sous-tend les étapes de la conception, de l’expérimentation et de la validation de son produit en deux phases. Pour cibler les outils et les pratiques à privilégier pour enseigner les deux genres ciblés, nous avons cherché à vérifier en quoi l’utilisation du dispositif de la séquence didactique facilite ou non la transposition didactique interne des prescriptions ministérielles les concernant, en étudiant la transformation des pratiques d’enseignement de nos collaborateurs à travers l’observation de leur mise en oeuvre des séquences didactiques. Quatre outils méthodologiques ont soutenu la collecte des données par la méthode d’observation directe : la captation audiovisuelle, le journal de bord, l’examen des documents des enseignants (notes personnelles) ainsi que le bilan collaboratif, une forme d’entretien mené auprès de nos collaborateurs permettant de faire le point sur la mise en oeuvre et sur le produit de l’ingénierie (notamment en ce qui concerne les ajustements nécessaires à une utilisation optimale du dispositif). Les résultats de l’analyse de ces données montrent non seulement que les séquences didactiques élaborées et expérimentées dans le cadre de notre démarche de recherche sont valides sur le plan de la légitimité, de la pertinence et de la cohérence des contenus, mais également que leur usage permet d’engendrer des gains en termes d’apprentissage pour les élèves et donne lieu à une transformation des pratiques d’enseignement de la communication orale de leurs utilisateurs. Les interventions des enseignants, notamment une augmentation significative des gestes didactiques de régulation et d’institutionnalisation, montrent, en effet, qu’ils se sont suffisamment approprié les contenus et les manières de faire du dispositif pour arriver à opérer seuls certaines des transformations adaptatives nécessaires à la transposition interne des objets en vue de rendre ces derniers enseignables et apprenables.
Resumo:
Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.
Resumo:
Cet essai s’intéresse à l’autonomie des jeunes adultes ayant un handicap moteur, physique, sensoriel ou intellectuel et qui ont participé à la démarche de la transition de l’école à la vie active (TÉVA). L’objectif de l’essai est de répertorier les manifestations d’autodétermination dans leur vie professionnelle, scolaire et personnelle. Le contenu des 23 entrevues conduites auprès d’élèves ayant participé à la TÉVA ou de leurs proches dans le cadre d’une étude de Bourdon et Lessard (2015) portant sur la modélisation de la démarche TÉVA en Estrie a été analysé afin d’en extraire les manifestations d’autodétermination. L’analyse thématique des entrevues a permis d’identifier des manifestations d’autodétermination issues d’une régulation externe, d’une régulation introjectée et d’une régulation identifiée. Les résultats obtenus révèlent que les jeunes adultes ayant participé à la TÉVA semblent avoir une bonne connaissance d’eux-mêmes, de leurs intérêts scolaires et professionnels. En contrepartie, le sentiment de compétence, la fierté personnelle et la connaissance des actions à poser pour atteindre leurs objectifs semblent se présenter moins fréquemment en termes de manifestation d’autodétermination chez les jeunes adultes de l’échantillon. Dans peu de cas, les élèves ont rapporté avoir entamé de leur propre chef des démarches pour obtenir un milieu de stage pour lequel ils entretenaient de l’intérêt. L'analyse des entrevues a également révélé que la conseillère ou le conseiller d'orientation ne semble pas être une professionnelle ou un professionnel particulièrement sollicité pour soutenir les élèves en difficulté dans l'élaboration d'un projet professionnel. Bien que l’implication de la famille et du milieu scolaire des jeunes à propos de la transition à la vie adulte et de l’élaboration de projets soit sans aucun doute essentielle, les compétences du conseiller d’orientation en matière d’accompagnement des élèves dans l’élaboration et la mise en œuvre d’un projet scolaire ou professionnel pourraient être également mises à profit pour mieux préparer et accompagner les jeunes adultes dans leur transition. Ainsi, les données analysées dans le cadre de cet essai indiquent qu’il y a une place à prendre pour les conseillers d’orientation dans le soutien des élèves vivant avec un handicap.
Resumo:
La compréhension de l'aérothermique d'un véhicule durant sa phase de développement est une question essentielle afin d'assurer, d'une part, un bon refroidissement et une bonne efficacité de ses composants et d'autre part de réduire la force de traînée et évidement le rejet des gaz à effet de serre ou la consommation d'essence. Cette thèse porte sur la simulation numérique et la validation expérimentale de l'aérothermique d'un véhicule à trois roues dont deux, en avant et une roue motrice en arrière. La simulation numérique est basée sur la résolution des équations de conservation de la masse, de la quantité de mouvement et de l'énergie en utilisant l'approche RANS (Reynolds-Averaged Navier-Stokes). Le rayonnement thermique est modélisé grâce à la méthode S2S (Surface to Surface) qui suppose que le milieu séparant les deux surfaces rayonnantes, ici de l'air, ne participe pas au processus du rayonnement. Les radiateurs sont considérés comme des milieux poreux orthotropes où la perte de pression est calculée en fonction de leurs propriétés inertielle et visqueuse; leur dissipation thermique est modélisée par la méthode Dual flow. Une première validation de l'aérodynamique est faite grâce à des essais en soufflerie. Ensuite, une deuxième validation de la thermique est faite grâce à des essais routiers. Un deuxième objectif de la thèse est consacré à la simulation numérique de l'aérodynamique en régime transitoire du véhicule. La simulation est faite à l'aide de l'approche Detached eddy simulation (DES). Une validation expérimentale est faite à partir d'étude en soufflerie grâce à des mesures locales de vitesse à l'aide de sondes cobra.
Resumo:
Le cours Français des affaires est donné aux étudiantes et étudiants de première session en Techniques de bureautique au cégep de Lévis-Lauzon. Depuis plusieurs années, les enseignantes et enseignants ont observé, et ce, de façon récurrente, que plusieurs notions de grammaire ne sont pas maitrisées de manière satisfaisante pour pouvoir ainsi atteindre la compétence du cours qui est « Produire et traiter, linguistiquement, des textes français (00UZ) » (Gouvernement du Québec, 1999, p. 73). Le constat de l’inefficacité de nombreux exercices et des explications répétées relatives aux notions d’accord des participes passés jumelé à l’observation d’une bonne connaissance des règles de grammaire par les étudiantes et étudiants est à l’origine de ce travail qui consistait à expérimenter une nouvelle méthode pédagogique, soit l’enseignement stratégique de ces notions. Alors que les étudiantes et étudiants semblent connaitre les règles de grammaire par coeur, la correction des exercices, formatifs ou sommatifs, où seuls les accords sont accessibles à l’enseignante ou l’enseignant, révèle des lacunes. Le cadre de référence a d’ailleurs été établi autour de l’enseignement des participes passés ainsi que des principaux concepts de l’enseignement stratégique qui sont, entre autres, les connaissances antérieures, la psychologie cognitive de même que l’autoévaluation. C’est donc selon ces différents aspects que les activités d’enseignement et d’apprentissage pour les notions concernant les participes passés employés sans auxiliaire, avec l’auxiliaire être et avec l’auxiliaire avoir ont été construites. Pour être en mesure de répondre à l’objectif général ainsi qu’aux objectifs spécifiques de la recherche, c’est la recherche-expérimentation qui a été choisie comme type d’essai. En effet, ce sont 21 étudiantes et étudiants du cours Français des affaires dans le programme Techniques de bureautique du cégep de Lévis-Lauzon qui ont accepté de participer, à l’automne 2015, à l’expérimentation de l’enseignement stratégique. Les résultats obtenus ont révélé, entre autres, que les performances des étudiantes et étudiants semblent meilleures lorsque seule la réponse est évaluée. Par contre, quand la démarche, ou le cheminement, est pris en compte, certains accords sont exacts sans avoir le raisonnement juste. C’est donc dire que, dans un autre contexte, l’étudiante ou l’étudiant aurait fait le mauvais accord sans vraiment en connaitre la cause. De plus, nous voulions connaitre les perceptions des étudiantes et étudiants concernant cette nouvelle façon de faire, soit l’enseignement stratégique. Dans l’ensemble, la nouvelle stratégie pédagogique leur a plu. Ainsi, elles et ils se disent maintenant conscients de toutes les étapes à franchir afin de trouver la bonne manière d’accorder les participes passés et aussi des erreurs qu’elles et qu’ils font en les accordant. En somme, l’enseignement stratégique gagne à être mis de l’avant. Entre la connaissance d’une règle et le bon accord d’un participe passé, il y a des lacunes importantes qui doivent être corrigées. Le recours aux connaissances antérieures, à la validation d’un pas à pas et aussi le fait d’amener les étudiantes et étudiants à évaluer leurs apprentissages sont des éléments importants pour arriver à diminuer les fautes et ainsi espérer un éventuel transfert des apprentissages. C’est de cette façon que l’enseignement stratégique propose une démarche analytique et réflexive permettant d’accorder les participes passés.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.