41 resultados para applications des méthodes de crible
Resumo:
La sécurité des systèmes de transports intelligents est au centre de tous les débats. Afin de s’assurer un fonctionnement sécuritaire, il est nécessaire de pouvoir vérifier le bon fonctionnement des capteurs permettant d’avoir une parfaite connaissance de l’environnement et de l’état du véhicule. Cette thèse présente une nouvelle solution de détection et d’identification de faute pouvant apparaitre sur les capteurs embarqués d’un véhicule intelligent. Cette méthode est basée sur la redondance analytique des données, consistant à estimer une même mesure à l’aide de capteurs de différentes natures. Cette mesure subit alors une transformation non linéaire permettant à la fois d’accroitre la sensibilité aux fautes et d’être plus robuste aux bruits. Cette étude propose plusieurs solutions de transformation et d’estimation qui seront évaluées en simulation avant de proposer une méthode d’optimisation de la prise de décision en fonction de critères choisis par l’utilisateur. La description de l’architecture, des méthodes employées ainsi que des équations permettant l’établissement de celle-ci seront décrites dans le chapitre 3. L’évaluation en simulation des performances de l’architecture sera effectuée dans le chapitre 4 avant une analyse finale des résultats ainsi qu’une comparaison avec une solution existante dans le dernier chapitre, permettant la validation de notre approche.
Resumo:
La mise en oeuvre de l’approche par compétences (APC) dans les programmes de formation au Québec a suscité un lot de changements dans les pratiques d’enseignement et d’évaluation durant les deux dernières décennies. Cette approche a occasionné un renouvellement des programmes d’études. Maintenant, les programmes d’études ciblent le développement des compétences. Le renouveau de l’enseignement est accompagné par la modification de certains articles du Règlement sur le régime des études collégiales (RREC), on y ajoute une nouvelle exigence de sanction des études pour les programmes collégiaux. Chacun des programmes d’études collégiales doit désormais mettre en place une activité synthèse d’évaluation des apprentissages. Cette activité doit se situer à la fin du parcours de formation et témoigner de l’intégration des compétences et des apprentissages essentiels réalisés dans l’ensemble du programme d’études. L’épreuve synthèse de programme (ÉSP) est sous la responsabilité des collèges et elle est encadrée par la politique institutionnelle d’évaluation des apprentissages (PIEA) de chaque établissement. Cette imposition ministérielle est toutefois peu documentée et laisse une grande latitude aux programmes d’études quant aux choix de la stratégie, aux modalités de passation et d’évaluation. Ceci amène le programme Technologie de radio-oncologie du collège Ahuntsic à se questionner sur la validité de leur ÉSP. Cette recherche porte sur le thème de l’ÉSP d’études collégiales. La problématique s’articule autour du fait qu’il est possible de créer une ÉSP qui s’appuie sur les principes de l’évaluation certificative des apprentissages, mais qui ne permet pas d’attester de l’atteinte des compétences de l’ensemble du programme d’études. Par conséquent, le premier objectif de cette recherche vise l’expérimentation d’un outil de validation de l’ÉSP. Le deuxième objectif consiste à analyser les résultats d’expérimentation et de bonifier l’outil de validation au regard des commentaires des participantes et des participants. Dans le cadre du présent essai, un outil de validation de l’ÉSP a été mis au point et mis à l’essai à travers une recherche-expérimentation, qui repose sur une approche méthodologique qualitative et une posture épistémologique de recherche. L’outil de validation de l’ÉSP est inspiré des travaux du Pôle de l’Est (1996). Il propose une série de questions regroupées selon cinq thématiques pour que les enseignantes et les enseignants du cours porteur de l’ÉSP puissent poser un diagnostic sur l’ÉSP de leur programme d’études. Chaque thématique est accompagnée d’une grille d’évaluation à échelle descriptive pour faciliter la réflexion sur les forces, les limites et reconnaître les correctifs devant être apportés à l’ÉSP. Un plan de travail est également suggéré, facilitant ainsi les travaux à entrevoir pour assurer l’amélioration de l’ÉSP. L’expérimentation de l’outil de validation de l’ÉSP par quatre équipes enseignantes a permis de recueillir des résultats à partir des réponses à un questionnaire électronique et à une entrevue téléphonique semi-dirigée, ceci en tenant compte des considérations éthiques. Ces résultats ont été analysés, compilés et comparés pour aider à concevoir une version finale de l’outil de validation de l’ÉSP. La version finale de l’outil de validation de l’ÉSP intègre les propositions d’amélioration émises par les quatre équipes d’enseignantes et d’enseignants qui ont accepté d’expérimenter l’outil. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur des travaux. Les commentaires tels que l’ajout d’une piste de réflexion concernant la charge de travail associé à la réalisation de l’ÉSP, l’ajout d’une définition concernant une caractéristique de l’évaluation certificative ainsi que la correction de deux critères d’évaluation inscrits dans la grille d’évaluation à échelle descriptive, ont favorisé la conception d’un outil de validation de l’ÉSP qui répond davantage aux besoins des programmes d’études collégiales. Les résultats obtenus portent à croire que l’outil de validation de l’ÉSP est complet et utile. Il peut être utilisé autant par les programmes préuniversitaires que les programmes techniques. Bien qu’il propose une démarche simple, il nécessite une concertation en équipe programme et il peut s’avérer aidant que cette démarche soit soutenue par une conseillère ou un conseiller pédagogique. De cette recherche-expérimentation sont ressorties des pistes de recherches future notamment la conception d’un outil de validation pour les épreuves terminales de cours. De plus, une connaissance plus approfondie des notions concernant l’évaluation certificative peut soulever également des questionnements concernant les différentes stratégies d’évaluation à envisager dans le cadre d’une ÉSP.
Resumo:
Résumé : Au Canada, près de 80% des émissions totales, soit 692 Mt eq. CO[indice inférieur 2], des gaz à effet de serre (GES) sont produits par les émissions de dioxyde de carbone (CO[indice inférieur 2]) provenant de l’utilisation de matières fossiles non renouvelables. Après la Conférence des Nations Unies sur les changements climatiques, COP21 (Paris, France), plusieurs pays ont pour objectif de réduire leurs émissions de GES. Dans cette optique, les microalgues pourraient être utilisées pour capter le CO[indice inférieur 2] industriel et le transformer en biomasse composée principalement de lipides, de glucides et de protéines. De plus, la culture des microalgues n’utilise pas de terre arable contrairement à plusieurs plantes oléagineuses destinées à la production de biocarburants. Bien que les microalgues puissent être transformées en plusieurs biocarburants tels le bioéthanol (notamment par fermentation des glucides) ou le biométhane (par digestion anaérobie), la transformation des lipides en biodiesel pourrait permettre de réduire la consommation de diesel produit à partir de pétrole. Cependant, les coûts reliés à la production de biodiesel à partir de microalgues demeurent élevés pour une commercialisation à court terme en partie parce que les microalgues sont cultivées en phase aqueuse contrairement à plusieurs plantes oléagineuses, ce qui augmente le coût de récolte de la biomasse et de l’extraction des lipides. Malgré le fait que plusieurs techniques de récupération des lipides des microalgues n’utilisant pas de solvant organique sont mentionnées dans la littérature scientifique, la plupart des méthodes testées en laboratoire utilisent généralement des solvants organiques. Les lipides extraits peuvent être transestérifiés en biodiesel en présence d’un alcool tel que le méthanol et d’un catalyseur (catalyses homogène ou hétérogène). Pour la commercialisation du biodiesel à partir de microalgues, le respect des normes ASTM en vigueur est un point essentiel. Lors des essais en laboratoire, il a été démontré que l’extraction des lipides en phase aqueuse était possible afin d’obtenir un rendement maximal en lipides de 36% (m/m, base sèche) en utilisant un prétraitement consistant en une ébullition de la phase aqueuse contenant les microalgues et une extraction par des solvants organiques. Pour l’estérification, en utilisant une résine échangeuse de cations (Amberlyst-15), une conversion des acides gras libres de 84% a été obtenue à partir des lipides de la microalgue Chlorella protothecoïdes dans les conditions suivantes : température : 120°C, pression autogène, temps de réaction : 60 min, ratio méthanol/lipides: 0.57 mL/g et 2.5% (m/m) Amberlyst-15 par rapport aux lipides. En utilisant ces conditions avec une catalyse homogène (acide sulfurique) et une seconde étape alcaline avec de l’hydroxyde de potassium (température : 60°C ; temps de réaction : 22.2 min; ratio catalyseur microalgue : 2.48% (m/m); ratio méthanol par rapport aux lipides des microalgues : 31.4%), un rendement en esters méthyliques d’acides gras (EMAG) de 33% (g EMAG/g lipides) a été obtenu à partir des lipides de la microalgue Scenedesmus Obliquus. Les résultats démontrent que du biodiesel peut être produit à partir de microalgues. Cependant, basé sur les présents résultats, il sera necessaire de mener d’autre recherche pour prouver que les microalgues sont une matière première d’avenir pour la production de biodiesel.
Resumo:
La révision des programmes d'études collégiaux, qui doivent dorénavant s'inscrire dans une approche par compétences, a donné lieu à des remises en question, tant au niveau des contenus de programme que des méthodes pédagogiques. C'est dans la foulée de cette réflexion, qu'en 2001, les enseignantes et enseignants du programme Soins infirmiers du cégep du Vieux Montréal, de concert avec leurs collègues des disciplines contributives de biologie, psychologie et sociologie, ont opté pour l'apprentissage par problèmes comme méthode pédagogique pour l'enseignement des connaissances déclaratives. Dans cette approche, comme son nom l'indique, l'apprentissage se réalise autour de problèmes que les étudiantes et étudiants doivent résoudre en recourant à la fois au travail de groupe et au travail individuel.
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Les perceptions et les préférences des étudiants et des étudiantes universitaires envers les différentes méthodes d'enseignement utilisées en administration, ainsi que la relation entre ces préférences et la personnalité, n'ont pas fait l'objet de beaucoup de recherche. C'est dans l'optique de combler ce vide, que la présente étude a été menée. L'importance du sujet, tant pour les universités et les écoles de gestion que pour le marché du travail, incite tous ces intervenants à coopérer davantage afin de porter toute la lumière sur ce sujet. Les universités et les écoles de gestion sont de plus en plus conscientes du rôle social qu'elles doivent jouer, elles essayent également de fournir tous les moyens pour mieux préparer les étudiants et les étudiantes aux exigences du marché du travail (Ahmed, 1989). De plus, elles sont conscientes qu'elles devraient se concerter avec le marché du travail pour offrir des produits et des services de qualité, étant donné qu'elles agissent dans un environnement concurrentiel. Dans le but de répondre aux attentes de la clientèle étudiante et pour satisfaire les besoins du marché du travail, il est nécessaire de connaître les préférences des étudiants. Dans cette étude, on a interrogé des étudiants du premier cycle universitaire en administration sur leurs attentes face à trois méthodes d'enseignement. En plus, l'étude a examiné les similitudes et les différences de perceptions et de préférences envers trois méthodes d'enseignement entre les étudiants Marocains et Québécois. Un autre objectif de cette étude est de montrer que les préférences des étudiants sont corrélées avec différents traits de la personnalité. Par la présente étude, on a pu montrer que les perceptions et les préférences des étudiants envers les trois méthodes d'enseignement suivantes: la méthode des cas, la méthode d'enseignement à l'aide d'outils informatiques et la méthode d'enseignement magistral, sont différentes. Selon les analyses, on remarque que les étudiants marocains préfèrent davantage la méthode des cas, contrairement aux étudiants québécois qui préfèrent également la méthode d'enseignement magistral et la méthode des cas. La méthode des cas est perçue par les étudiants québécois comme étant plus dynamique et exigeante, alors que les étudiants marocains la considèrent comme étant dynamique et moyennement exigeante. La méthode magistrale est perçue comme étant moins dynamique et moins exigeante par les étudiants québécois, et à un degré moindre, par les étudiants marocains. Enfin, la méthode d'enseignement à l'aide d'outils informatiques est considérée par les étudiants québécois comme étant moins dynamique et plus exigeante, alors que les étudiants marocains la considèrent comme étant moyennement exigeante est plus dynamique. En plus de ces résultats, différents traits de la personnalité sont corrélés avec les préférences pour une méthode donnée. Suite à ces conclusions, les dirigeants des universités et des écoles de gestion ont intérêt à prendre en considération les préférences des étudiants et leurs différents traits de personnalité, afin de choisir les méthodes pédagogiques qui satisfont les besoins de leur clientèle. Il faut aussi mentionner qu'une telle étude pourrait être menée dans d'autres domaines et facultés, étant donné l'importance du sujet, et ceci pour mieux répondre aux attentes des étudiantes et étudiants.
Resumo:
Dans ses champs de recherches ou d'application scientifiques, la géographie se situe au carrefour de nombreuses autres sciences. Tout au cours de son évolution, ce voisinage l'a amené à s'interroger sur le bien-fondé de ses propres assises scientifiques. Bénéficiant, d'une part, de l'apport de d'autres disciplines et donnant naissance, d'autre part, à des sciences autonomes (sociologie, géomorphologie), elle conserve son approche globale et ses applications concrètes. En respectant cette dualité, mon intérêt m'a porté à aborder à la fois la problématique liée aux programmes d'amélioration de quartier et leurs impacts sur les villes moyennes du Québec. Ces petites villes constituent un champ d'investigation encore peu explorée. Cette étude est d'autant plus pertinente que le département de géographie et le centre de recherche en aménagement régional de l'Université de Sherbrooke y ont trouvé leur vocation particulière. Le choix des villes repose sur deux (2) raisons: elles devaient faire l'objet d'un P.A.Q., posséder des caractéristiques particulières dues à son rôle et à sa localisation; six (6) centres urbaines ont été retenus sur cette base : Hull, ville administrative et pôle administratif dans la région de l'Outaouais ; St-Hyacinthe, ville satellite faisant partie des sept (7) villes de la couronne montréalaise ; Longueuil, ville banlieue en expansion accélérée ; Lachine, ville historique située sur l'Île de Montréal ; Sherbrooke, ville à caractère manufacturier et pôle régional dans l’Estrie ; Drummondville, ville à caractère manufacturier et pôle régional dans la région centre du Québec. Notre démarche est relativement simple. Afin de vérifier si les objectifs des P.A.Q. et les solutions véhiculées dans les programmes de même nature correspondent aux situations que nous aurons nous-mêmes observées, il nous faut analyser tout d'abord les caractéristiques physiques et socio-économiques des quartiers centraux, leur structure et leurs relations avec l'ensemble de leur agglomération respective. Cette description fera l'objet des premier et deuxième chapitres. Pour compléter cette analyse, nous croyons qu'il est nécessaire de composer une seule image avec l'ensemble de ces quartiers pour obtenir l'approche globale que nous désirons. Nous utiliserons l'analyse factorielle pour obtenir une définition de ces quartiers. Nous pourrons ainsi vérifier si elle est contenue dans problématique liée aux programmes de rénovation urbaine. Cette redéfinition constitue la démarche principale du troisième chapitre […].
Resumo:
Les réponses des sols aux diverses sollicitations qu'ils subissent à l'état naturel sur site sont multiples et dépendent de nombreux facteurs tel que leur nature, le domaine de sollicitation, la présence d'eau et plusieurs autres facteurs (état de contrainte, présence de cavités, etc.). La connaissance du domaine des petites et moyennes déformations pour le dimensionnement de nombreux ouvrages sur des dépôts de sols argileux ou sableux est d'une grande importance. La détermination des propriétés mécaniques des sols dans le domaine des petites déformations est néanmoins importante dans plusieurs applications en géotechnique. Le besoin de déterminer le module de cisaillement des sols à faibles déformations a conduit au développement de différents outils d'investigation.Les outils non intrusifs basés sur la propagation des ondes de surface permettent de s'affranchir des problèmes de remaniement du sol et la détermination des paramètres fondamentaux (G[indice inférieur max]) du sol dans leur vrai état des contraintes. L'étude menée dans ce travail se résume essentiellement en deux volets. Une présentation détaillée, des différentes méthodes et techniques qui déterminent la vitesse d'onde de cisaillement V[indice inférieur s] lors de la caractérisation des sols, est faite en premier stade. On se focalise à décrire le dispositif des bilames piézo-électriques (utilités, avantages et limitations). En second volet, on se consacre sur la caractérisation des sols granulaires au moyen de V[indice inférieur s]. Des simulations numériques illustrées par des essais aux laboratoires sur un modèle simplifié de la cellule oedométrique équipée du dispositif des anneaux piézo-électriques, ont été dirigés. En considérant trois sols pulvérulents de différentes propriétés granulométriques, on a pu voir les difficultés d'interprétation des résultats suivant les méthodes directes dans le domaine temporel. Alors que, des résultats traités dans le domaine fréquentiel se sont avérés plus réalistes.
Resumo:
Cette étude qualitative a pour objectif de comprendre comment les interventions verbales des apprenantes et apprenants contribuent à la résolution effective des tâches linguistiques orales dans une classe d'anglais langue seconde selon la théorie Vygotskienne. La recherche a montré que les apprenantes et apprenants passent un temps considérable à discuter les énoncés ainsi que de la meilleure façon de résoudre les tâches linguistiques orales. Or, la recension des écrits a révélé que peu d'études ont tenté de comprendre ce que font les apprenantes et apprenants quand ils sont appelés à résoudre des tâches orales. Dans notre étude nous avons donc essayé de jeter la lumière sur ce phénomène. Les interactions verbales de 10 apprenantes et apprenants ont été enregistrées pendant la résolution de tâches linguistiques orales dans une classe d'anglais langue seconde de l'université de Sherbrooke. Pour analyser les données, nous avons utilisé des éléments de trois méthodes d'analyse, notamment la méthode microgénétique de Vygotsky, l'analyse interactionnelle et l'analyse des conversations. Les résultats ont révélé que les apprenantes et apprenants utilisent un nombre important de stratégies afin de mieux comprendre et résoudre les tâches linguistiques orales de façon efficace. Ils recourent notamment à leur langue maternelle, la répétition et la co-construction de phrases. La discussion de ces résultats a montré que la meilleure compréhension des stratégies utilisées par les apprenantes et apprenants ainsi que comment celle-ci [i.e. celles-ci] sont utilisées pourrait contribuer positivement à l'amélioration des techniques d'enseignement par tâches des langues secondes.
Resumo:
Par expérience, les étudiantes et étudiants du collégial sont beaucoup plus motivés lorsque les activités d'apprentissage proposées dans le cours sont en lien direct avec leur programme, surtout lorsqu'il s'agit d'un cours d'une discipline contributive. Comme il y a seize cours de physique offerts dans neuf programmes techniques au cégep de Trois-Rivières, les applications pertinentes de chaque programme ne sont pas toujours connues du département de physique et il n'y a que peu de sources d'informations vulgarisées qui expliquent le fonctionnement de ces systèmes ou qui font des liens explicites avec la physique. Cet essai vise à élaborer une démarche permettant d'obtenir les informations pertinentes sur les systèmes utilisés dans les programmes de techniques physiques afin d'organiser les savoirs à enseigner de façon cohérente et pertinente dans les cours de physique. Cette démarche générale sera ensuite appliquée au cours de mécanique appliquée du programme de génie civil afin de la valider concrètement. Tout en s'appuyant sur les sources didactiques comme les savoirs disciplinaires, les savoirs à enseigner et le rapport des élèves aux savoirs, le cadre de référence propose un processus de transposition didactique pour déterminer et organiser les contenus du cours de physique en fonction des applications concrètes reliées au programme. Le cadre méthodologique de cette recherche-intervention propose une démarche cyclique permettant d'abord d'identifier les systèmes techniques pertinents et leurs liens avec la physique puis de modéliser le fonctionnement de ce système. Enfin, le processus de transposition didactique sera appliqué aux résultats et vérifié par des enseignantes et enseignants du département de physique.