373 resultados para dictionnaires graphiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'université Paris1-Sorbonne

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Omnis definitio in jure civili periculosa est". Le principe selon lequel toute définition est périlleuse constitue l’une des idées séculaires véhiculées par la tradition de droit civil. Malgré cela, le Code civil français et, plus récemment, le "Code civil du Québec" contiennent tous deux un nombre important de définitions légales. Abordées du point de vue du lexicographe, ces définitions soulèvent la question de savoir à quel point elles doivent être prises en considération dans les dictionnaires juridiques : en présence d’une définition légale, le lexicographe devrait-il simplement la paraphraser ou devrait-il plutôt chercher à rendre compte du sens tel qu’il est véhiculé dans le discours juridique? En étudiant les enjeux soulevés par cette question, le présent texte propose une démarche lexicographique qui relativise l’influence des définitions légales sur le contenu des dictionnaires de droit civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[…] Après avoir examiné ce que le programme de français du MÉQ propose sur la façon d'enseigner la lecture, il est possible d'observer les disparités entre celui-ci et l'état actuel de la recherche quant au meilleur moyen d'aider l'élève dans sa compréhension d'un texte informatif. En effet, à l'intérieur même du nouveau programme de français de 1994, aucune mention n'est faite en ce qui concerne l'apprentissage des structures de textes au primaire, et ce malgré les effets positifs sur la compréhension soulevés par de nombreuses recherches. Une des raisons pouvant expliquer ce fait vient du manque de matériel concret à la portée des enseignantes et des enseignants et pouvant constituer une base à cet enseignement. Giasson (1990) a recensé, parmi différentes recherches, un certain nombre de représentations graphiques utilisées pour l'enseignement des structures de textes. Pour apprécier la pertinence de ce matériel, il sera important de comprendre l'origine de ces représentations graphiques et la façon dont ce type de représentations peut faciliter l'acquisition de connaissances. L'essentiel du problème abordé à l'intérieur de ce projet de recherche touche donc un aspect précis de la lecture. En effet, la compréhension en lecture par l'enseignement de l'organisation du texte et l'utilisation de représentations graphiques constituent le point central de la présente recherche. L'objectif général vise donc à voir dans quelle mesure la compréhension de texte peut être favorisée si un enseignement des structures de texte à l'aide de représentations graphiques est entrepris. Le présent document se compose de cinq chapitres. Le premier chapitre propose une recension des écrits des différents thèmes permettant de poser le problème. Le deuxième chapitre énonce la problématique ainsi que les hypothèses de recherche. Le troisième chapitre, quant à lui, décrit la méthodologie utilisée dans la phase expérimentale de la recherche. Le quatrième chapitre fait l'analyse et l'interprétation des résultats et finalement le cinquième et dernier chapitre propose la conclusion et les implications des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude est d’expliquer les différences entre le lexique enregistré par les dictionnaires et le lexique potentiel. On estime que le nombre des mots du vocabulaire de la langue maternelle varie de 20.000 à 150.000; la plupart des estimations oscillant autour de 50.000. Puisque le rôle du contexte, dans lequel les mots acquièrent de nouvelles significations, semble fondamental, l'auteure se propose d’observer les relations entre le lexique et l’univers extralinguistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec la direction de Jean-Jacques Courtine à l'Université de Paris III Sorbonne Nouvelle sous la discipline anthropologie et avec la direction de Dominique Deslandres à l'Université de Montréal sous la discipline histoire

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'université Paris1-Sorbonne

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Ifremer coordonne, sur l’ensemble du littoral métropolitain, la mise en oeuvre de réseaux d’observation et de surveillance de la mer côtière. Ces outils de collecte de données sur l’état du milieu marin répondent à deux objectifs : · servir des besoins institutionnels en fournissant aux pouvoirs publics des informations répondant aux exigences de la Directive Cadre sur l’Eau (DCE), des conventions régionales marines (OSPAR et Barcelone) et de la réglementation sanitaire relative à la salubrité des coquillages des zones de pêche et de production conchylicoles ; · acquérir des séries de données nourrissant les programmes de recherche visant à mieux comprendre le fonctionnement des écosystèmes côtiers et à identifier les facteurs à l’origine des changements observés dans ces écosystèmes. Le dispositif comprend : le réseau d’observation et de surveillance du phytoplancton et des phycotoxines (REPHY) qui porte aussi sur l’hydrologie et les nutriments, le réseau d’observation de la contamination chimique (ROCCH), le réseau de contrôle microbiologique (REMI) et le réseau de surveillance benthique (REBENT). Ces réseaux sont mis en oeuvre par les Laboratoires Environnement Ressources (LER) qui opèrent également des observatoires de la ressource : l'observatoire national conchylicole (RESCO) qui évalue la survie, la croissance et la qualité des huîtres creuses élevées sur les trois façades maritimes françaises ; et le réseau de pathologie des mollusques (REPAMO). Pour approfondir les connaissances sur certaines zones particulières et enrichir le diagnostic de la qualité du milieu, plusieurs Laboratoires Environnement Ressources mettent aussi en oeuvre des réseaux régionaux : sur la côte d’Opale (SRN), sur le littoral normand (RHLN), dans le bassin d’Arcachon (ARCHYD) ainsi que dans les étangs languedociens et corses (RSL). Les prélèvements et les analyses sont effectués sous démarche qualité. Les analyses destinées à la surveillance sanitaire des coquillages sont réalisées par des laboratoires agréés. Les données obtenues sont validées et saisies par les laboratoires. Elles intègrent la base de données Quadrige² qui héberge le référentiel national des données de la surveillance des eaux littorales et forme une composante du Système national d’information sur l’eau (SIEau). Les bulletins régionaux annuels contiennent une synthèse et une analyse des données collectées par les réseaux pour les différentes régions côtières. Des représentations graphiques homogènes pour tout le littoral français, assorties de commentaires, donnent des indications sur les niveaux et les tendances des paramètres mesurés. Les stations d’observation et de surveillance figurant sur les cartes et les tableaux de ces bulletins régionaux s’inscrivent dans un schéma national. Une synthèse des résultats portant sur l’ensemble des côtes françaises métropolitaines complète les bulletins des différentes régions. Ces documents sont téléchargeables sur le site Internet de l’Ifremer : http://envlit.ifremer.fr/documents/bulletins/regionaux_de_la_surveillance, http://envlit.ifremer.fr/documents/bulletins/nationaux_de_la_surveillance. Les Laboratoires Environnement Ressources de l’Ifremer sont vos interlocuteurs privilégiés sur le littoral. Ils sont particulièrement ouverts à vos remarques et suggestions d’amélioration de ces bulletins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Ifremer coordonne, sur l’ensemble du littoral métropolitain, la mise en oeuvre de réseaux d’observation et de surveillance de la mer côtière. Ces outils de collecte de données sur l’état du milieu marin répondent à deux objectifs : · servir des besoins institutionnels en fournissant aux pouvoirs publics des informations répondant aux exigences de la Directive Cadre sur l’Eau (DCE), des conventions régionales marines (OSPAR et Barcelone) et de la réglementation sanitaire relative à la salubrité des coquillages des zones de pêche et de production conchylicoles ; · acquérir des séries de données nourrissant les programmes de recherche visant à mieux comprendre le fonctionnement des écosystèmes côtiers et à identifier les facteurs à l’origine des changements observés dans ces écosystèmes. Le dispositif comprend : le réseau d’observation et de surveillance du phytoplancton et des phycotoxines (REPHY) qui porte aussi sur l’hydrologie et les nutriments, le réseau d’observation de la contamination chimique (ROCCH), le réseau de contrôle microbiologique (REMI) et le réseau de surveillance benthique (REBENT). Ces réseaux sont mis en oeuvre par les Laboratoires Environnement Ressources (LER) qui opèrent également des observatoires de la ressource : l'observatoire national conchylicole (RESCO), qui remplace depuis 2009 le réseau REMORA (Réseau Mollusques des Ressources Aquacoles) et qui évalue la survie, la croissance et la qualité des huîtres creuses élevées sur les trois façades maritimes françaises ; et le Réseau de Pathologie des Mollusques (REPAMO). Pour approfondir les connaissances sur certaines zones particulières et enrichir le diagnostic de la qualité du milieu, plusieurs Laboratoires Environnement Ressources mettent aussi en oeuvre des réseaux régionaux : sur la côte d’Opale (SRN), sur le littoral normand (RHLN), dans le bassin d’Arcachon (ARCHYD) ainsi que dans les étangs languedociens et corses (RSL). Les prélèvements et les analyses sont effectués sous démarche qualité. Les analyses destinées à la surveillance sanitaire des coquillages sont réalisées par des laboratoires agréés. Les données obtenues sont validées et saisies par les laboratoires. Elles intègrent la base de données Quadrige² qui héberge le référentiel national des données de la surveillance des eaux littorales et forme une composante du Système national d’information sur l’eau (SIEau). Les bulletins régionaux annuels contiennent une synthèse et une analyse des données collectées par les réseaux pour les différentes régions côtières. Des représentations graphiques homogènes pour tout le littoral français, assorties de commentaires, donnent des indications sur les niveaux et les tendances des paramètres mesurés. Les stations d’observation et de surveillance figurant sur les cartes et les tableaux de ces bulletins régionaux s’inscrivent dans un schéma national. Une synthèse des résultats portant sur l’ensemble des côtes françaises métropolitaines complète les bulletins des différentes régions. Ces documents sont téléchargeables sur le site Internet de l’Ifremer : http://envlit.ifremer.fr/documents/bulletins/regionaux_de_la_surveillance http://envlit.ifremer.fr/documents/bulletins/nationaux_de_la_surveillance. Les Laboratoires Environnement Ressources de l’Ifremer sont vos interlocuteurs privilégiés sur le littoral. Ils sont particulièrement ouverts à vos remarques et suggestions d’amélioration de ces bulletins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les recherches menées au cours des vingt dernières années ont bien documenté les effets bénéfiques des représentations graphiques d'informations pour l'apprentissage (Vekiri, 2002). On appelle "organisateur graphique" tout outil permettant d'organiser et de relier graphiquement des informations en fonction du type de lien qu'elles partagent. La carte heuristique (ou Mind Map en anglais) est un organisateur graphique qui a la particularité de proposer une organisation nodale des idées à partir d'une image centrale (Buzan, 1976). En dépit d'une popularité croissante dans le monde du management, la carte heuristique reste un outil relativement méconnu des professionnelles et professionnels de l'éducation. De plus, contrairement au schéma conceptuel (Gao, Shen, Losh et Turner, 2007), elle n'a fait l'objet d'aucune recension majeure ou méta-analyse ayant mis à l'épreuve dans un contexte éducatif ses supposés avantages pour l'apprentiisage revendiqués par Buzan et Buzan (2003). L'objectif du présent projet est d'évaluer l'apport pédagogique que la carte heuristique est en mesure d'apporter à des élèves du primaire en difficulté d'apprentissage. Pour cela, une recension des travaux scientifiques qui ont expérimenté la carte heuristique avec cette clientèle scolaire a été effectuée. Compte tenu du nombre restreint des travaux qui ont ciblé des élèves en difficulté d'apprentissage du primaire, la recension a été élargie aux élèves tout-venant et à d'autres contextes éducatifs. Au total, dix travaux ont été recensés ; sur ces dix travaux, seuls deux ont ciblé l'enseignement primaire (Brennan, 2006 ; Akinoglu et Yasar, 2007), et un seul a ciblé une clientèle d'élèves du primaire en difficulté d'apprentissage (Brennan, 2006). Les résultats obtenus par Brennan (Ibid.) et Akinoglu et Yasar (2007) sont positifs, la carte heuristique ayant amélioré les résultats scolaires des élèves et ayant également influencé positivement leur conception de l'apprentissage. Cependant, ces résultats n'ont pas systématiquement été répliqués dans d'autres contextes éducatifs, la carte heuristique ayant même donné parfois de moins bons résultats que d'autres méthodes comme le plan (Trevino, 2006). Plusieurs élèves, étudiantes et étudiants ont également manifesté une certaine lassitude (Farrand, Hussain et Hennessy, 2002), voire une certaine réticence (Goodnough et Woods, 2002 ; Peterson et Snyder, 1998) à utiliser la carte heuristique sur de longues périodes de temps. Toutefois, les nombreux biais méthodologiques de cette recension, principalement les variations dans la clientèle scolaire, dans le type d'utilisation de la carte et dans la matière scolaire, rendent les comparaisons entre travaux délicates. D'autres études seront donc nécessaires pour confirmer ou infirmer les résultats positifs constatés par Brennan (2006) ; ces études futures devront davantage tenir compte des variables susmentionnées, afin d'évaluer de manière plus objective la réelle portée pédagogique de la carte heuristique pour des élèves du primaire en difficulté d'apprentissage.