13 resultados para dictionnaires graphiques

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tradition lexicographique de langue française opère, en théorie, une séparation stricte entre noms communs et noms propres. Or, dans les faits, cette séparation touche surtout les noms propres de lieux et de personnes. En effet, l'observation des articles du vocabulaire politique révèle un nombre important de noms propres d'une autre nature dans les pages de dictionnaires, comme des noms propres d'institutions, de partis politiques ou d'événements et de périodes historiques. Qui plus est, ces noms propres reçoivent souvent un traitement lexicographique comparable à celui des noms communs. Toutefois, ce traitement n'a pas encore fait l'objet d'une étude approfondie. Afin de faire la lumière sur le traitement lexicographique des noms propres du vocabulaire politique, nous avons procédé à une analyse de ces noms propres à travers quatre dictionnaires généraux de langue française : Le Nouveau Petit Robert 2007 (version électronique), Le Petit Larousse Illustré 2007 (version électronique), le Dictionnaire du français Plus - À l'intention des francophones d'Amérique (1988) et le Dictionnaire québécois d'aujourd'hui (1992). Nous avons d'abord mis sur pied une typologie des noms propres du vocabulaire politique susceptibles d'être définis dans les dictionnaires généraux de langue française; puis nous avons relevé ces noms propres dans les dictionnaires à l'étude. Il ressort de ce relevé que le nombre de noms propres du vocabulaire politique dans les dictionnaires est assez élevé pour nécessiter une caractérisation de la pratique lexicographique les entourant. En outre, la description du vocabulaire politique passe par une description de certains types de noms propres en plus des mots du lexique commun. Nous nous sommes penchée sur la manière dont sont présentés les noms propres dans les dictionnaires, pour conclure que leur intégration et leur identification n'obéissent pas à une méthode systématique.La majuscule initiale n'est pas systématiquement utilisée pour les noms propres de même type.La nomenclature des noms propres à inclure dans le dictionnaire de langue à été étudiée à travers l'exemple des noms de partis politiques.La méthode servant à dresser cette nomenclature devrait se baser sur l'observation d'un corpus (fréquence) et l'importance dans un système socioculturel de référence - pour les noms de partis politiques, les noms des partis représentés dans les instances officielles devraient être décrits dans les dictionnaires généraux. Nous avons ensuite analysé les catégories de noms propres les plus représentées dans notre corpus d'articles du vocabulaire politique (les noms propres d'événements et de périodes historiques, les noms de partis politiques, dont les sigles, et les noms propres d'institutions). À la suite de cette analyse, nous proposons une liste d'éléments que le traitement lexicographique devrait inclure afin de permettre une circonscription efficace du référent (c'est-à-dire les traits distinctifs que devrait contenir une définition suffisante pour ces types de noms propres). Un point commun à toutes les catégories concerne l'explicitation du contexte référentiel : en contexte francophone particulièrement, le lieu doit être précisé par le traitement lexicographique. L'étude se termine par une analyse de l'arrimage entre noms propres et lexique commun dans les dictionnaires où ils sont intégrés dans un même ouvrage (PLI) ou dans une même nomenclature ( Dictionnaire Hachette, Dixel ). Nous arrivons à la conclusion que ces particularités dictionnairiques n'ont pas pour l'instant permis de corriger certaines faiblesses dans l'intégration des noms propres du vocabulaire politique, surtout en ce qui a trait à leur présence (nomenclature) et à leur traitement en terme de définition suffisante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Par leur mode de rédaction, les dictionnaires de droit civil révèlent une conception du sens en droit qui se caractérise par son objectivité, son historicité et son unité, c’est-à-dire par un ensemble de qualités qui sont intimement liées dans l’imaginaire des civilistes. Ce faisant, les dictionnaires de droit civil présentent un certain découpage du monde qui ne tient pas toujours compte des sens multiples que les juristes attribuent aux termes fondamentaux de leur vocabulaire. C’est en dégageant l’origine et la raison d’être du décalage entre le sens tel qu’il est défini et celui qui est vécu que l’auteur montre à quel point les dictionnaires de droit civil s’inscrivent dans une relation complexe qu’entretiennent les juristes avec leur langage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse traite des représentations construites par des artistes-enseignants du secondaire au sujet de la dialectique tradition/novation inhérente au processus d'intégration des TIC. Elle rend compte d'une recherche visant à mieux comprendre les disparités en matière d'intégration des technologies, dans les pratiques enseignantes en arts plastiques. L'auteure a observé ce problème dans son parcours professionnel, marqué par son passage du rôle de praticienne à celui de formatrice en enseignement des arts. Elle s'est demandée si cela tenait uniquement à la formation ou si des facteurs intrinsèques tels que les représentations pouvaient intervenir. Ce questionnement est à l'origine d'une étude dont les objectifs étaient d'identifier les représentations entourant la dialectique tradition/novation et de voir s'il existe des interrelations entre représentations et pratiques. Pour arriver à ses fins, l'auteure a utilisé les notions de représentation sociale et de poïétique comme leviers théoriques tout en s'inspirant de la démarche artistique, par souci de cohérence avec le domaine des arts. Le recueil de l'information s'est effectué à partir d'entretiens de type compréhensif, donnant lieu à des représentations discursives, métaphoriques et graphiques. L'analyse des représentations révèle que les artistes-enseignants interviewés voient la dialectique tradition/novation tantôt comme un duo, tantôt comme un duel ou même comme un deuil, et que ces représentations interagissent avec les pratiques. Ces conclusions traduisent l'importance de s'intéresser aux facteurs intrinsèques qui peuvent faire obstacle au changement. Si la rencontre art/technologie est assez bien documentée par les esthéticiens, les philosophes et les artistes, plus rares sont les contributions touchant le corollaire éducatif d'une telle alliance. En ce sens, cette recherche est tout à fait pertinente et originale. Elle l'est également au regard de la méthodologie proposée, qui s'ajuste à la démarche artistique. Bref, cette thèse parle d'art, parle par l'art et parle pour l'art.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre étude s'insère dans le cadre d'un plus large projet de recherche portant sur le traitement lexicographique des noms d'espèces naturelles, dont l'un des objectifs généraux est de faire la lumière sur la pratique actuelle dans les dictionnaires usuels du français. Notre objet spécifique est le traitement définitoire des noms d'arbres dans Le Petit Larousse , qui est un dictionnaire d'orientation encyclopédique. Nous étudions et comparons deux éditions successives de ce dictionnaire (1997 et 1998), entre lesquelles la maison Larousse dit avoir fait une importante révision. Notre objectif est de décrire précisément la pratique observée, notamment en ce qui a trait à l'utilisation du modèle définitoire par inclusion, tout en faisant ressortir les modifications apportées dans la seconde édition pour rendre compte de l'orientation des travaux de révision. Nous adoptons l'approche méthodologique par segmentation qui a été développée au sein du projet de recherche auquel nous sommes associée [i.e. associés]. D'une part, celle-ci nous permet de décrire précisément la métalangue utilisée et de faire ressortir les principales variantes structurelles du modèle définitoire. D'autre part, elle nous permet de faire des bilans en ce qui a trait à la nature et à l'importance des modifications apportées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude, de type métalexicographique, s'insère dans une perspective de recherche visant à dresser le bilan de la pratique lexicographique réservée aux noms d'espèces naturelles dans les dictionnaires usuels du français. Elle porte sur le traitement définitoire de tous les noms de plantes herbacées répertoriés dans le Petit Robert (édition électronique 1996). Son objectif principal est de décrire très précisément la pratique définitoire en cause. Nous commençons par passer rapidement en revue les différents procédés définitoires illustrés par notre corpus, avant de procéder à l'analyse détaillée du procédé le plus exploité, celui de la définition par inclusion. Notre méthode d'analyse est basée sur la segmentation et l'examen comparatif des différentes composantes sémantiques et formelles présentes dans les définitions par inclusion de notre corpus. Elle permet non seulement de mieux connaître la pratique du Petit Robert , mais aussi d'en extraire un certain savoir-faire. Nous étudions quatre grandes catégories d'éléments descriptifs bien représentées dans notre corpus: les éléments de classification, les éléments de localisation, les éléments de valorisation ainsi que les éléments de morphologie en lien avec ces derniers. Nous donnons, de la métalangue utilisée et des principaux modèles de description exploités, un portrait relativement précis qui pourra alimenter la réflexion des lexicographes et autres linguistes qui s'intéressent à la description des noms d'espèces naturelles en général et des noms de plantes en particulier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre des travaux du Centre d'analyse et de traitement informatique du français québécois (CATIFQ) sur la caractérisation des textes de langue publique québécoise, la présente étude porte sur le vocabulaire sociopolitique en situation officielle au Québec. Cette étude est basée sur un corpus de mémoires présentés à la Commission Bélanger-Campeau sur l'avenir politique et constitutionnel du Québec. Constitué à partir d'une norme élaborée au CATIFQ, et permettant de ce fait la comparaison des données avec d'autres corpus similaires, le corpus Bélanger-Campeau compte 250 000 occurrences et 8355 vocables. Sa richesse, la synchronie de ses données et les critères de sa constitution en font un point de repère pertinent pour la description du français québécois. À partir de ce corpus, nous avons sélectionné les vocables de trois réseaux propres au questionnement constitutionnel et identitaire faisant l'objet de la Commission Bélanger-Campeau: le réseau des groupes humains (communauté, État, nation, pays, peuple, société), le réseau des options constitutionnelles (autonomie, fédéralisme, indépendance, souveraineté, statu quo) et le réseau identitaire (anglais, anglophone, autochtone, canadien, français, francophone, immigrant, québécois). Notre cadre théorique et méthodologique s'appuie sur des travaux antérieurs, mais l'analyse des trois réseaux du corpus Bélanger-Campeau s'est faite en vase clos. Puis nous avons comparé nos résultats aux définitions de dictionnaires français et québécois, de même qu'à des recherches antérieures touchant le vocabulaire sociopolitique. Nous concluons de cette démarche l'importance d'étudier les vocables en contexte, notamment en se penchant sur la cooccurrence, pour en cerner le plus objectivement possible les nuances sémantiques. De plus, l'analyse du corpus Bélanger-Campeau a permis la description de vocables et d'acceptions propres aux contextes québécois et canadien, et souvent absents des dictionnaires consultés, ou inadéquatement définis. Enfin, l'examen des cooccurrents nous a permis d'identifier nombre de collocations propres au français d'ici et caractéristiques de notre situation sociopolitique (peuple fondateur, projet de société, société distincte, fédéralisme renouvelé, souveraineté-association, Canada anglais, rêve canadien, canadien-anglais, canadien-français et fait français).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche professionnelle porte sur les profils psychomoteurs d'un échantillon de 83 enfants français, garçons et filles de 7, 8 et 9 ans à hauts potentiels intellectuels rencontrant des difficultés pour apprendre à l'école primaire. Elle est mise en oeuvre au moyen d'une méthodologie mixte. Née en France, la psychomotricité est un corpus paramédical qui propose une approche éducative et de remédiation des difficultés d'apprentissage, à partir d'une conception du développement psychomoteur qui considère que les interrelations entre les fonctionnements corporels, les éprouvés émotionnels et les cognitions sont primordiales et qu'elles se réalisent et sont accessibles via l'expérience corporelle globalisante. Ce construit, et les outils d'évaluation qui en découlent, c'est-à-dire le bilan psychomoteur, sont ici mobilisés pour décrire les profils adaptatifs d'enfants à hauts potentiels intellectuels en souffrance pour apprendre. Si les principaux travaux consacrés à ces enfants hors-normes et à leurs développements atypiques évoquent leur sensibilité et fragilité, ils sont trop souvent restreints aux seuls aspects du quotient intellectuel. Les apports de la psychomotricité peuvent donc les compléter. À partir de la description du dialogue tonicoémotionnel, qui inscrit le sujet dans la continuité biologiquepsychologique, l'expérience du corps, sous le double effet de la maturation neuromotrice et du bain environnemental, évolue vers la différenciation des fonctions psychomotrices qui permet la maîtrise gestuelle, la représentation du corps, de l'espace et du temps. Ces descriptions sont cohérentes avec d'autres conceptions multi-référencées qui reconnaissent aux émotions et à leur devenir un rôle important dans le développement, comme la théorie de l'attachement. Elles conduisent au repérage de troubles psychomoteurs. Ceux-ci peuvent friner l'accès aux apprentissages scolaires notamment l'écriture. Ce sont des perturbations de l'équilibre psychocorporel. Par définition et spécifiquement, ils ne répondent pas à une atteinte neurologique et expriment une souffrance psychique. L'analyse centrée sur les variables fournit une vision générale des données collectées. Les corrélations entre les 30 rubriques sont étudiées en les classant par sphères correspondant aux fonctions psychomotrices - motricité - rythme - espace - intégration corporelle - graphomotricité; puis par processus - tonicoémotionnel - sensori-perceptivo-moteur - cognitif - apprentissage explicité. Cette taxonomie éclaire les corrélations et donc les niveaux d'organisation. Ce premier traitement statistique débouche sur a) l'intérêt de la démarche globale en psychomotricité puisque toutes les rubriques étudiées se sont avérées troublées, b) l'apport de la prise en considération des dimensions tonicoémotionnelles, c) l'importance de l'articulation sensori-perceptivo-motrice et d) une confirmation des liens entre les compétences psychomotrices et l'écriture. La seconde étape est une classification hiérarchique ascendante puis une analyse factorielle des grappes. Elle dégage des résultats concernant des différences entre les organisations internes de ces enfants sous-réalisateurs, à partir des poids respectifs des facteurs 1) de la dyspraxie et de la dysgraphie, 2) de l'hyperactivité et de l'anxiété avec impulsivité et difficultés graphiques, 3) des troubles de la motricité large et fine et de l'expression émotionnelle, 4) des troubles spatiaux, 5) des troubles visuopraxiques et de l'intégration corporelle floue, 6) des troubles diffus et légers et 7) des troubles du rythme. Ainsi les cinq grappes sont décrites de manière dynamique comme caractérisées par 1) de bonnes compétences scripturales, des difficultés légères mais aussi des perturbations du tonus musculaire, 2) des tendances dysgraphiques pour des enfants maladroits et inquiets mais aussi avec des compétences préservées, qui se différencient 3) d'enfants franchement dysgraphiques avec des difficultés à se situer et manier les informations relatives à l'espace et au rythme, 4) d'enfants également dysgraphiques mais aussi hyperactifs, anxieux et manquant de référence spatio-temporelle, et 5) de sujets qui dysgraphiques, dyspraxiques, émotifs ont des tendances hyperactives et des incertitudes visuopraxiques. Ainsi à partir de la référence holistique-interactionniste, ces résultats confirment l'intérêt des approches globales et multi-référencées pour explorer les profils des enfants dont le développement n'est pas harmonieux et qui se trouvent confrontés à des difficultés pour apprendre dans le cadre scolaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Omnis definitio in jure civili periculosa est". Le principe selon lequel toute définition est périlleuse constitue l’une des idées séculaires véhiculées par la tradition de droit civil. Malgré cela, le Code civil français et, plus récemment, le "Code civil du Québec" contiennent tous deux un nombre important de définitions légales. Abordées du point de vue du lexicographe, ces définitions soulèvent la question de savoir à quel point elles doivent être prises en considération dans les dictionnaires juridiques : en présence d’une définition légale, le lexicographe devrait-il simplement la paraphraser ou devrait-il plutôt chercher à rendre compte du sens tel qu’il est véhiculé dans le discours juridique? En étudiant les enjeux soulevés par cette question, le présent texte propose une démarche lexicographique qui relativise l’influence des définitions légales sur le contenu des dictionnaires de droit civil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[…] Après avoir examiné ce que le programme de français du MÉQ propose sur la façon d'enseigner la lecture, il est possible d'observer les disparités entre celui-ci et l'état actuel de la recherche quant au meilleur moyen d'aider l'élève dans sa compréhension d'un texte informatif. En effet, à l'intérieur même du nouveau programme de français de 1994, aucune mention n'est faite en ce qui concerne l'apprentissage des structures de textes au primaire, et ce malgré les effets positifs sur la compréhension soulevés par de nombreuses recherches. Une des raisons pouvant expliquer ce fait vient du manque de matériel concret à la portée des enseignantes et des enseignants et pouvant constituer une base à cet enseignement. Giasson (1990) a recensé, parmi différentes recherches, un certain nombre de représentations graphiques utilisées pour l'enseignement des structures de textes. Pour apprécier la pertinence de ce matériel, il sera important de comprendre l'origine de ces représentations graphiques et la façon dont ce type de représentations peut faciliter l'acquisition de connaissances. L'essentiel du problème abordé à l'intérieur de ce projet de recherche touche donc un aspect précis de la lecture. En effet, la compréhension en lecture par l'enseignement de l'organisation du texte et l'utilisation de représentations graphiques constituent le point central de la présente recherche. L'objectif général vise donc à voir dans quelle mesure la compréhension de texte peut être favorisée si un enseignement des structures de texte à l'aide de représentations graphiques est entrepris. Le présent document se compose de cinq chapitres. Le premier chapitre propose une recension des écrits des différents thèmes permettant de poser le problème. Le deuxième chapitre énonce la problématique ainsi que les hypothèses de recherche. Le troisième chapitre, quant à lui, décrit la méthodologie utilisée dans la phase expérimentale de la recherche. Le quatrième chapitre fait l'analyse et l'interprétation des résultats et finalement le cinquième et dernier chapitre propose la conclusion et les implications des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les recherches menées au cours des vingt dernières années ont bien documenté les effets bénéfiques des représentations graphiques d'informations pour l'apprentissage (Vekiri, 2002). On appelle "organisateur graphique" tout outil permettant d'organiser et de relier graphiquement des informations en fonction du type de lien qu'elles partagent. La carte heuristique (ou Mind Map en anglais) est un organisateur graphique qui a la particularité de proposer une organisation nodale des idées à partir d'une image centrale (Buzan, 1976). En dépit d'une popularité croissante dans le monde du management, la carte heuristique reste un outil relativement méconnu des professionnelles et professionnels de l'éducation. De plus, contrairement au schéma conceptuel (Gao, Shen, Losh et Turner, 2007), elle n'a fait l'objet d'aucune recension majeure ou méta-analyse ayant mis à l'épreuve dans un contexte éducatif ses supposés avantages pour l'apprentiisage revendiqués par Buzan et Buzan (2003). L'objectif du présent projet est d'évaluer l'apport pédagogique que la carte heuristique est en mesure d'apporter à des élèves du primaire en difficulté d'apprentissage. Pour cela, une recension des travaux scientifiques qui ont expérimenté la carte heuristique avec cette clientèle scolaire a été effectuée. Compte tenu du nombre restreint des travaux qui ont ciblé des élèves en difficulté d'apprentissage du primaire, la recension a été élargie aux élèves tout-venant et à d'autres contextes éducatifs. Au total, dix travaux ont été recensés ; sur ces dix travaux, seuls deux ont ciblé l'enseignement primaire (Brennan, 2006 ; Akinoglu et Yasar, 2007), et un seul a ciblé une clientèle d'élèves du primaire en difficulté d'apprentissage (Brennan, 2006). Les résultats obtenus par Brennan (Ibid.) et Akinoglu et Yasar (2007) sont positifs, la carte heuristique ayant amélioré les résultats scolaires des élèves et ayant également influencé positivement leur conception de l'apprentissage. Cependant, ces résultats n'ont pas systématiquement été répliqués dans d'autres contextes éducatifs, la carte heuristique ayant même donné parfois de moins bons résultats que d'autres méthodes comme le plan (Trevino, 2006). Plusieurs élèves, étudiantes et étudiants ont également manifesté une certaine lassitude (Farrand, Hussain et Hennessy, 2002), voire une certaine réticence (Goodnough et Woods, 2002 ; Peterson et Snyder, 1998) à utiliser la carte heuristique sur de longues périodes de temps. Toutefois, les nombreux biais méthodologiques de cette recension, principalement les variations dans la clientèle scolaire, dans le type d'utilisation de la carte et dans la matière scolaire, rendent les comparaisons entre travaux délicates. D'autres études seront donc nécessaires pour confirmer ou infirmer les résultats positifs constatés par Brennan (2006) ; ces études futures devront davantage tenir compte des variables susmentionnées, afin d'évaluer de manière plus objective la réelle portée pédagogique de la carte heuristique pour des élèves du primaire en difficulté d'apprentissage.