982 resultados para Conception numérique de revêtements optiques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans un article fondateur, Fung, Gilman et Shkabatur formalisent les rapports complexes entre les nouvelles technologies de l’information et de la communication et les systèmes politiques. En analysant les incitatifs et les contraintes institutionnelles entre les citoyens, les organisations traditionnelles et l’État, ils distinguent six modèles d’interactions entre les TIC et la démocratie : espace public musclé, production collaborative, démocratie directe digitale, lanceurs d’alerte, mobilisation politique et surveillance sociale. Après avoir brièvement présenté cette typologie qui permet d’éclairer certaines potentialités et illusions entourant la démocratie numérique, nous soutiendrons que l’approche descriptive des auteurs minimise le caractère transformateur des trois premiers modèles au profit des trois derniers qui sont davantage compatibles avec les limites du système politique actuel. Nous esquisserons ensuite les contours d’une « démocratie numérique radicale » pour déterminer comment les nouvelles technologies permettraient de renforcer la participation citoyenne de manière significative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article se veut exploratoire en deux temps : une piste de réflexion sur l’impact du numérique sur les sciences humaines, et une lecture de l’essai « Le nénuphar et l’araignée » de Claire Legendre, publié le 4 février 2015 chez Les Allusifs. Notre hypothèse est qu’il est nécessaire de jeter les bases d’une théorie et d’une pensée du numérique, comme de poursuivre et de favoriser l’implémentation de nouveaux outils de recherche conçus par et pour les humanités, en lien direct avec les questions d’édition, de diffusion, d’encodage, de fouille, de curation, ou encore de visualisation et de représentation des données textuelles, sonores et visuelles. Cet article propose ainsi une première piste d’exploration de l’usage de ces nouvelles possibilités pour la littérature québécoise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Souvent conçues comme le vecteur de changements majeurs, les pratiques numériques constituent une occasion de mieux comprendre le fait littéraire en faisant apparaître de manière plus explicite que jamais des aspects ontologiques qui, en tant que tels, ont une valeur atemporelle. En particulier, et c’est l’objet de cet article, le fait numérique donne l’occasion de réinvestir une problématique qui parcourt l’ensemble de la réflexion sur le statut de la littérature depuis Platon et Aristote : celle du rapport entre littérature et réalité, dont Sartre et Derrida avaient déjà œuvré à déconstruire l’opposition au XXe siècle. Selon nous, le numérique souligne l’absence de séparation entre symbolique et non-symbolique, nous empêchant de penser une rupture entre imaginaire et réel. Pour rendre compte de cette structure, nous nous appuierons sur le concept d’éditorialisation, qui vient désigner l’ensemble des dispositifs permettant la production de contenus dans l’espace numérique en tenant compte de la fusion entre espace numérique et espace non numérique. À travers des exemples littéraires – Traque Traces de Cécile Portier et Laisse venir d’Anne Savelli et Pierre Ménard – nous démontrerons comment la littérature participe aujourd’hui à l’éditorialisation du monde, enterrant ainsi définitivement le dualisme imaginaire-réel pour lui préférer une structure anamorphique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The question that I will explore in this research dissertation is whether one can defend the rights of homeland minorities as a progressive extension of the existing norms of human rights. This question calls for several deeper inquiries about the nature, the function and the underlying justifications for both human rights and minority rights. In particular, this research project will examine the following issues: on what normative grounds the available norms of human rights and minority rights are justified; if there is any methodic way to use the normative logic of human rights to support substantial forms of minority claims, such as the right to self-determination; whether human rights can take the form of group rights; and finally, whether there is any non-sectarian basis for justifying the minority norms, which can be acceptable from both liberal and non-liberal perspectives. This research project has some implications for both theories of minority rights and human rights. On the one hand, the research employs the topic of minority rights to shed light on deficiencies of the existing political theories of human rights. On the other hand, it uses the political theory to shed light on how existing theories of minority rights could be improved and amended. The inquiry will ultimately clarify how to judge the merit of the claim that minority rights are or should be a part of human rights norms.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La déchirure de la coiffe des rotateurs est une des causes les plus fréquentes de douleur et de dysfonctionnement de l'épaule. La réparation chirurgicale est couramment réalisée chez les patients symptomatiques et de nombreux efforts ont été faits pour améliorer les techniques chirurgicales. Cependant, le taux de re-déchirure est encore élevé ce qui affecte les stratégies de réhabilitation post-opératoire. Les recommandations post-chirurgicales doivent trouver un équilibre optimal entre le repos total afin de protéger le tendon réparé et les activités préconisées afin de restaurer l'amplitude articulaire et la force musculaire. Après une réparation de la coiffe, l'épaule est le plus souvent immobilisée grâce à une écharpe ou une orthèse. Cependant, cette immobilisation limite aussi la mobilité du coude et du poignet. Cette période qui peut durer de 4 à 6 semaines où seuls des mouvements passifs peuvent être réalisés. Ensuite, les patients sont incités à réaliser les exercices actifs assistés et des exercices actifs dans toute la mobilité articulaire pour récupérer respectivement l’amplitude complète de mouvement actif et se préparer aux exercices de résistance réalisés dans la phase suivante de la réadaptation. L’analyse électromyographique des muscles de l'épaule a fourni des évidences scientifiques pour la recommandation de beaucoup d'exercices de réadaptation au cours de cette période. Les activités sollicitant les muscles de la coiffe des rotateurs à moins de 20% de leur activation maximale volontaire sont considérés sécuritaires pour les premières phases de la réhabilitation. À partir de ce concept, l'objectif de cette thèse a été d'évaluer des activités musculaires de l'épaule pendant des mouvements et exercices qui peuvent théoriquement être effectués au cours des premières phases de la réhabilitation. Les trois questions principales de cette thèse sont : 1) Est-ce que la mobilisation du coude et du poignet produisent une grande activité des muscles de la coiffe? 2) Est-ce que les exercices de renforcement musculaire du bras, de l’avant-bras et du torse produisent une grande activité dans les muscles de la coiffe? 3) Au cours d'élévations actives du bras, est-ce que le plan d'élévation affecte l'activité de la coiffe des rotateurs? Dans notre première étude, nous avons évalué 15 muscles de l'épaule chez 14 sujets sains par électromyographie de surface et intramusculaire. Nos résultats ont montré qu’avec une orthèse d’épaule, les mouvements du coude et du poignet et même quelques exercices de renforcement impliquant ces deux articulations, activent de manière sécuritaire les muscles de ii la coiffe. Nous avons également introduit des tâches de la vie quotidienne qui peuvent être effectuées en toute sécurité pendant la période d'immobilisation. Ces résultats peuvent aider à modifier la conception d'orthèses de l’épaule. Dans notre deuxième étude, nous avons montré que l'adduction du bras réalisée contre une mousse à faible densité, positionnée pour remplacer le triangle d’une orthèse, produit des activations des muscles de la coiffe sécuritaires. Dans notre troisième étude, nous avons évalué l'électromyographie des muscles de l’épaule pendant les tâches d'élévation du bras chez 8 patients symptomatiques avec la déchirure de coiffe des rotateurs. Nous avons constaté que l'activité du supra-épineux était significativement plus élevée pendant l’abduction que pendant la scaption et la flexion. Ce résultat suggère une séquence de plan d’élévation active pendant la rééducation. Les résultats présentés dans cette thèse, suggèrent quelques modifications dans les protocoles de réadaptation de l’épaule pendant les 12 premières semaines après la réparation de la coiffe. Ces suggestions fournissent également des évidences scientifiques pour la production d'orthèses plus dynamiques et fonctionnelles à l’articulation de l’épaule.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les récepteurs couplés aux protéines G (RCPG) démontrent de plus en plus de capacités à activer des mécanismes jusqu’alors associés à des facteurs de transcription ou des molécules d’adhésion. En effet, de nouvelles preuves rapportent qu’ils pourraient également participer au guidage axonal qui est le mécanisme permettant aux axones de cellules nerveuses de rejoindre leur cible anatomique. Le guidage axonal se fait par l’interaction entre les molécules de guidage et une structure particulière présente à l’extrémité de l’axone, le cône de croissance. Par exemple, les RCPGs participent au guidage des cellules ganglionnaires de la rétine (CGR), dont les axones s’étendent de la rétine jusqu’au noyaux cérébraux associés à la vision. Cet effet est observé avec des RCPGs tels que les récepteurs aux cannabinoïdes (CB1 et CB2) et celui du lysophosphatidylinositol, le GPR55. Les RCPGs GPR91 et GPRG99, respectivement récepteurs au succinate et à l’α-cétoglutarate, se trouvent à la surface de ces CGRs, ce qui en font des candidats potentiels pouvant participer au guidage axonal. Dans ce mémoire, l’effet des ligands de ces récepteurs sur la croissance et la navigation des axones des CGRs fut analysé. L’impact produit par ces récepteurs ainsi que leurs ligands sur la morphologie des cônes de croissance fut déterminé en mesurant leur taille et le nombre de filopodes présents sur ces cônes. Pour évaluer le rôle du succinate et de l’a-cétoglutarate sur la croissance globale des axones de CGRs, la longueur totale des projections axonales d’explants rétiniens a été mesurée. L’effet de ces ligands des récepteurs GPR91 et GPR99 sur le guidage axonal a également été évalué en temps réel à l’aide d’un gradient créé par un micro injecteur placé à 45° et à 100µm du cône de croissance. La distribution in vivo des récepteurs GPR91 et GPR99 sur la rétine a été étudié à l’aide d’expériences d’immunohistochimie. Les résultats obtenus indiquent que l’ajout de 100µM de succinate produit une augmentation de la taille des cônes de croissance et du nombre de filopodes présents à leur surface. Il augmente également la croissance des axones. Ce type de réponse fut également observé lorsque les cellules furent soumises à 200µM d’α-cétoglutarate. Fait à noter, les deux récepteurs n’ont pas d’impact sur le guidage axonal. Ces résultats indiquent donc que les agonistes des récepteurs GPR91 et GPR99 augmentent la croissance des cellules ganglionnaires lorsqu’ils sont présents lors du développement. Par contre, ils n’ont pas d’influence sur la direction prise par les cônes de croissance. Ces nouvelles données sont un pas de plus dans la compréhension des mécanismes qui gèrent et participent au développement et la croissance des CGRs, ce qui pourrait donner de nouvelles cibles thérapeutique pouvant mener à la régénération de nerfs optiques endommagés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans un article fondateur, Fung, Gilman et Shkabatur formalisent les rapports complexes entre les nouvelles technologies de l’information et de la communication et les systèmes politiques. En analysant les incitatifs et les contraintes institutionnelles entre les citoyens, les organisations traditionnelles et l’État, ils distinguent six modèles d’interactions entre les TIC et la démocratie : espace public musclé, production collaborative, démocratie directe digitale, lanceurs d’alerte, mobilisation politique et surveillance sociale. Après avoir brièvement présenté cette typologie qui permet d’éclairer certaines potentialités et illusions entourant la démocratie numérique, nous soutiendrons que l’approche descriptive des auteurs minimise le caractère transformateur des trois premiers modèles au profit des trois derniers qui sont davantage compatibles avec les limites du système politique actuel. Nous esquisserons ensuite les contours d’une « démocratie numérique radicale » pour déterminer comment les nouvelles technologies permettraient de renforcer la participation citoyenne de manière significative.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article se veut exploratoire en deux temps : une piste de réflexion sur l’impact du numérique sur les sciences humaines, et une lecture de l’essai « Le nénuphar et l’araignée » de Claire Legendre, publié le 4 février 2015 chez Les Allusifs. Notre hypothèse est qu’il est nécessaire de jeter les bases d’une théorie et d’une pensée du numérique, comme de poursuivre et de favoriser l’implémentation de nouveaux outils de recherche conçus par et pour les humanités, en lien direct avec les questions d’édition, de diffusion, d’encodage, de fouille, de curation, ou encore de visualisation et de représentation des données textuelles, sonores et visuelles. Cet article propose ainsi une première piste d’exploration de l’usage de ces nouvelles possibilités pour la littérature québécoise.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Souvent conçues comme le vecteur de changements majeurs, les pratiques numériques constituent une occasion de mieux comprendre le fait littéraire en faisant apparaître de manière plus explicite que jamais des aspects ontologiques qui, en tant que tels, ont une valeur atemporelle. En particulier, et c’est l’objet de cet article, le fait numérique donne l’occasion de réinvestir une problématique qui parcourt l’ensemble de la réflexion sur le statut de la littérature depuis Platon et Aristote : celle du rapport entre littérature et réalité, dont Sartre et Derrida avaient déjà œuvré à déconstruire l’opposition au XXe siècle. Selon nous, le numérique souligne l’absence de séparation entre symbolique et non-symbolique, nous empêchant de penser une rupture entre imaginaire et réel. Pour rendre compte de cette structure, nous nous appuierons sur le concept d’éditorialisation, qui vient désigner l’ensemble des dispositifs permettant la production de contenus dans l’espace numérique en tenant compte de la fusion entre espace numérique et espace non numérique. À travers des exemples littéraires – Traque Traces de Cécile Portier et Laisse venir d’Anne Savelli et Pierre Ménard – nous démontrerons comment la littérature participe aujourd’hui à l’éditorialisation du monde, enterrant ainsi définitivement le dualisme imaginaire-réel pour lui préférer une structure anamorphique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet essai porte sur la conception d’un guide pour accompagner la ou le spécialiste de contenu dans un contexte de formation manquante dans le cadre de la reconnaissance des acquis et des compétences (RAC) au collégial. L’étape de la formation manquante, décrite dans le Cadre général-Cadre technique (Gouvernement du Québec, 2005) et qui permet de définir la RAC au secondaire et au collégial, consiste à fournir à la personne candidate les ressources nécessaires qui l’aideront à mobiliser les éléments d’une compétence requis, afin de répondre aux évaluations à des fins de diplomation dans un programme de formation donné. Les données recensées par le ministère responsable l’éducation et de l’enseignement supérieur indiquent qu’à la fin du processus d’évaluation en RAC, le recours à la formation manquante fait partie des services de plus en plus utilisés. Toutefois, pour offrir le service de RAC, les collèges doivent recruter du personnel qualifié qui évaluera les personnes candidates conformément aux compétences du programme dans lequel ces personnes sont inscrites. Un référentiel de compétences récemment mis en place décrit les compétences souhaitées du spécialiste de contenu dont une concerne l’accompagnement auprès de la personne candidate (Groupe de travail CERAC, 2014). Le chercheur s’est inspiré de ce référentiel de compétences pour questionner les ressources à la disposition du spécialiste de contenu pour l’aider dans sa tâche à l’étape de la formation manquante. C’est en l’absence de matériel spécifique à cet effet que le problème de recherche s’est imposé justifiant la question suivante : Comment résoudre le manque d’outils pour accompagner la ou le spécialiste de contenu qui intervient en RAC au collégial dans un contexte de formation manquante? Or, l’accompagnement requiert un minimum de connaissances, d’habiletés et de compétences chez la ou le spécialiste de contenu. Cette question de recherche amène à considérer trois concepts déjà explorés par des chercheures et chercheurs pour constituer notre cadre de référence et qui ont éclairé notre problématique. Il s’agit des concepts de compétence, d’andragogie et d’accompagnement qui ont mené à la détermination de l’objectif spécifique de recherche : Concevoir un guide pour soutenir la ou le spécialiste de contenu à accompagner efficacement la personne candidate à l’étape de la formation manquante en RAC au collégial. L’approche méthodologique qualitative utilisée pour atteindre l’objectif de recherche tient compte des étapes de production de matériel pédagogique du devis de Paillé (2007) soit la planification, l’élaboration et la validation d’un matériel pédagogique. Pour que ce nouveau matériel soit reconnu pertinent par la ou le spécialiste de contenu, l’étape de validation s’est effectuée auprès d’un groupe de spécialistes de contenu, ayant une expérience professionnelle variée et provenant de domaines disciplinaires différents. Le chercheur a utilisé trois modalités de collecte de données, soit le questionnaire électronique, le groupe d’entretien et le journal de bord. Les résultats de la recherche ont démontré que les spécialistes de contenu ayant participé à la validation du guide considèrent que la structure organisationnelle du matériel pédagogique et sa forme sont efficaces, pertinentes et utiles. L’utilité, la clarté et la quantité d’informations ainsi que le découpage et le développement des idées sont notamment très appréciés. D’ailleurs, les spécialistes de contenu ayant validé le guide affirment unanimement qu’il répond à un besoin de ressources pour accompagner la personne candidate à l’étape de la formation manquante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cette recherche, nous nous concentrons sur l'analyse des pratiques d'enseignement en anglais langue seconde au collégial. Tout au long de sa carrière, l'enseignante ou l'enseignant expérimenté a développé un répertoire de pratiques qui lui convient. Or, le contexte d'exercice de sa profession est évolutif et complexe. Pour diverses raisons, les groupes sont moins homogènes qu'auparavant et plusieurs éléments ont maintenant un impact important sur sa tâche. Il importe donc d'être en mesure de porter un regard sur la pertinence de ses pratiques afin de tenir compte de cette réalité et ainsi apporter des modifications à son répertoire de pratiques. Les pratiques de l'enseignante ou de l'enseignant en situation d'enseignement sont en fait le reflet d'un savoir en action qu'elle ou qu'il a développé pendant sa carrière. Ce savoir, à bien des égards, s'est construit de manière intuitive en lien avec des principes inhérents à l'enseignement de l'anglais langue seconde que l'enseignante ou l'enseignant considèrent importants. Cependant, celle-ci ou celui-ci ne peut clairement expliquer ou justifier de façon appropriée les raisons qui motivent ses décisions en classe. En outre, il lui faut aussi juger de l'adéquation de ses pratiques. En fonction de la réalité mentionnée ci-haut, il devient essentiel pour l'enseignante ou l'enseignant de prendre conscience de ces raisons et d'apporter des ajustements à ses pratiques, lorsque nécessaires. Toutefois, l'enseignante ou l'enseignant expérimenté dispose de peu d'outils appropriés pour porter un regard sur la pertinence de ses pratiques et s'assurer de leur efficacité. Les outils qui existent ne s'adressent pas à elle ou à lui et ne sont pas adaptés à ses besoins. La présente recherche vise, par conséquent, à concevoir un outil, sous la forme d'une grille d'analyse, qui permettra à l'enseignante ou à l'enseignant d'anglais langue seconde expérimenté de porter un regard critique sur ses pratiques et qui sera adapté à ses besoins. La conception d'un tel outil favorisera chez l'enseignante ou l'enseignant expérimenté une meilleure prise de conscience de son savoir en action et une capacité à expliquer les raisons motivant ses décisions en situation d'enseignement en les situant par rapport à des principes reconnus. Ultimement, cette capacité aura un impact sur ses interventions et sur les apprentissages réalisés par les étudiantes et les étudiants. La recension des écrits pertinents pour l'objectif visé nous a permis de découvrir que les principes inhérents à l'enseignement de l'anglais langue seconde sont de même nature que les principes pédagogiques en enseignement en général. Par ailleurs, ces principes, qu'ils soient issus de théories de l'apprentissage, de l'enseignement ou de l'expérience de l'enseignante ou de l'enseignant, guident les interventions de l'enseignante ou de l'enseignant. Nous avons également constaté qu'une pratique efficace est une pratique qui est cohérente avec ces principes pédagogiques. Partant de ces découvertes, nous avons retenu les principes et les pratiques présents autant chez les auteurs de la recherche en pédagogie en général que chez les auteurs de la recherche en enseignement de l'anglais langue seconde afin d'élaborer le cadre de référence de cette recherche. Les principes et les pratiques se rapportant à l'expérience de l'enseignant chercheur, l'interpellant de manière significative, ont également été considérés pour élaborer le cadre de référence. Un dernier élément à considérer dans l'élaboration du cadre de référence est la démarche d'analyse réflexive, car elle permet une prise de conscience, chez l'enseignante ou l'enseignant, de ses pratiques. Étant donné l'ampleur du présent projet, nous n'avons considéré que les principes de base de cette démarche puisqu'ils conviennent parfaitement à l'objectif visé par cette recherche. Les éléments issus du cadre de référence ont servi de base pour la conception de la grille d'analyse des pratiques. Ce projet s'inscrit néanmoins dans une recherche de type développement et la production de matériel pédagogique ne peut se faire sans l'implication d'intervenants experts dans le domaine de l'enseignement de l'anglais langue seconde. À cet effet, l'enseignant chercheur s'est assuré la participation de collègues de son collège afin de valider la pertinence des pratiques et des principes, la cohérence des pratiques avec les principes, l'adaptabilité des principes et finalement les critères portant sur la facture globale du prototype de la grille d'analyse des pratiques. La richesse des réponses obtenues à l'étape de validation a contribué à améliorer la grille d'analyse des pratiques et l'enseignant chercheur a tenté, dans la mesure du possible et en respectant l'essence du cadre de référence, de considérer les nombreuses suggestions des personnes participantes. La grille d'analyse des pratiques devrait habiliter l'enseignante ou l'enseignant plus expérimenté à porter un regard critique sur ses pratiques en situation d'enseignement et à juger de leur efficacité. L'utilisation d'une telle grille pourrait également l'amener à développer une posture réflexive plus permanente.