1000 resultados para Alignement tâche-technologie
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Dans une société mondialisée, où les relations sont intégrées à une vitesse différente avec l'utilisation des technologies de l'information et des communications, l'accès à la justice gagne de nouveaux concepts, mais elle est encore confrontée à de vieux obstacles. La crise mondiale de l'accès à la justice dans le système judiciaire provoque des débats concernant l'égalité en vertu de la loi, la capacité des individus, la connaissance des droits, l'aide juridique, les coûts et les délais. Les deux derniers ont été les facteurs les plus importants du mécontentement des individus avec le système judiciaire. La présente étude a pour objet d'analyser l'incidence de l'utilisation de la technologie dans l’appareil judiciaire, avec l'accent sur la réalité brésilienne, la voie législative et des expériences antérieures dans le développement de logiciels de cyberjustice. La mise en œuvre de ces instruments innovants exige des investissements et de la planification, avec une attention particulière sur l'incidence qu'ils peuvent avoir sur les routines traditionnelles des tribunaux. De nouveaux défis sont sur la voie de ce processus de transformation et doivent être traités avec professionnalisme afin d'éviter l'échec de projets de qualité. En outre, si la technologie peut faire partie des différents aspects de notre quotidien et l'utilisation de modes alternatifs de résolution des conflits en ligne sont considérés comme un succès, pourquoi serait-il difficile de faire ce changement dans la prestation de la justice par le système judiciaire? Des solutions technologiques adoptées dans d'autres pays ne sont pas facilement transférables à un environnement culturel différent, mais il y a toujours la possibilité d'apprendre des expériences des autres et d’éviter de mauvaises voies qui pourraient compromettre la définition globale de l'accès à la justice.
Resumo:
Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.
Resumo:
Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.
Resumo:
En cette ère de «nouvelle santé publique», les professionnels sont exhortés à détourner leur attention de l’individu afin de pouvoir mettre l’accent sur les déterminants sociaux de la santé. Un phénomène contraire s’opère dans le domaine des sciences biomédicales, où un mouvement vers la santé personnalisée permet d’envisager des soins préventifs et curatifs adaptés à chaque individu, en fonction de son profil de risque génétique. Bien qu’elles n’aient que partiellement fait leur entrée dans notre système de santé, ces avancées scientifiques risquent de changer significativement le visage de la prévention, et dans cette foulée, de susciter des débats de société importants. L'étude proposée vise à contribuer à une réflexion sur l'avenir d'une des fonctions essentielles de la santé publique en tentant de mieux comprendre comment le public perçoit la prévention basée sur le risque génétique. Ce projet de recherche qualitative consiste en l'analyse secondaire des échanges ayant eu lieu lors de quatre ateliers délibératifs auxquels ont participé des membres du public d'horizons divers, et durant lesquels ceux-ci ont débattu de la désirabilité d'une technologie préventive fictive, le «rectificateur cardiaque». La théorie de la structuration d'Anthony Giddens est utilisée comme cadre conceptuel guidant l’analyse des échanges. Celle-ci permet d’émettre les trois constats suivants: a- le « rectificateur cardiaque » est loin d’être interprété par tous les participants comme étant une intervention préventive; b- son utilisation est perçue comme étant légitime ou non dépendamment principalement des groupes de personnes qu’elle viserait; c- l’intervention proposée ne se pense pas hors contexte.
Resumo:
Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.
Resumo:
La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.
Resumo:
L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.
Resumo:
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.
Resumo:
Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).
Resumo:
Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.
Resumo:
The objective of this thesis was to quantify the physiological responses such as O2 uptake (VO2), heart rate (HR) and blood lactate ([LA]) to some types of activities associated with intermittent sports in athletes. Our hypothesis is that the introduction of accelerations and decelerations with or without directional changes results in a significative increase of the oxygen consumption, heart rate and blood lactate. The purpose of the first study was to measure and compare the VO2 and the HR of 6 on-court tennis drills at both high and low displacement speeds. These drills were done with and without striking the ball, over full and half-width court, in attack or in defense mode, using backhand or forehand strokes. Results show that playing an attacking style requires 6.5% more energy than playing a defensive style (p < 0.01) and the backhand stroke required 7% more VO2 at low speed than forehand stroke (p < 0.05) while the additional cost of striking the ball lies between 3.5 and 3.0 mL kg-1 min-1. Finally, while striking the ball, the energy expanded during a shuttle displacement on half-width court is 14% higher than running on full-width court. Studies #2 and #3 focused on different modes of displacement observed in irregular sports. The objective of the second study was to measure and compare VO2, HR and [LA] responses to randomly performed multiple fractioned runs with directional changes (SR) and without directional changes (FR) to those of in-line running (IR) at speeds corresponding to 60, 70 and 80% of the subject’s maximal aerobic speed (MAS). All results show that IR’s VO2 was significantly lower than SR’s and FR’s (p<0.05). SR’s VO2 was greater than FR’s only at speeds corresponding to 80%MAS. On the other hand, HR was similar in SR and FR but significantly higher than IR’s (p<0.05). [LA] varied between 4.2 ± 0.8 and 6.6 ± 0.9 mmol L-1 without significant differences between the 3 displacement modes. Finally, the third study’s objective was to measure and compare VO2 , HR and [LA] responses during directional changes at different angles and at different submaximal running speeds corresponding to 60, 70 and 80% MAS. Subjects randomly performed 4 running protocols 1) a 20-m shuttle running course (180°) (SR), 2) an 8-shaped running course with 90-degree turns every 20 m (90R), 3) a Zigzag running course (ZZR) with multiple close directional changes (~ 5 m) at different angle values of 91.8°, 90° and 38.6°, 4) an In-line run (IR) for comparison purposes. Results show that IR’s was lower (p<0.001) than for 90R’s, SR’s and ZZR’s at all intensities. VO2 obtained at 60 and 70%MAS was 48.7 and 38.1% higher during ZZR when compared to IR while and depending on the intensity, during 90R and SR was between 15.5 and 19.6% higher than during IR. Also, ZZR’s VO2 was 26.1 and 19.5% higher than 90R’s, 26.1 and 15.5% higher than SR’s at 60 and 70%MAS. SR’s and 90R’s VO2 were similar. Changing direction at a 90° angle and at 180° angle seem similar when compared to continuous in-line running. [LA] levels were similar in all modalities. Overall, the studies presented in this thesis allow the quantification of the specific energetic demands of certain types of displacement modes in comparison with conventional forward running. Also, our results confirm that the energy cost varies and increase with the introduction of accelerations and decelerations with and without directional changes.
Resumo:
L’objectif de cette thèse est double. Premièrement, il s’agira de comprendre l’impact que l’internet peut avoir sur la démocratie, c’est-à-dire de montrer ce que cette technologie change à la démocratie, en développant un cadre conceptuel précis et en m’appuyant sur un corpus empirique important. Il s’agira ensuite de développer un projet normatif, afin de montrer ce qu’il est nécessaire de faire afin de garantir que l’impact de l’internet sur la démocratie sera positif. Pour mener à bien ces objectifs, il me faudra d’abord disposer d’une conception claire de la démocratie. C’est pourquoi je proposerai dans une première partie de la comprendre à partir du concept d’autonomie politique dont je proposerai une analyse conceptuelle au premier chapitre. J’analyserai ensuite deux éléments centraux de ce concept, à savoir la vie privée et l’espace public. Je proposerai dans une deuxième partie une analyse à la fois précise et empiriquement fondée de l’impact de l’internet sur ces deux éléments, afin de présenter un argument qui ne sera pas simplement a priori ou spéculatif. Les conclusions que je présenterai ne vaudront, cependant, que pour l’internet tel qu’il est aujourd’hui, car il est certain qu’il peut évoluer. Il est alors tout à fait possible que ses propriétés cessent de permettre l’augmentation de l’autonomie politique que je décris au cours de ma deuxième partie. Il est donc important de mener à bien une réflexion normative afin d’identifier dans quelle mesure il pourrait être nécessaire de faire quelque chose afin de garantir l’impact positif de l’internet sur l’autonomie politique. Je montrerai donc dans une dernière partie qu’il est nécessaire d’assurer à l’internet une architecture non-discriminante, mais qu’il n’est pas nécessaire de protéger outre mesure la générativité de son écosystème. Je conclurai en montrant l’importance d’offrir à tous des éléments d’une littératie numérique, si l’on souhaite que tous puissent bénéficier des opportunités offertes par le réseau des réseaux.
Resumo:
Cette étude décrit le développement des structures morphosyntaxiques et morphophonologiques chez les enfants francophones âgés entre 3 et 6 ans. Ces données pourront contribuer à particulariser certaines difficultés morphosyntaxiques et morphophonologiques retrouvées chez l’enfant déficient auditif québécois porteur d’implant cochléaire. Le premier objectif de notre projet pilote vise à comparer les habiletés morphosyntaxiques et morphophonologiques au niveau expressif de l’enfant porteur d’IC à celles des enfants entendants de même âge auditif et chronologique. L’étude évalue spécifiquement l’accord intra-nominal en genre, et les processus de fusion, d’élision et de liaison. Nous prédisons qu’une entrée auditive inférieure à la norme aura un impact sur l’acquisition des règles morpho(phonolo)giques en français. Le deuxième objectif consiste à observer si la maîtrise de ces structures est liée à la maîtrise de la production phonémique chez l’enfant franco-québécois porteur d’IC. L’élaboration de deux tâches expérimentales et la passation de tâches évaluatives et expérimentales ont permis d’étudier les difficultés morphologiques et phonologiques de l’enfant porteur d'IC. Le groupe témoin a inclus 14 enfants à développement typique. Ils ont été comparés au cas de Vincent, âgé de 59 mois, porteur d’implant cochléaire. Ce dernier présente des étapes de développement linguistique décalées qui correspondent à celles d’enfants appariés sur l’âge auditif (date d’IC) plutôt qu’à l’âge chronologique (AC). Nous avons observé des similitudes et des différences, sur le plan phonologique et morphosyntaxique, entre Vincent et les enfants entendants : il présente des performances significativement moins bonnes que la norme pour certaines de structures morphosyntaxiques et processus morphophonologiques (accord du genre, élision, fusion) mais meilleures que les témoins dans la tâche de liaison. Nous pensons que le gain prothétique n’est pas le seul facteur qui a un impact sur le développement linguistique précoce et que d’autres facteurs l’influenceraient, tels l’âge d’implantation, le mode de communication, l’implantation bilatérale, l’investissement des parents et les effets d’apprentissage. Enfin, notre étude de cas n’a pu étayer si la maîtrise de la production phonémique est en relation avec la maîtrise de certaines structures et processus morphologiques.