952 resultados para information use
Resumo:
Scant research has explored how professors in Canadian universities use Twitter as a teaching tool or to augment knowledge about their subject disciplines. This case study employed a mixed-method approach to examine how professors in an Ontario university use Twitter. Using a variation of the technology acceptance model, the survey (n = 17) found that professor participants—41.2% of whom use Twitter—perceive Twitter as somewhat useful as a teaching tool, not useful for finding and sharing information, and not useful for personal use. Participants’ gender and number of years teaching are not indicators of Twitter use. Furthermore, the level of support from peers and the university may be reasons why some do not use Twitter or have stopped using Twitter. Face-to-face interviews (n = 3) revealed that Twitter is not used in classrooms or lecture halls, but predominantly as a means of sharing information with students and colleagues. Another deterrent to using Twitter is not knowing who to follow. Findings indicate that some professors at this university embrace Twitter, but not necessarily as an in-class teaching tool. The challenge and the advantage of using Twitter is to discover and follow people who tweet material and to select relevant material to pass along to students and colleagues. Professor participants in the study found a use for the social network as a means to increase student engagement, create virtual information-exchange communities, and enrich their own learning.
Resumo:
Cognitive interviews were used to evaluate two draft versions of a financial survey in Jamaica. The qualitative version used a few open-ended questions, and the quantitative version used numerous close-ended questions. A secondary analysis based on the cognitive interview literature was used to guide a content analysis of the aggregate data of both surveys. The cognitive interview analysis found that the long survey had fewer respondent errors than the open-ended questions on the short survey. A grounded theory analysis then examined the aggregate cognitive data, showing that the respondents attached complex meanings to their financial information. The main limitation of this study was that the standard assessments of quantitative and qualitative reliability and validity were not utilized. Further research should utilize statistical methods to compare and contrast aggregated cognitive interview probe responses on open and close ended surveys.
Resumo:
Since 1986, the Canadian Public Administration is required to analyze the socio-economic impact of new regulatory requirements or regulatory changes. To report on its analysis, a Regulatory Impact Analysis Statement (RIAS) is produced and published in the Canada Gazette with the proposed regulation to which it pertains for notice to, and comments by, interested parties. After the allocated time for comments has elapsed, the regulation is adopted with a final version of the RIAS. Both documents are again published in the Canada Gazette. As a result, the RIAS acquires the status of an official public document of the Government of Canada and its content can be argued in courts as an extrinsic aid to the interpretation of a regulation. In this paper, an analysis of empirical findings on the uses of this interpretative tool by the Federal Court of Canada is made. A sample of decisions classified as unorthodox show that judges are making determinations on the basis of two distinct sets of arguments built from the information found in a RIAS and which the author calls “technocratic” and “democratic”. The author argues that these uses raise the general question of “What makes law possible in our contemporary legal systems”? for they underline enduring legal problems pertaining to the knowledge and the acceptance of the law by the governed. She concludes that this new interpretive trend of making technocratic and democratic uses of a RIAS in case law should be monitored closely as it may signal a greater change than foreseen, and perhaps an unwanted one, regarding the relationship between the government and the judiciary.
Resumo:
The increasing use of genetic information has emerged as an important concern worldwide as scientific and technological advances continue to advance at lightening speed and as governments struggle to develop appropriate policy frameworks. While most countries clearly recognize that genetic information warrants some form of privacy protection, the underlying rationale for providing that protection and the approach which is ultimately adopted vary significantly across the board. As a result, a medley of laws, policy statements and guidelines currently exist to protect genetic information, each with its inherent assumptions, concepts and terminology.
Resumo:
Un résumé en anglais est également disponible.
Resumo:
"Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit (L.L.M.)"
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Ce mémoire examine l'adoption des téléphones mobiles et l'utilisation des messages texte (SMS) par les adolescents chinois, selon la théorie des usages et gratifications et de la recherche sur la communication par ordinateur. Certains champs particuliers de l'utilisation des messages textes par les adolescents chinois, comme le contrôle parental, la circulation des chaînes de messages, la popularité des messages de salutations et l'utilisation répandue des émoticônes ont été étudiés. La fonction sociale des SMS, plus particulièrement des pratiques sociales et des relations émotionnelles des adolescents chinois, a également été explorée. Cette étude est basée sur un sondage réalisé sur le terrain auprès de 100 adolescents chinois. Elle révèle que chez les adolescents chinois, les deux principales raisons pour l'adoption du téléphone mobile sont l'influence parentale et le besoin de communication sociale. Quant à l'utilisation des messages texte, elle répond à sept usages et gratifications : la flexibilité, le coût modique, l’intimité, éviter l'embarras, le divertissement, l'engouement et l'évasion. Il a également été observé que les messages texte jouent un rôle positif dans la construction et l'entretien des relations sociales des adolescents chinois.
Resumo:
La théorie de l'information quantique étudie les limites fondamentales qu'imposent les lois de la physique sur les tâches de traitement de données comme la compression et la transmission de données sur un canal bruité. Cette thèse présente des techniques générales permettant de résoudre plusieurs problèmes fondamentaux de la théorie de l'information quantique dans un seul et même cadre. Le théorème central de cette thèse énonce l'existence d'un protocole permettant de transmettre des données quantiques que le receveur connaît déjà partiellement à l'aide d'une seule utilisation d'un canal quantique bruité. Ce théorème a de plus comme corollaires immédiats plusieurs théorèmes centraux de la théorie de l'information quantique. Les chapitres suivants utilisent ce théorème pour prouver l'existence de nouveaux protocoles pour deux autres types de canaux quantiques, soit les canaux de diffusion quantiques et les canaux quantiques avec information supplémentaire fournie au transmetteur. Ces protocoles traitent aussi de la transmission de données quantiques partiellement connues du receveur à l'aide d'une seule utilisation du canal, et ont comme corollaires des versions asymptotiques avec et sans intrication auxiliaire. Les versions asymptotiques avec intrication auxiliaire peuvent, dans les deux cas, être considérées comme des versions quantiques des meilleurs théorèmes de codage connus pour les versions classiques de ces problèmes. Le dernier chapitre traite d'un phénomène purement quantique appelé verrouillage: il est possible d'encoder un message classique dans un état quantique de sorte qu'en lui enlevant un sous-système de taille logarithmique par rapport à sa taille totale, on puisse s'assurer qu'aucune mesure ne puisse avoir de corrélation significative avec le message. Le message se trouve donc «verrouillé» par une clé de taille logarithmique. Cette thèse présente le premier protocole de verrouillage dont le critère de succès est que la distance trace entre la distribution jointe du message et du résultat de la mesure et le produit de leur marginales soit suffisamment petite.
Resumo:
La présente recherche vise à mieux comprendre, dans le contexte universitaire béninois, s’il peut exister un lien qualitatif entre TIC et rendement académique afin de pouvoir mettre les TIC à contribution pour améliorer significativement les mauvais résultats des apprenants, notamment au premier cycle universitaire. Cette étude est tout particulièrement importante dans notre contexte où les TIC font de plus en plus leur apparition en pédagogie universitaire et où les étudiants recourent aux TIC dans leur pratique plus que les formateurs dans la leur. Le cadre de référence retenu pour la recherche est structuré autour des concepts de l’apprentissage assisté par les TIC, de motivation en éducation et de rendement académique. Pour atteindre notre objectif de recherche, nous avons opté pour une démarche mixte : quantitative et qualitative. Il s’agit d’une étude descriptive/explicative. Nous avons mené une enquête par questionnaires auprès de 156 étudiants et 15 enseignants et fait des entrevues avec 11 étudiants et 6 enseignants. Les principaux résultats sont présentés sous forme d’articles respectivement en ce qui a trait à l’impact des TIC sur la motivation et la réussite, aux usages des TIC les plus fréquemment rencontrés chez les apprenants, et à la place des TIC dans la pratique pédagogique des enseignants de la faculté de droit de l’Université d’Abomey-Calavi. Plus précisément, il ressort des résultats que la majorité des participants ont une perception en général positive du potentiel motivationnel des TIC pour l’apprentissage. Cependant, sur une cote maximale de 7 (correspond très fortement), la perception des répondants relativement à l’impact positif de l’utilisation des TIC sur le rendement académique tourne autour d’une cote moyenne de 4 (correspond assez). D’où, une perception en général mitigée du lien entre l’apprentissage assisté par les TIC et la réussite. Le croisement des résultats des données quantitatives avec ceux de l’analyse qualitative induit, sur ce point, une perception positive prononcée des rapports entre TIC et rendement. Les résultats montrent également que les usages des TIC les plus fréquents chez ces apprenants sont le courriel (en tête), suivi de la recherche et du traitement de texte, avec une fréquence moyenne d’ « une fois par semaine ». Tous ces constats n’accréditent pas véritablement un usage académique des TIC. Chez les enseignants, les résultats ont montré aussi qu’il n’y a pas encore de réelles applications des TIC en situation d’enseignement : ils font plutôt un usage personnel des TIC et pas encore véritablement pédagogique. La conséquence logique de ces résultats est qu’il n’existe pas encore un lien qualitatif direct entre TIC et rendement académique en contexte universitaire béninois.
Resumo:
Au Québec, la compétence professionnelle à intégrer les technologies de l’information et de la communication (TIC) est une compétence professionnelle à acquérir par les étudiants en enseignement. Cependant, son acquisition est problématique à plusieurs niveaux. Afin d’évaluer et mieux comprendre la compétence, cette thèse présente trois objectifs : 1) décrire le degré de maitrise des TIC et leurs usages dans les salles de classe 2) identifier les facteurs qui influencent l’intégration des TIC en fonction de la compétence professionnelle, et finalement 3) décrire le niveau d’atteinte des composantes de la compétence. Pour atteindre les objectifs de l’étude, une méthodologie mixte fut employée. Ce sont 2065 futurs enseignants du Québec provenant de neuf universités québécoises qui ont complété le questionnaire en plus de 34 participants à des groupes de discussion (n = 5). Cette thèse rédigée sous forme d’articles, répondra à chacun des objectifs visés. Dans le but de mieux comprendre l’utilisation actuelle des TIC par les futurs maitres, le premier article fournira un aperçu de la maitrise d’outils technologiques susceptibles d’être utilisés lors des stages. Le deuxième article visera à identifier les variables externes ainsi que les différentes composantes de la compétence qui ont une influence sur l’intégration des TIC lors des stages. Dans le troisième article, afin de comprendre où se situent les forces et les faiblesses des futurs maitres quant à la compétence professionnelle à intégrer les TIC, une description du niveau d’atteinte de chacune des composantes sera réalisée afin d’en dégager une appréciation globale. Les principaux résultats montrent que pour la moitié des répondants, seuls cinq outils sur 12 sont intégrés en stage et ce sont principalement les outils peu complexes qui sont bien maitrisés. Le logiciel de présentation Power Point, est le plus fréquemment utilisé. Les données considérées dans le premier article suggèrent aussi l’importance d’augmenter, de façon générale, la maitrise technique des futurs enseignants. Les résultats du second article ont permis de constater que la « prévision d’activités faisant appel aux TIC » est une variable prédictive majeure pour l’intégration des TIC. L’analyse des résultats suggèrent le besoin d’enseigner aux futurs maitres comment développer le réflexe d’inclure les TIC dans leurs plans de leçons. De plus, l’appropriation de la sixième composante de la compétence joue un rôle important sur la probabilité d’intégrer les TIC. Les résultats du troisième article indiquent que les composantes 2, 4, 5 et 6 de la compétence sont partiellement maitrisées. La mieux maitrisée est la première composante. Finalement, la troisième composante de la compétence s’est avérée être encore non atteinte et reste à être développer par les futurs enseignants. Cette thèse nous apprend que des efforts considérables restent encore à accomplir quant à la maitrise de la compétence professionnelle à intégrer les TIC. Ces efforts doivent être accomplis à la fois par les futurs enseignants ainsi que par les universités au niveau de la structure des cours de TIC en formation initiale des maitres.
Resumo:
Il est devenu commun de dire que notre société se transforme inexorablement en une société dite de « l'information ». Cette transformation se caractérise entre autres par une utilisation accrue des technologies de l’information afin de communiquer, d’échanger ou de transiger. Les supports traditionnels de communication (tel que le papier) cèdent progressivement leur place à de nouveaux supports technologiques favorisant l’efficacité et la rapidité des échanges, et par la même occasion le développement du commerce électronique. Qu’on le souhaite ou non, un constat s’impose : la montée en puissance des réseaux virtuels a eu raison du monopole du papier. Sur le plan juridique, cette nouvelle réalité bouleverse aussi considérablement les règles de droit civil largement pensées et ancrées dans un contexte papier. L’avènement de la numérisation et du phénomène de la dématérialisation des supports ont effectivement soulevé plusieurs questions d’ordre juridique tout à fait nouvelles que nous pourrions résumer de la manière suivante : Quels sont les rapports entre l’écrit et son support autre que le papier? Quelles sont les caractéristiques de l’écrit faisant appel aux technologies de l’information? Ce type d’écrit peut-il être admis en tant que moyen de preuve? Si oui, quelle sera sa force probante? Ce type d’écrit doit-il être conservé? Le présent mémoire vise précisément à identifier certains éléments de réponses à ces diverses questions en étudiant spécifiquement les cadres juridiques français et québécois. Ce mémoire traite d’une part des enjeux liés à l’évolution et au rôle de l’écrit face à l’avènement des technologies de l’information et d’autre part du cadre juridique de la preuve et de la conservation de l’écrit dans la société de l’information.
Resumo:
Le développement accéléré des technologies de communication, de saisie et de traitement de l’information durant les dernières années décennies ouvre la voie à de nouveaux moyens de contrôle social. Selon l’auteur Gary Marx ceux-ci sont de nature non coercitive et permettent à des acteurs privés ou publics d’obtenir des informations personnelles sur des individus sans que ceux-ci y consentent ou mêmes sans qu’ils en soient conscients. Ces moyens de contrôle social se fondent sur certaines valeurs sociales qui sont susceptibles de modifier le comportement des individus comme le patriotisme, la notion de bon citoyen ou le volontarisme. Tout comme les moyens coercitifs, elles amènent les individus à adopter certains comportements et à divulguer des informations précises. Toutefois, ces moyens se fondent soit sur le consentement des individus, consentement qui est souvent factice et imposée, soit l’absence de connaissance du processus de contrôle par les individus. Ainsi, l’auteur illustre comment des organisations privées et publiques obtiennent des informations privilégiées sur la population sans que celle-ci en soit réellement consciente. Les partisans de tels moyens soulignent leur importance pour la sécurité et le bien publique. Le discours qui justifie leur utilisation soutient qu’ils constituent des limites nécessaires et acceptables aux droits individuels. L’emploi de telles méthodes est justifié par le concept de l’intérêt public tout en minimisant leur impact sur les droits des individus. Ainsi, ces méthodes sont plus facilement acceptées et moins susceptibles d’être contestées. Toutefois, l’auteur souligne l’importance de reconnaître qu’une méthode de contrôle empiète toujours sur les droits des individus. Ces moyens de contrôle sont progressivement intégrés à la culture et aux modes de comportement. En conséquence, ils sont plus facilement justifiables et certains groupes en font même la promotion. Cette réalité rend encore plus difficile leur encadrement afin de protéger les droits individuels. L’auteur conclut en soulignant l’important décalage moral derrière l’emploi de ces méthodes non-coercitives de contrôle social et soutient que seul le consentement éclairé des individus peut justifier leur utilisation. À ce sujet, il fait certaines propositions afin d’encadrer et de rendre plus transparente l’utilisation de ces moyens de contrôle social.
Resumo:
Les régions nordiques à pergélisol seront largement affectées par l'augmentation prévue des températures. Un nombre croissant d’infrastructures qui étaient autrefois construites avec confiance sur des sols gelés en permanence commencent déjà à montrer des signes de détérioration. Les processus engendrés par la dégradation du pergélisol peuvent causer des dommages importants aux infrastructures et entrainer des coûts élevés de réparation. En conséquence, le contexte climatique actuel commande que la planification des projets dans les régions nordiques s’effectue en tenant compte des impacts potentiels de la dégradation du pergélisol. Ce mémoire porte sur l’utilisation de systèmes d’information géographique (SIG) appliqués à l’évaluation du potentiel d’aménagement des territoires situés en milieu de pergélisol. En utilisant une approche SIG, l’objectif est d’élaborer une méthodologie permettant de produire des cartes d'évaluation des risques afin d’aider les collectivités nordiques à mieux planifier leur environnement bâti. Une analyse multi-échelle du paysage est nécessaire et doit inclure l'étude des dépôts de surface, la topographie, ainsi que les conditions du pergélisol, la végétation et les conditions de drainage. La complexité de l'ensemble des interactions qui façonnent le paysage est telle qu'il est pratiquement impossible de rendre compte de chacun d'eux ou de prévoir avec certitude la réponse du système suite à des perturbations. Ce mémoire présente aussi certaines limites liées à l’utilisation des SIG dans ce contexte spécifique et explore une méthode innovatrice permettant de quantifier l'incertitude dans les cartes d'évaluation des risques.
Resumo:
Cette recherche explore le sens que la « génération de l’information » (20-35 ans) donne à l’engagement. Alors que sociologues et médias ont longtemps brandi des chiffres alarmants concernant la désaffection électorale des jeunes et leur rejet des associations ou groupes de pression usuels, le développement du Web 2.0 semble donner lieu à de nouvelles formes d’action visant le changement social, qui sont particulièrement prisées par les jeunes. Analysant leur recours à des pratiques de manifestations éclairs (flash mobs), de cyberdissidence, l’utilisation du micro-blogging et des réseaux Facebook et Twitter dans le cadre de mobilisations récentes, des enquêtes suggèrent qu’elles témoignent d’une nouvelle culture de la participation sociale et politique, qui appelle à repenser les façons de concevoir et de définir l’engagement. Or, si nous assistons à une transformation profonde des répertoires et des modes d’action des jeunes, il demeure difficile de comprendre en quoi et comment l’utilisation des TIC influence leur intérêt ou motivation à « agir ». Que veut dire s’engager pour les jeunes aujourd’hui ? Comment perçoivent-ils le contexte social, politique et médiatique ? Quelle place estiment-ils pouvoir y occuper ? Soulignant l’importance du sens que les acteurs sociaux donnent à leurs pratiques, la recherche s’éloigne des perspectives technocentristes pour explorer plus en profondeur la façon dont de jeunes adultes vivent, expérimentent et interprètent l’engagement dans le contexte médiatique actuel. La réflexion s’ancre sur une observation empirique et deux séries d’entretiens en profondeur (de groupe et individuels), menés auprès de 137 jeunes entre 2009-2012. Elle analyse un ensemble de représentations, perceptions et pratiques d’individus aux horizons et aux modes d’engagement variés, soulignant les multiples facteurs qui agissent sur la façon dont ils choisissent d’agir et les raisons qui les mènent à recourir aux TIC dans le cadre de pratiques spécifiques. À la croisée d’une multiplication des modes de participation et des modes d’interaction qui marquent l’univers social et politique des jeunes, la recherche propose de nouvelles hypothèses théoriques et une métaphore conceptuelle, le « murmure des étourneaux », pour penser la façon dont les pratiques d’affichage personnel, de relais, et d’expérimentation mises en avant par les jeunes s’arriment en réseau à celles d’autrui pour produire des « dérives culturelles » : des changements importants dans les façons de percevoir, d’agir et de penser. Loin d’une génération apathique ou technophile, les propos soulevés en entretiens suggèrent un processus réflexif de construction de sens, dont l’enjeu vise avant tout à donner l’exemple, et à penser ensemble de nouveaux possibles. La recherche permet d’offrir un éclairage qualitatif et approfondi sur ce qui caractérise la façon dont les jeunes perçoivent et définissent l’engagement, en plus d’ouvrir de nouvelles avenues pour mieux comprendre comment ils choisissent d’agir à l’ère du Web.