307 resultados para approche par compétences


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les différentes protéines accessoires du VIH-1, l’agent étiologique du SIDA, optimisent la réplication et la propagation du virus in vivo. Parmi ces dernières figure Vpu, l’antagoniste du facteur de restriction nommé Tetherin qui prévient la relâche des particules virales à partir de la surface de cellules infectées. En diminuant son expression de surface, Vpu prévient l’incorporation de ce facteur de restriction dans la particule virale en formation et conséquemment, empêche la formation d’une ancre protéique reliant le virus mature à la membrane plasmique de la cellule infectée. La mécanistique sous-jacente n’était cependant pas connue. Cette présente thèse relate nos travaux exécutés afin d’élucider la dynamique des mécanismes cellulaires responsables de cet antagonisme. Une approche de mutagénèse dirigée a d’abord permis d’identifier deux régions contenant des déterminants de la localisation de Vpu dans le réseau trans-Golgi (RTG), puis de démontrer la relation existante entre cette distribution et l’augmentation de la relâche des particules virales. Des expériences subséquentes de marquage métabolique suivi d’une chasse exécutées dans des systèmes cellulaires où Tetherin est exprimée de façon endogène ont suggéré le caractère dispensable de l’induction par Vpu de la dégradation du facteur de restriction lors de son antagonisme. En revanche, une approche de réexpression de Tetherin conduite en cytométrie en flux, confirmée en microscopie confocale, a mis en évidence une séquestration de Tetherin dans le RTG en présence de Vpu, phénomène qui s’est avéré nécessiter l’interaction entre les deux protéines. L’usage d’un système d’expression de Vpu inductible conjugué à des techniques de cytométrie en flux nous a permis d’apprécier l’effet majeur de Vpu sur la Tetherin néo-synthétisée et plus mineur sur la Tetherin de surface. En présence de Vpu, la séquestration intracellulaire de la Tetherin néo-synthétisée et la légère accélération de l’internalisation naturelle de celle en surface se sont avérées suffisantes à la réduction de son expression globale à la membrane plasmique et ce, à temps pour l’initiation du processus de relâche virale. À la lumière de nos résultats, nous proposons un modèle où la séquestration de la Tetherin néo-synthétisée dans le RTG préviendrait le réapprovisionnement de Tetherin en surface qui, combinée avec l’internalisation naturelle de Tetherin à partir de la membrane plasmique, imposerait l’établissement d’un nouvel équilibre de Tetherin incompatible avec une restriction de la relâche des particules virales. Cette thèse nous a donc permis d’identifier un processus par lequel Vpu augmente la sécrétion de virus matures et établit une base mécanistique nécessaire à la compréhension de la contribution de Vpu à la propagation et à la pathogénèse du virus, ce qui pourrait mener à l’élaboration d’une stratégie visant à contrer l’effet de cette protéine virale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le récepteur de l'acide rétinoïque RAR est une protéine de la superfamille des récepteurs nucléaires liant le ligand acide rétinoïque (AR). En présence de son ligand, RAR induit la transcription de ses gènes cibles alors qu'en son absence la transcription est inhibée. Le mécanisme de régulation de RAR est altéré dans les lignées cellulaires humaines de carcinome mammaire dû à une baisse de capacité de synthèse de l'AR. Aussi, l'expression des microARN (miR) est perturbée dans le cancer du sein et un grand nombre de gènes ont été identifiés, après une analyse in-silico, comme des cibles prédites des miRs. Ces derniers peuvent être régulés pas des facteurs de transcription et ils sont capables d'inhiber la prolifération cellulaire et d'induire l'apoptose via la régulation de leurs cibles. Ainsi, les miRs peuvent jouer un rôle dans le mécanisme de régulation de RAR et être impliqués dans des boucles de régulation avec ce récepteur. Dans le cadre de ce travail, nous décrivons une approche développée pour prédire et caractériser des circuits de régulation au niveau transcriptionnel et post-transcriptionnel dans le cancer du sein. Nous nous sommes intéressés aux boucles de régulation de type feed-forward où RAR régule un miR et en commun ils régulent un ensemble de gènes codants pour des protéines dans les cellules tumorales mammaires MCF7 et SKBR3. Ces circuits ont été construits en combinant des données de ChIP-chip de RAR et des données de micro-puces d'ADN tout en utilisant des outils in-silico de prédiction des gènes cibles de miRs. Afin de proposer le modèle approprié de régulation, une analyse in-silico des éléments de réponse de l'AR (RARE) dans les promoteurs des miRs est réalisée. Cette étape permet de prédire si la régulation par RAR est directe ou indirecte. Les boucles ainsi prédites sont filtrées en se basant sur des données d'expression de miR existantes dans des bases de données et dans différentes lignées cellulaires, en vue d'éliminer les faux positifs. De plus, seuls les circuits pertinents sur le plan biologique et trouvés enrichis dans Gene Ontology sont retenus. Nous proposons également d'inférer l'activité des miRs afin d'orienter leur régulation par RAR. L'approche a réussi à identifier des boucles validées expérimentalement. Plusieurs circuits de régulation prédits semblent être impliqués dans divers aspects du développement de l'organisme, de la prolifération et de la différenciation cellulaire. De plus, nous avons pu valider que let-7a peut être induit par l'AR dans les MCF7.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur le recours à des mesures restrictives du commerce par le Canada comme moyen de lutte contre le travail dangereux des enfants, dans un contexte de mise en œuvre de la responsabilité internationale d’un État en cas de non respect de la Convention de l’Organisation internationale du travail nº 182 sur les pires formes de travail des enfants. Bien que la capacité d’imposer des telles mesures se rapportant à des situations de travail dangereux des enfants soit analysée, essentiellement, du point de vue du droit de l’Organisation internationale du commerce (OMC), cette étude reste circonscrite à l’application de la Convention OIT 182. De plus, cette thèse veut fournir une analyse prospective de nature spéculative portant sur l’opportunité de recourir à de telles mesures en discutant de leurs éventuelles conséquences sur les enfants qu’on vise à protéger par ce moyen. La première partie de la thèse s’intéresse à la légalité d’éventuelles sanctions commerciales imposées par le Canada afin d’amener un pays membre de l’OMC dont il importe des produits à respecter la Convention OIT 182. La légalité de ces sanctions est abordée tant du point de vue du régime général du GATT que de celui des exceptions générales. Du point de vue du régime général, l’analyse porte notamment sur l’article III de cet accord relatif au principe du traitement national. Une fois constatée leur illicéité à l’égard de l’article III du GATT, seul l’article XX de cet accord peut être invoqué pour permettre le recours à ces mesures. Nous nous attardons plus particulièrement aux exceptions de l’article XX relatives à la protection de la moralité publique et à celle de la protection de la vie et de la santé humaine. La thèse aborde les conditions auxquelles est assujetti le recours aux exceptions de l’article XX retenues comme pertinentes, notamment celles de la « nécessité » des mesures et du respect des compétences étatiques. En outre, cette étude analyse les conditions d’application des mesures restrictives du commerce découlant du préambule de l’article XX. En ce qui concerne l’exception relative à la moralité publique, cette notion est discutée dans un contexte national spécifique, soit celui du Canada. La seconde partie de la thèse s’intéresse à l’opportunité de recourir à des mesures commerciales restrictives et leurs conséquences éventuelles sur les enfants dont la protection est recherchée. La démarche, qui est éminemment prospective, prend la forme d’une étude de cas portant sur un secteur productif qui n’a jamais connu dans les faits des sanctions commerciales, soit la production floricole en Équateur. Il s’agit d’un secteur caractérisé par la présence d’enfants en situation de travail dangereux impliqués dans la production de biens destinés à l’exportation. Notre recherche est de type exploratoire. De ce fait, elle ne vise pas à formuler des conclusions fermes quant aux effets des sanctions, mais plutôt à déceler les effets potentiellement bénéfiques ou nuisibles que les mesures restrictives du commerce pourraient avoir sur les enfants exploités, ainsi qu’à évaluer la contribution des sanctions commerciales à la solution du problème.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans un monde de plus en plus interconnecté où le développement nécessite une participation active à la société de l’information, où les différentes cultures rentrent davantage en contact entre elles et où les biens culturels sont devenus des biens de consommation, les minorités culturelles mondiales intégrant les technologies de l’information et de la communication (TIC) se retrouvent marginalisées face à la menace d’hégémonie culturelle des réseaux de l’information par les cultures dominantes de certains pays développés. Pour qu’une culture prenne sa place dans la société de l’information, il revient en premier lieu à ses institutions éducatives de former leurs apprenants dans un contexte culturel qui leur est propre et de valoriser et d’encourager la production et l’utilisation de contenu endogène. C’est dans le cadre de cette problématique que la présente recherche s’est donnée comme premier objectif de faire le bilan du contenu culturel accédé et diffusé par les TIC dans des écoles de pays africains dits en développement ; pour ensuite, comme deuxième objectif, de décrire les barrières à une intégration des TIC qui favoriserait la promotion culturelle en ligne dans ces écoles ; et finalement, comme troisième objectif, d’identifier des stratégies pragmatiques favorisant une intégration écologique des TIC dans ces écoles, c’est-à-dire, une intégration durable, adaptée au contexte local et favorisant la pleine participation des enseignants et des élèves. Pour y parvenir, nous avons adopté une approche méthodologique essentiellement descriptive et qualitative. Nous avons réalisé des entrevues avec 168 enseignants et 230 élèves de 34 écoles pionnières TIC situées dans cinq pays d’Afrique de l’Ouest et du Centre, que nous avons traitées selon une analyse de contenu spécifique à chaque objectif. L’adoption des stratégies décrites dans nos résultats permettrait aux écoles étudiées de surmonter, en partie, la multitude de barrières auxquelles elles font face et de favoriser l’intégration écologique des TIC. Une telle intégration est nécessaire à l’atteinte d’une société de l’information plus équitable et à l’éventuelle réduction du fossé numérique séparant les « info-riches » des « info-pauvres ».

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire porte sur le cèdre blanc (Thuja occidentalis) dans les contextes de colonisation et d’exploitation forestière de l’arrière-pays montréalais au XIXe siècle. Il vise, d’une part, à documenter les stratégies d’exploitation locale du cèdre blanc au XIXe siècle et l’évolution du paysage culturel domestique d’un établissement colonial depuis sa concession initiale. D’autre part, ce mémoire cherche à identifier les réseaux d’échanges du cèdre blanc acheminé à Montréal au XIXe siècle pour la construction des bâtiments et des infrastructures portuaires. En raison de la quasi-absence de documents historiques sur le sujet, il devient évident que seule l’application de la dendrochronologie et de la dendroprovenance permet d’atteindre ces objectifs. Nous vous présentons ici l’analyse détaillée de six sites ruraux situés dans les vallées de l’Outaouais et du haut Saint-Laurent. Les analyses dendrochronologiques effectuées permettent d’aborder l’établissement colonial d’une façon originale. La deuxième partie de ce mémoire se consacre aux analyses de dendroprovenance de sept sites montréalais préalablement étudiés par Poudret-Barré (2007) et le Groupe de recherche en dendrochronologie historique (GRDH). Pour ce faire, les sites ruraux discutés précédemment servent de point d’ancrage géographique afin de déterminer l’origine des pièces de cèdre blanc retrouvées à Montréal. L’étude du cèdre blanc et les résultats des analyses de dendrochronologie et de dendroprovenance réalisées dans le cadre de cette étude permettent d’aborder le patrimoine architectural et archéologique sous un angle nouveau. Venant compléter les données historiques disponibles, il ouvre la voie à de nouvelles recherches de ce genre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Réalisée en cotutelle avec l'Unité de Formation à la Recherche Lettres Arts et Sciences Humaines - Université Nice-Sophia Antipolis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La collaboration et le contenu généré par les usagers, aussi appelé « Web 2. 0 », sont des phénomènes nouveaux, qui bâtissent sur l'ouverture et le foisonnement d'Internet. Les environnements numériques qui emploient ces moyens mettent à contribution la communauté qui gravite autour d'une présence virtuelle afin d'en enrichir l’expérience. Suivant une approche constructiviste, nous explorons commnent la collaboration peut servir les usagers d'une banque de donnée de jugements en accès libre par Internet, comme le site de l'Institut canadien d'information juridique (www.CanLIT.org). La collaboration s'articule grâce à un gabarit d'analyse que nous nommons «Cadre de diffusion de la collaboration». Il comporte deux classes d'objets, les usagers et les documents, qui interagissent selon quatre relations : les liens documentaires, les échanges entre usagers, l'écriture (de l'usager vers le document) et la consommation (du document vers l'usager). Le Cadre de diffusion de la collaboration met en lumière les modalités de la collaboration comme mécanisme de création de contenu dans un contexte numérique, au profit d'une classe de documents. Suite à une analyse les modalités de la jurisprudence comme système documentaire et d'un exposé illustratif des besoins des usagers de la société civile, le Cadre de diffusion de la collaboration est employé pour explorer les mécanismes à retenir pour enrichir le contenu d'un système diffusant des jugements par Internet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les difficultés croissantes de l’enseignement supérieur en matière d’accessibilité aux formations et de disponibilité de filières de qualité, dans les pays en voie de développement de l’Afrique de l’Ouest notamment, conjuguées avec le développement vertigineux des technologies de l’information et de la communication (TIC), suscitent un grand espoir de faire de la formation à distance une solution alternative crédible des formations présentielles (OCDE, 2006). Or, si la littérature s’accorde à reconnaitre aux TIC et l’interactivité qu’elles procurent des facteurs favorisant l’apprentissage (Karsenti, 2006), la réalité du terrain éducatif lui impose de reconnaitre que non seulement la révolution de la formation ouverte et à distance (FOAD) n’est pas encore d’actualité (OCDE, 2006), mais qu’elle ne le sera que si, pour faire face à la distance transactionnelle, plus accrue en formation à distance, l’apprenant ne se contente plus d’apprendre, mais d’apprendre à apprendre, ce qui exige de lui des compétences d’autonomie. Or, malgré des décennies d’intérêt et d’investissement de la recherche, le développement de l’autonomie sur le terrain reste toujours marginal, les débats philosophiques ayant pris le pas sur la quête de solutions pratiques (Albero ,2003). La question de savoir comment les éducateurs de la FOAD utilisent les solutions existantes, censées favoriser l’autonomie de l’apprenant, telles certaines formes de tutorat et de travail de groupes, n’est pas sans intérêt, puisqu’elle permet de mieux comprendre le terrain cible et sa part de responsabilité dans cet insuccès de l’autonomie. S’inscrivant en droite ligne des travaux d’Albero (2003), la présente étude organise les principes d’autonomie suivant un cadre conceptuel privilégiant l’action et le développement, selon une dimension dynamique symbolisant l’importance du soutien à accorder à l’apprenant, une dimension topologique indiquant la nécessité pour ce soutien de prendre en compte les différents aspects sur lesquels l’apprenant peut exercer son autonomie et une dimension chronologique exprimant l’importance du désétayage. De façon pratique, cette étude, démarrée en 2009 dans le contexte de la FOAD du 2IE (Institut International des Ingénieurs de l’Eau et de l’Environnement), sis à Ouagadougou au Burkina Faso, s’organise en trois articles : le premier tente de comprendre si les conditions d’efficacité de la FOAD, selon les apprenants, formulent un besoin d’apprentissage en autonomie; le second tente de comprendre, à partir des propos des tuteurs, si l’encadrement des apprenants respecte les principes d’autonomie; enfin, le troisième article s’est penché, sur la base des intentions exprimées par les concepteurs, sur le respect des principes d’autonomie par les cours. L’éloignement des apprenants et l’objectif de comprendre leurs perceptions de la FOAD, nous ont fait préférer une approche de recherche de type mixte, à la fois qualitative pour mieux comprendre leur perception (Karsenti & Savoie-Zajc, 2004) et quantitative, pour tenir compte de leur éloignement. Pour la perception des éducateurs, nous avons opté pour une approche qualitative/descriptive plus appropriée dès que l’étude vise la compréhension du phénomène social abordé (Karsenti & Savoie-Zajc, 2004). Des résultats obtenus, la perception des 62 apprenants sur les 170 initialement invités par courriel à répondre au questionnaire, semble confirmer l’autonomie de l’apprenant comme une condition de leur réussite en FOAD. La demande des apprenants pour un soutien accru, malgré l’effort actuellement consenti par l’encadrement, effort reconnu par les apprenants eux-mêmes et qu’attestent les 10 tuteurs interviewés sur une quarantaine au 2IE, devrait, toutefois, inviter à la réflexion, puisque ne s’opposant pas réellement à un apprentissage en hétéronomie. À l’analyse, il apparait que l’insatisfaction des apprenants s’expliquerait par la non-prise en compte des différents aspects susceptibles d’influencer leur apprentissage. De plus, en nous référant aux entretiens avec les 11 concepteurs de cours sur un total de 30, il apparait que, bien que conscients de la nécessité d’adapter les cours au contexte de la FOAD, ni la modularité des contenus, ni la flexibilité de la structure des cours ne semblent être prises en compte. Au final, l’étude révèle l’urgence de lutter contre les habitudes acquises en formation présentielle et la nécessité d’employer des pédagogues professionnels formés pour une pédagogie d’autonomisation. Encore faudrait-il que l’autonomie soit véritablement consacrée par la littérature comme une praxis pour signifier qu’elle n’a d’autre fin qu’elle-même, et non comme une poiesis, pour dire que l’autonomie vise une production et cesserait dès que son objectif est atteint.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisée dans le cadre d'une cotutelle avec l'Université Paul Cézanne Aix-Marseille III