976 resultados para Obligation des chercheurs
Resumo:
Les enseignants passent une bonne partie de leur à temps à produire, à adapter et à modifier des ressources pédagogiques, ce qui place ce travail, appelé travail documentaire, au coeur de leur développement professionnel (Gueudet et Trouche, 2008). Dans le cadre d'une recherche collaborative ayant pour but le développement professionnel d'orthopédagogues et d'enseignants, effectuée par des chercheurs de l'Université de Sherbrooke, des ressources pédagogiques visant le développement du potentiel mathématique des élèves en difficulté d'apprentissage ont été conçues, adaptées et modifiées. Nous appuyant sur l'approche documentaire du didactique de Gueudet et Trouche (2008), nous décrivons le processus d'intégration de l'approche de développement du potentiel mathématique dans la pratique d'enseignement d'une enseignante ayant participé à la recherche collaborative. L'analyse de différents types de données recueillies lors des phases préactive, interactive et postactive de l'enseignement nous a permis d'identifier cinq schèmes d'usage (schèmes d'instrumentation et d'instrumentalisation) dans la pratique d'enseignement de notre enseignante. Notre mémoire traite donc de la problématique du développement professionnel des enseignants en considérant, sous un angle didactique, leur travail sur des ressources pédagogiques.
Resumo:
Dans ce texte, nous revoyons certains développements récents de l’économétrie qui peuvent être intéressants pour des chercheurs dans des domaines autres que l’économie et nous soulignons l’éclairage particulier que l’économétrie peut jeter sur certains thèmes généraux de méthodologie et de philosophie des sciences, tels la falsifiabilité comme critère du caractère scientifique d’une théorie (Popper), la sous-détermination des théories par les données (Quine) et l’instrumentalisme. En particulier, nous soulignons le contraste entre deux styles de modélisation - l’approche parcimonieuse et l’approche statistico-descriptive - et nous discutons les liens entre la théorie des tests statistiques et la philosophie des sciences.
Resumo:
Entre l'adaptation rapide des éditeurs au numérique, la popularité du libre accès et les hésitations des chercheurs, l'explosion du Web 2.0, l'économie du don et l'insolente vitalité des moteurs, une économie de l'édition numérique scientifique se reconfigure. Les institutions documentaires doivent, de leur côté, renouveler leur positionnement et repenser leurs savoir-faire.
Resumo:
Ce mémoire interroge l’institutionnalisation de la « diversité » à l’intérieur du Service de police de la ville de Montréal (SPVM) ainsi que l’impact de ce processus sur l’acteur. Sous l’égide de la sociologie wébérienne, l’institutionnalisation est définie par le biais de la théorie des ordres légitimes. Elle est comprise au sens d’un processus par lequel la « diversité » guide le comportement des acteurs tout en étant façonnée par ces derniers. En ce sens, la « diversité » est une norme. Elle est, dans le temps, mouvante selon le contexte et les acteurs. Conformément à la perspective théorique choisie, trois types d’acteurs se révèlent sous deux visées analytiques. À partir d’une recherche documentaire, les chercheurs et les dirigeants du SPVM offrent une perspective, depuis la fin des années 1980 jusqu’à aujourd’hui, du processus par lequel la « diversité » se définit et guide l’agir au service de police. Le rapport entre les travaux des chercheurs et les mesures organisationnelles en matière de « diversité » mises en place par le SPVM permet de constater une institutionnalisation croissante de cette norme à l’intérieur du corps policier. Puis, les entretiens réalisés avec six policiers arabo-musulmans révèlent la présence de conflits relatifs à ce processus. Bien que l’internalisation des conséquences de conflit soit possible, l’analyse suggère que des tensions découlant de ce même conflit sont externalisées par ces policiers selon quatre tactiques : l’alternance des identités, la maîtrise des impressions, l’appropriation du stigmate et l’usage de l’humour.
Resumo:
L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
L’essor continu de l’économie canadienne repose grandement sur l’immigration. Toutefois, le Canada a encore du chemin à faire pour assurer l’intégration des nouveaux arrivants sur le marché du travail. Notre recherche porte sur un moyen souvent considéré comme essentiel pour accomplir cette intégration : la formation liée à l’emploi. L’expression « formation liée à l’emploi » fait référence aux activités d’apprentissage en lien avec un emploi et parrainées par l’employeur. Nous avons deux objectifs. Le premier est de déterminer si les immigrants et les Canadiens de naissance ont les mêmes chances de participer à des activités de formation liée à l’emploi. Le deuxième est d’examiner l’effet du sexe et de la durée depuis l’immigration sur la probabilité qu’un immigrant participe à la formation liée à l’emploi. Notre analyse est de type quantitatif et utilise les données de l’Enquête sur l’éducation et la formation des adultes de l’année 2003, menée par Statistiques Canada. Concernant le premier objectif, il ressort de nos analyses que les travailleurs immigrants sont moins susceptibles que les Canadiens de naissance de participer à la formation liée à l’emploi. Même si d'autres études ont remarqué un écart semblable entre ces deux groupes, notre recherche a la particularité de contrôler l'impact de six variables qui, selon la littérature, affectent le niveau de participation à la formation liée à l’emploi. Cette particularité réduit la probabilité que la différence observée entre les immigrants et les Canadiens de naissance puisse être le résultat d'un facteur autre que le statut d'immigrant. Quant au deuxième objectif, notre étude montre que la durée depuis l'immigration augmente les chances qu'un immigrant participe à la formation liée à l’emploi. Néanmoins, la question concernant l'impact du sexe de l’immigrant demeure ouverte. En effet, à l’encontre de nos attentes, nous n’avons pas observé d’effet statistiquement significatif du sexe sur la relation entre le statut d’immigrant et la participation à la formation liée à l’emploi. Notre recherche permet d'attirer le regard sur un possible facteur modérateur qui mérite plus de réflexion de la part des chercheurs.
Resumo:
Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.
Resumo:
L’insuline est une hormone essentielle qui induit des réponses complexes dans l’organisme pour maintenir l’homéostasie du glucose et des lipides. La résistance à son action est un phénomène pathologique observé dans un large éventail de situations, allant de l’obésité et du syndrome métabolique à la stéatose hépatique et au diabète de type 2, qui aboutissent au développement de l’athérosclérose et de la mortalité. Des avancées remarquables ont été réalisées dans notre compréhension des mécanismes moléculaires responsables du développement de la résistance à l’action de l’insuline. En particulier, l’induction d’un stress cellulaire par des taux élevés d’acides gras libres (AGL) et des cytokines, via l’activation des protéines Ser/Thr kinases, qui augmente la phosphorylation sur des résidus sérine, des molécules critiques impliquées dans la signalisation insulinique (p. ex. IR, IRS et p85) et conduit à la diminution de la réponse cellulaire à l’insuline. Cependant, la plupart des chercheurs ont limité leur travail dans l’investigation du rôle des protéines kinases susceptibles de modifier la réponse cellulaire à l’insuline. Donc, peu de données sont disponibles sur le rôle des Protéines Ser/Thr phosphatases (PS/TPs), même si il est bien établi que la phosphorylation de ces protéines est étroitement régulée par un équilibre entre les activités antagonistes des Ser/Thr kinases et des PS/TPs. Parmi les PS/TPS, PPM1A (également connu sous le nom PP2Cα) est une phosphatase particulièrement intéressante puisqu’il a été suggéré qu’elle pourrait jouer un rôle dans la régulation du métabolisme lipidique et du stress cellulaire. Ainsi, en se basant sur des résultats préliminaires de notre laboratoire et des données de la littérature, nous avons émis l’hypothèse selon laquelle PPM1A pourrait améliorer la sensibilité à l’insuline en diminuant l’activité des protéines kinases qui seraient activées par le stress cellulaire induit par l’augmentation des AGL. Ces effets pourraient finalement améliorer le métabolisme glucidique et lipidique dans l’hépatocyte. Ainsi, pour révéler le rôle physiologique de PPM1A à l’échelle d’un animal entier, nous avons généré un modèle animal qui la surexprime spécifiquement dans le foie. Nous décrivons ici notre travail afin de générer ce modèle animal ainsi que les premières analyses pour caractériser le phénotype de celui-ci. Tout d’abord, nous avons remarqué que la surexpression de PPM1A chez les souris C57BL/6J n’a pas d’effets sur le gain de poids sur une longue période. Deuxièmement, nous avons observé que PPM1A a peu d’effets sur l’homéostasie du glucose. Par contre, nous avons montré que sa surexpression a des effets significatifs sur l’homéostasie du glycogène et des triglycérides. En effet, nous avons observé que le foie des souris transgéniques contient moins de glycogène et de triglycérides que le foie de celles de type sauvage. De plus, nos résultats suggèrent que les effets de la surexpression de PPM1A pourraient refléter son impact sur la synthèse et la sécrétion des lipides hépatiques puisque nous avons observé que sa surexpression conduit à l’augmentation la triglycéridémie chez les souris transgéniques. En conclusion, nos résultats prouvent l’importance de PPM1A comme modulateur de l’homéostasie hépatique du glucose et des lipides. Des analyses supplémentaires restent cependant nécessaires pour confirmer ceux-ci et éclaircir l’impact moléculaire de PPM1A et surtout pour identifier ses substrats.
Resumo:
Ce mémoire présente une réflexion critique sur différentes représentations des religions traditionnelles africaines (RTA) au sein de réseaux régionaux et disciplinaires africains et occidentaux. Dans un premier temps, plusieurs formes de représentations (cartographiques et graphiques) issues de milieux universitaires occidentaux sont explorées pour comparer le traitement des RTA. Cette exploration soulève le problème des catégorisations employées qui ne rendent pas compte de la diversité, du dynamisme, de la complexité et de l’importance des RTA; et de manière plus générale, cette analyse révèle un problème sur le plan de l’équité dans les représentations des religions du monde. À l’aide d’une analyse conceptuelle, un certain nombre de catégories utilisées pour définir les RTA, notamment celle de « religion ethnique », sont remises en question, tout comme la notion de religion du monde (world religion). Dans un deuxième temps, les stratégies de recherche utilisées pour retracer des réseaux de chercheurs africains sont présentées. Différents outils et ressources documentaires occidentaux sont analysés et évalués selon qu’ils donnent accès ou non à la production de chercheurs africains sur les RTA. L’analyse de ces documents, laquelle est inspirée d’une démarche d’analyse de discours, révèle à quel point la contribution des chercheurs africains est peu prise en compte à l’intérieur du corpus sélectionné. Or, l’exploration de la situation actuelle de l’enseignement et de la recherche sur les RTA dans certaines universités du Nigéria met en lumière la somme importante de travaux sur les RTA et la diversité des canaux de communication. En somme, ce mémoire démontre à quel point le savoir est localisé et lié aux ancrages culturels, disciplinaires et idéologiques des chercheurs. Il ouvre, à partir de l’analyse de textes africains, sur la question plus large de la difficulté de la représentation de l’unité et des particularismes des RTA.
Resumo:
D’une part, le développement scientifique dans le domaine pharmaceutique fournit des bénéfices substantiels à la santé des personnes, améliorant par conséquent leur qualité de vie. Toutefois, créer et mettre en marché une nouvelle substance thérapeutique n’est pas une tâche facile. Les laboratoires investissent du temps et de l’argent en recherche et développement pour y parvenir. D’autre part, malgré les bienfaits de la science et les efforts des chercheurs, les médicaments sont des produits potentiellement dangereux. Ils présentent des risques inhérents à leur nature, capables de causer des préjudices graves et irréversibles. D’ailleurs, la nature dangereuse de ces produits a incité l’instauration de normes qui imposent des critères stricts aux fabricants de médicaments dans le but de protéger le public. En suivant cette tendance mondiale, les législateurs brésilien et canadien ont instauré des régimes statutaires qui édictent des règles rigoureuses de conception, de fabrication et de commercialisation des médicaments. Néanmoins, à cause de la nature pénale et administrative de ces normes, elles ne sont pas efficaces lorsqu’il s’agit de dédommager le consommateur ou le tiers qui est victime du fait du médicament. Dans une telle situation, il faut recourir au droit civil dans le cas du Brésil et du Québec, ou à la common law dans les autres provinces canadiennes. Dans une étude comparée sur le sujet, nous avons appris que les droits civils brésilien et québécois ainsi que la common law canadienne ont des ressemblances très importantes, cependant en ce qui concerne l’exclusion de la responsabilité fondée sur le risque de développement scientifique, différentes solutions s’appliquent.
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
La littérature décrit certains phénomènes de réorganisation physiologique et fonctionnelle dans le cerveau des aveugles de naissance, notamment en ce qui a trait au traitement de l’information tactile et auditive. Cependant, le système olfactif des aveugles n’a reçu que très peu d’attention de la part des chercheurs. Le but de cette étude est donc de comprendre comment les aveugles traitent l’information olfactive au niveau comportemental et d’investiguer les substrats neuronaux impliqués dans ce processus. Puisque, en règle générale, les aveugles utilisent leurs sens résiduels de façon compensatoire et que le système olfactif est extrêmement plastique, des changements au niveau de l’organisation anatomo-fonctionnelle pourraient en résulter. Par le biais de méthodes psychophysiques et d’imagerie cérébrale (Imagerie par Résonance Magnétique fonctionnelle-IRMf), nous avons investigué les substrats anatomo-fonctionnels sollicités par des stimuli olfactifs. Nous avons trouvé que les aveugles ont un seuil de détection plus bas que les voyants, mais que leur capacité à discriminer et identifier des odeurs est similaire au groupe contrôle. Ils ont aussi plus conscience de l’environnement olfactif. Les résultats d’imagerie révèlent un signal BOLD plus intense dans le cortex orbitofrontal droit, le thalamus, l’hippocampe droit et le cortex occipital lors de l’exécution d’une tâche de détection d’odeur. Nous concluons que les individus aveugles se fient d’avantage à leur sens de l’odorat que les voyants afin d’évoluer dans leur environnement physique et social. Cette étude démontre pour la première fois que le cortex visuel des aveugles peut être recruté par des stimuli olfactifs, ce qui prouve que cette région assume des fonctions multimodales.
Resumo:
L’objectif de cette étude est de saisir une image des éléments explicitement reconnaissables de la recherche en communication visibles dans les revues savantes Canadian Journal of Communication et dans Communication de 1974 à 2005. Il s’agit d’une analyse bibliométrique des articles publiés par les chercheurs d’institutions canadiennes et de leurs références bibliographiques. La bibliométrie est « l’application de méthodes statistiques aux livres et aux autres moyens de communication » (Pritchard, 1969: 348-349). C’est la première fois qu’une analyse de ce type est tentée dans ce corpus particulier. Nous nous sommes appuyés sur des postulats théoriques provenant de la sociologie des sciences et des études en communication scientifique. L’idée maîtresse est la suivante : l’activité scientifique est un « continuum de création de nouvelles connaissances » (Vassallo, 1999), dont l’organisation est basée sur l’échange d’information (Price, 1963; Crane, 1972), qui se traduit en reconnaissance sociale, en autorité scientifique, et constitue un investissement pour l’acquisition de crédibilité (Merton, 1938; Hagstrom, 1965; Bourdieu, 1975; Latour et Woolgar, 1986). À partir de l’analyse des articles, nous identifions s’ils sont le résultat de recherches empiriques ou fondamentales, ou le produit d’une réflexion critique. Il s’agit aussi de détecter les approches méthodologiques et les techniques d’investigation utilisées, ainsi que les sujets qui y sont abordés par les chercheurs. Nous détectons également les principaux lieux de recherche (universités et types de départements). Nous analysons aussi les thématiques des articles. Enfin, nous analysons des références bibliographiques des articles afin de cerner les sources d’idées qui y sont décelables. Notre corpus principal comporte 1154 articles et 12 840 titres de documents en référence. L’analyse bibliométrique des articles révèle ainsi une recherche canadienne en communication d’emblée qualitative, intéressée pour les spécificités historiques, le contexte social et la compréhension des interrelations sous-jacentes aux phénomènes de communication, en particulier, au Canada et au Québec. Au cœur de ces études se distingue principalement l’application de l’analyse de contenu qualitative dans les médias en général. Cependant, à partir de 1980, l’exploration du cinéma, de l’audiovisuel, des nouvelles technologies de l’information et de la communication, ainsi que la multiplication des sujets de recherche, annoncent un déplacement dans l’ordre des intérêts. Communication et le CJC, se distinguent cependant par l’origine linguistique des chercheurs qui y publient ainsi que dans les thématiques. L’analyse des références bibliographiques, et de leurs auteurs, met en relief l’intérêt partagé des chercheurs d’institutions universitaires canadiennes pour les agences de réglementation et les politiques gouvernementales canadiennes s’appuyant souvent sur l’analyse de documents législatifs et de rapports de diverses commissions d’enquête du gouvernement canadien. L’analyse révèle aussi les principales inspirations théoriques et méthodologiques des chercheurs. Parmi les plus citées, on voit Innis, McLuhan, Habermas, Tuchman, Bourdieu, Foucault, Raboy, et Rogers. Mais ces références évoluent dans le temps. On voit aussi une distinction relativement claire entre les sources citées par la recherche francophone et la recherche anglophone.
Resumo:
Considérées comme des moyens incontournables de participation à la société, les technologies de l’information et de la communication (TIC) constituent une piste de solution prometteuse pour l’enseignement et l’apprentissage auprès des élèves qui ont des incapacités intellectuelles. Toutefois, plusieurs auteurs dénoncent la faible utilisation des TIC en éducation de ces élèves. Pire encore, les recherches sur le sujet génèrent des résultats intéressants, mais d’une contribution limitée pour l’avancement des connaissances dans le domaine. Guidées par l’intuition et par un enthousiasme empirique évident, ces recherches s’appuient rarement sur des cadres de référence. Certes la documentation scientifique foisonne de champs de savoirs qui peuvent contribuer à ce domaine, mais ces contributions sont parcellaires et peu adaptées aux spécificités de ce dernier. L’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles demeure donc un champ conceptuel mal défini qui n'est légitimé par aucun cadre de référence en particulier. Cette recherche doctorale se situe en phase de préconception d’un modèle de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles. Elle vise à mettre en place des balises solides pouvant servir de cadre à l’élaboration d’un modèle de cette intervention. Dans cette phase de préconception, nous poursuivons deux objectifs, à savoir : 1) la mise au point d’un référentiel qui constitue un cadre intégrateur des connaissances existantes en la matière, qui servira avant tout à structurer et à organiser les informations disponibles à l’intérieur d’une synthèse validée par des experts et des intervenants oeuvrant auprès de ce type d’élèves et 2) l’élaboration d’un cahier des charges fonctionnel qui s’appuie sur le référentiel développé et qui précise les fonctions qu’un modèle idéal de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles devrait remplir pour répondre pleinement aux besoins de ses différents utilisateurs. Ces balises (le référentiel et le cahier des charges fonctionnel) sont destinées, principalement, à des chercheurs, des concepteurs de technologies, des formateurs d’enseignants, etc. Les élèves, les enseignants et autres agents de l'éducation pourront en bénéficier indirectement à travers les applications dérivées de ces balises (programmes de formation, technologies, recherches, scénarios pédagogiques, etc.).