982 resultados para Réfléxivité des chercheurs


Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’essor continu de l’économie canadienne repose grandement sur l’immigration. Toutefois, le Canada a encore du chemin à faire pour assurer l’intégration des nouveaux arrivants sur le marché du travail. Notre recherche porte sur un moyen souvent considéré comme essentiel pour accomplir cette intégration : la formation liée à l’emploi. L’expression « formation liée à l’emploi » fait référence aux activités d’apprentissage en lien avec un emploi et parrainées par l’employeur. Nous avons deux objectifs. Le premier est de déterminer si les immigrants et les Canadiens de naissance ont les mêmes chances de participer à des activités de formation liée à l’emploi. Le deuxième est d’examiner l’effet du sexe et de la durée depuis l’immigration sur la probabilité qu’un immigrant participe à la formation liée à l’emploi. Notre analyse est de type quantitatif et utilise les données de l’Enquête sur l’éducation et la formation des adultes de l’année 2003, menée par Statistiques Canada. Concernant le premier objectif, il ressort de nos analyses que les travailleurs immigrants sont moins susceptibles que les Canadiens de naissance de participer à la formation liée à l’emploi. Même si d'autres études ont remarqué un écart semblable entre ces deux groupes, notre recherche a la particularité de contrôler l'impact de six variables qui, selon la littérature, affectent le niveau de participation à la formation liée à l’emploi. Cette particularité réduit la probabilité que la différence observée entre les immigrants et les Canadiens de naissance puisse être le résultat d'un facteur autre que le statut d'immigrant. Quant au deuxième objectif, notre étude montre que la durée depuis l'immigration augmente les chances qu'un immigrant participe à la formation liée à l’emploi. Néanmoins, la question concernant l'impact du sexe de l’immigrant demeure ouverte. En effet, à l’encontre de nos attentes, nous n’avons pas observé d’effet statistiquement significatif du sexe sur la relation entre le statut d’immigrant et la participation à la formation liée à l’emploi. Notre recherche permet d'attirer le regard sur un possible facteur modérateur qui mérite plus de réflexion de la part des chercheurs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’insuline est une hormone essentielle qui induit des réponses complexes dans l’organisme pour maintenir l’homéostasie du glucose et des lipides. La résistance à son action est un phénomène pathologique observé dans un large éventail de situations, allant de l’obésité et du syndrome métabolique à la stéatose hépatique et au diabète de type 2, qui aboutissent au développement de l’athérosclérose et de la mortalité. Des avancées remarquables ont été réalisées dans notre compréhension des mécanismes moléculaires responsables du développement de la résistance à l’action de l’insuline. En particulier, l’induction d’un stress cellulaire par des taux élevés d’acides gras libres (AGL) et des cytokines, via l’activation des protéines Ser/Thr kinases, qui augmente la phosphorylation sur des résidus sérine, des molécules critiques impliquées dans la signalisation insulinique (p. ex. IR, IRS et p85) et conduit à la diminution de la réponse cellulaire à l’insuline. Cependant, la plupart des chercheurs ont limité leur travail dans l’investigation du rôle des protéines kinases susceptibles de modifier la réponse cellulaire à l’insuline. Donc, peu de données sont disponibles sur le rôle des Protéines Ser/Thr phosphatases (PS/TPs), même si il est bien établi que la phosphorylation de ces protéines est étroitement régulée par un équilibre entre les activités antagonistes des Ser/Thr kinases et des PS/TPs. Parmi les PS/TPS, PPM1A (également connu sous le nom PP2Cα) est une phosphatase particulièrement intéressante puisqu’il a été suggéré qu’elle pourrait jouer un rôle dans la régulation du métabolisme lipidique et du stress cellulaire. Ainsi, en se basant sur des résultats préliminaires de notre laboratoire et des données de la littérature, nous avons émis l’hypothèse selon laquelle PPM1A pourrait améliorer la sensibilité à l’insuline en diminuant l’activité des protéines kinases qui seraient activées par le stress cellulaire induit par l’augmentation des AGL. Ces effets pourraient finalement améliorer le métabolisme glucidique et lipidique dans l’hépatocyte. Ainsi, pour révéler le rôle physiologique de PPM1A à l’échelle d’un animal entier, nous avons généré un modèle animal qui la surexprime spécifiquement dans le foie. Nous décrivons ici notre travail afin de générer ce modèle animal ainsi que les premières analyses pour caractériser le phénotype de celui-ci. Tout d’abord, nous avons remarqué que la surexpression de PPM1A chez les souris C57BL/6J n’a pas d’effets sur le gain de poids sur une longue période. Deuxièmement, nous avons observé que PPM1A a peu d’effets sur l’homéostasie du glucose. Par contre, nous avons montré que sa surexpression a des effets significatifs sur l’homéostasie du glycogène et des triglycérides. En effet, nous avons observé que le foie des souris transgéniques contient moins de glycogène et de triglycérides que le foie de celles de type sauvage. De plus, nos résultats suggèrent que les effets de la surexpression de PPM1A pourraient refléter son impact sur la synthèse et la sécrétion des lipides hépatiques puisque nous avons observé que sa surexpression conduit à l’augmentation la triglycéridémie chez les souris transgéniques. En conclusion, nos résultats prouvent l’importance de PPM1A comme modulateur de l’homéostasie hépatique du glucose et des lipides. Des analyses supplémentaires restent cependant nécessaires pour confirmer ceux-ci et éclaircir l’impact moléculaire de PPM1A et surtout pour identifier ses substrats.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ce mémoire présente une réflexion critique sur différentes représentations des religions traditionnelles africaines (RTA) au sein de réseaux régionaux et disciplinaires africains et occidentaux. Dans un premier temps, plusieurs formes de représentations (cartographiques et graphiques) issues de milieux universitaires occidentaux sont explorées pour comparer le traitement des RTA. Cette exploration soulève le problème des catégorisations employées qui ne rendent pas compte de la diversité, du dynamisme, de la complexité et de l’importance des RTA; et de manière plus générale, cette analyse révèle un problème sur le plan de l’équité dans les représentations des religions du monde. À l’aide d’une analyse conceptuelle, un certain nombre de catégories utilisées pour définir les RTA, notamment celle de « religion ethnique », sont remises en question, tout comme la notion de religion du monde (world religion). Dans un deuxième temps, les stratégies de recherche utilisées pour retracer des réseaux de chercheurs africains sont présentées. Différents outils et ressources documentaires occidentaux sont analysés et évalués selon qu’ils donnent accès ou non à la production de chercheurs africains sur les RTA. L’analyse de ces documents, laquelle est inspirée d’une démarche d’analyse de discours, révèle à quel point la contribution des chercheurs africains est peu prise en compte à l’intérieur du corpus sélectionné. Or, l’exploration de la situation actuelle de l’enseignement et de la recherche sur les RTA dans certaines universités du Nigéria met en lumière la somme importante de travaux sur les RTA et la diversité des canaux de communication. En somme, ce mémoire démontre à quel point le savoir est localisé et lié aux ancrages culturels, disciplinaires et idéologiques des chercheurs. Il ouvre, à partir de l’analyse de textes africains, sur la question plus large de la difficulté de la représentation de l’unité et des particularismes des RTA.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

D’une part, le développement scientifique dans le domaine pharmaceutique fournit des bénéfices substantiels à la santé des personnes, améliorant par conséquent leur qualité de vie. Toutefois, créer et mettre en marché une nouvelle substance thérapeutique n’est pas une tâche facile. Les laboratoires investissent du temps et de l’argent en recherche et développement pour y parvenir. D’autre part, malgré les bienfaits de la science et les efforts des chercheurs, les médicaments sont des produits potentiellement dangereux. Ils présentent des risques inhérents à leur nature, capables de causer des préjudices graves et irréversibles. D’ailleurs, la nature dangereuse de ces produits a incité l’instauration de normes qui imposent des critères stricts aux fabricants de médicaments dans le but de protéger le public. En suivant cette tendance mondiale, les législateurs brésilien et canadien ont instauré des régimes statutaires qui édictent des règles rigoureuses de conception, de fabrication et de commercialisation des médicaments. Néanmoins, à cause de la nature pénale et administrative de ces normes, elles ne sont pas efficaces lorsqu’il s’agit de dédommager le consommateur ou le tiers qui est victime du fait du médicament. Dans une telle situation, il faut recourir au droit civil dans le cas du Brésil et du Québec, ou à la common law dans les autres provinces canadiennes. Dans une étude comparée sur le sujet, nous avons appris que les droits civils brésilien et québécois ainsi que la common law canadienne ont des ressemblances très importantes, cependant en ce qui concerne l’exclusion de la responsabilité fondée sur le risque de développement scientifique, différentes solutions s’appliquent.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La littérature décrit certains phénomènes de réorganisation physiologique et fonctionnelle dans le cerveau des aveugles de naissance, notamment en ce qui a trait au traitement de l’information tactile et auditive. Cependant, le système olfactif des aveugles n’a reçu que très peu d’attention de la part des chercheurs. Le but de cette étude est donc de comprendre comment les aveugles traitent l’information olfactive au niveau comportemental et d’investiguer les substrats neuronaux impliqués dans ce processus. Puisque, en règle générale, les aveugles utilisent leurs sens résiduels de façon compensatoire et que le système olfactif est extrêmement plastique, des changements au niveau de l’organisation anatomo-fonctionnelle pourraient en résulter. Par le biais de méthodes psychophysiques et d’imagerie cérébrale (Imagerie par Résonance Magnétique fonctionnelle-IRMf), nous avons investigué les substrats anatomo-fonctionnels sollicités par des stimuli olfactifs. Nous avons trouvé que les aveugles ont un seuil de détection plus bas que les voyants, mais que leur capacité à discriminer et identifier des odeurs est similaire au groupe contrôle. Ils ont aussi plus conscience de l’environnement olfactif. Les résultats d’imagerie révèlent un signal BOLD plus intense dans le cortex orbitofrontal droit, le thalamus, l’hippocampe droit et le cortex occipital lors de l’exécution d’une tâche de détection d’odeur. Nous concluons que les individus aveugles se fient d’avantage à leur sens de l’odorat que les voyants afin d’évoluer dans leur environnement physique et social. Cette étude démontre pour la première fois que le cortex visuel des aveugles peut être recruté par des stimuli olfactifs, ce qui prouve que cette région assume des fonctions multimodales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’objectif de cette étude est de saisir une image des éléments explicitement reconnaissables de la recherche en communication visibles dans les revues savantes Canadian Journal of Communication et dans Communication de 1974 à 2005. Il s’agit d’une analyse bibliométrique des articles publiés par les chercheurs d’institutions canadiennes et de leurs références bibliographiques. La bibliométrie est « l’application de méthodes statistiques aux livres et aux autres moyens de communication » (Pritchard, 1969: 348-349). C’est la première fois qu’une analyse de ce type est tentée dans ce corpus particulier. Nous nous sommes appuyés sur des postulats théoriques provenant de la sociologie des sciences et des études en communication scientifique. L’idée maîtresse est la suivante : l’activité scientifique est un « continuum de création de nouvelles connaissances » (Vassallo, 1999), dont l’organisation est basée sur l’échange d’information (Price, 1963; Crane, 1972), qui se traduit en reconnaissance sociale, en autorité scientifique, et constitue un investissement pour l’acquisition de crédibilité (Merton, 1938; Hagstrom, 1965; Bourdieu, 1975; Latour et Woolgar, 1986). À partir de l’analyse des articles, nous identifions s’ils sont le résultat de recherches empiriques ou fondamentales, ou le produit d’une réflexion critique. Il s’agit aussi de détecter les approches méthodologiques et les techniques d’investigation utilisées, ainsi que les sujets qui y sont abordés par les chercheurs. Nous détectons également les principaux lieux de recherche (universités et types de départements). Nous analysons aussi les thématiques des articles. Enfin, nous analysons des références bibliographiques des articles afin de cerner les sources d’idées qui y sont décelables. Notre corpus principal comporte 1154 articles et 12 840 titres de documents en référence. L’analyse bibliométrique des articles révèle ainsi une recherche canadienne en communication d’emblée qualitative, intéressée pour les spécificités historiques, le contexte social et la compréhension des interrelations sous-jacentes aux phénomènes de communication, en particulier, au Canada et au Québec. Au cœur de ces études se distingue principalement l’application de l’analyse de contenu qualitative dans les médias en général. Cependant, à partir de 1980, l’exploration du cinéma, de l’audiovisuel, des nouvelles technologies de l’information et de la communication, ainsi que la multiplication des sujets de recherche, annoncent un déplacement dans l’ordre des intérêts. Communication et le CJC, se distinguent cependant par l’origine linguistique des chercheurs qui y publient ainsi que dans les thématiques. L’analyse des références bibliographiques, et de leurs auteurs, met en relief l’intérêt partagé des chercheurs d’institutions universitaires canadiennes pour les agences de réglementation et les politiques gouvernementales canadiennes s’appuyant souvent sur l’analyse de documents législatifs et de rapports de diverses commissions d’enquête du gouvernement canadien. L’analyse révèle aussi les principales inspirations théoriques et méthodologiques des chercheurs. Parmi les plus citées, on voit Innis, McLuhan, Habermas, Tuchman, Bourdieu, Foucault, Raboy, et Rogers. Mais ces références évoluent dans le temps. On voit aussi une distinction relativement claire entre les sources citées par la recherche francophone et la recherche anglophone.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Considérées comme des moyens incontournables de participation à la société, les technologies de l’information et de la communication (TIC) constituent une piste de solution prometteuse pour l’enseignement et l’apprentissage auprès des élèves qui ont des incapacités intellectuelles. Toutefois, plusieurs auteurs dénoncent la faible utilisation des TIC en éducation de ces élèves. Pire encore, les recherches sur le sujet génèrent des résultats intéressants, mais d’une contribution limitée pour l’avancement des connaissances dans le domaine. Guidées par l’intuition et par un enthousiasme empirique évident, ces recherches s’appuient rarement sur des cadres de référence. Certes la documentation scientifique foisonne de champs de savoirs qui peuvent contribuer à ce domaine, mais ces contributions sont parcellaires et peu adaptées aux spécificités de ce dernier. L’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles demeure donc un champ conceptuel mal défini qui n'est légitimé par aucun cadre de référence en particulier. Cette recherche doctorale se situe en phase de préconception d’un modèle de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles. Elle vise à mettre en place des balises solides pouvant servir de cadre à l’élaboration d’un modèle de cette intervention. Dans cette phase de préconception, nous poursuivons deux objectifs, à savoir : 1) la mise au point d’un référentiel qui constitue un cadre intégrateur des connaissances existantes en la matière, qui servira avant tout à structurer et à organiser les informations disponibles à l’intérieur d’une synthèse validée par des experts et des intervenants oeuvrant auprès de ce type d’élèves et 2) l’élaboration d’un cahier des charges fonctionnel qui s’appuie sur le référentiel développé et qui précise les fonctions qu’un modèle idéal de l’intervention avec les TIC auprès des élèves qui ont des incapacités intellectuelles devrait remplir pour répondre pleinement aux besoins de ses différents utilisateurs. Ces balises (le référentiel et le cahier des charges fonctionnel) sont destinées, principalement, à des chercheurs, des concepteurs de technologies, des formateurs d’enseignants, etc. Les élèves, les enseignants et autres agents de l'éducation pourront en bénéficier indirectement à travers les applications dérivées de ces balises (programmes de formation, technologies, recherches, scénarios pédagogiques, etc.).

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les transferts horizontaux de gènes (THG) ont été démontrés pour jouer un rôle important dans l'évolution des procaryotes. Leur impact a été le sujet de débats intenses, ceux-ci allant même jusqu'à l'abandon de l'arbre des espèces. Selon certaines études, un signal historique dominant est présent chez les procaryotes, puisque les transmissions horizontales stables et fonctionnelles semblent beaucoup plus rares que les transmissions verticales (des dizaines contre des milliards). Cependant, l'effet cumulatif des THG est non-négligeable et peut potentiellement affecter l'inférence phylogénétique. Conséquemment, la plupart des chercheurs basent leurs inférences phylogénétiques sur un faible nombre de gènes rarement transférés, comme les protéines ribosomales. Ceux-ci n'accordent cependant pas autant d'importance au modèle d'évolution utilisé, même s'il a été démontré que celui-ci est important lorsqu'il est question de résoudre certaines divergences entre ancêtres d'espèces, comme pour les animaux par exemple. Dans ce mémoire, nous avons utilisé des simulations et analyser des jeux de données d'Archées afin d'étudier l'impact relatif des THG ainsi que l'impact des modèles d'évolution sur la précision phylogénétique. Nos simulations prouvent que (1) les THG ont un impact limité sur les phylogénies, considérant un taux de transferts réaliste et que (2) l'approche super-matrice est plus précise que l'approche super-arbre. Nous avons également observé que les modèles complexes expliquent non seulement mieux les données que les modèles standards, mais peuvent avoir un impact direct sur différents groupes phylogénétiques et sur la robustesse de l'arbre obtenu. Nos résultats contredisent une publication récente proposant que les Thaumarchaeota apparaissent à la base de l'arbre des Archées.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le thème de la motivation au travail en lien avec la performance des employés captive l’intérêt des théoriciens, des chercheurs, des praticiens et des gestionnaires depuis déjà près d’un siècle. L’engouement pour l’étude de ces concepts a permis de faire des avancées scientifiques notables permettant de mieux éclairer la pratique. Cependant, on constate que la popularité de la motivation présente également certains enjeux. Notamment, la pluralité des théories rend le domaine presque étourdissant par ses connaissances éparses et ses résultats équivoques. En premier lieu, cette thèse présente une méta-analyse multithéorique réalisée à partir d’études effectuées sur le terrain examinant les liens entre la motivation au travail et la performance des travailleurs entre 1985 et 2010. Les résultats de ce bilan nous indiquent que, peu importe la théorie motivationnelle employée, la force et la direction de la relation motivation-performance sont similaires plutôt que différentes. Parmi les variables modératrices examinées, seule la source des mesures s’est révélée significative indiquant que la relation entre les variables d’intérêt est plus forte lorsque les mesures proviennent de la même source – dans notre étude elles s’avèrent toutes autodéclarées – comparativement à lorsqu’elles sont recueillies auprès de sources différentes. En second lieu, une étude en laboratoire a permis d’observer que la motivation peut évoluer sur une période très courte, soit de moins de 90 minutes, à partir de 3 mesures de motivation réparties dans le temps d’expérimentation. Plus spécifiquement, l’étude de la motivation par type et par quantité, en considérant le facteur temps, nous renseigne que la motivation intrinsèque a augmenté tandis que la motivation extrinsèque et l’amotivation ont connu une diminution. Cette étude, considérant une perspective multidimensionnelle et dynamique de la motivation, telle que proposée par le cadre conceptuel de la théorie de l’autodétermination, montre que l’évolution de la motivation de tous les participants à l’étude est semblable, peu importe leur performance. En plus de permettre l’avancement des connaissances dans le domaine de la motivation et de la performance au travail, cette thèse se démarque à plusieurs égards. D’un côté, il s’agit de la première méta-analyse multithéorique de la motivation qui soit réalisée. De l’autre côté, l’étude en laboratoire a examiné simultanément, le type et la quantité de la motivation à l’aide d’un devis à mesures répétées alors que la majorité des études se concentrent soit sur la quantité, soit sur le type et néglige souvent de considérer la variable temps. En outre, cette étude en laboratoire a été réalisée à partir d’une activité à haut potentiel de validité écologique, s’apparentant à une tâche de sélection de candidats en ressources humaines. En somme, cette thèse apporte un éclairage intéressant tant sur le plan des connaissances concernant les variables modératrices déterminantes impliquées dans les relations motivation-performance et sur le plan du rythme des variations des types de motivation que sur le plan de l’utilisation optimale et complémentaire de techniques de recherche sophistiquées. L’ensemble des recommandations découlant de ces deux études concernant la recherche et l’intervention est présenté en conclusion.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La mise en banque d’échantillons humains et de données connexes n’est pas une pratique récente. Toutefois, dans les dernières décennies, ce phénomène a pris une ampleur sans précédent avec la création des biobanques populationnelles. Défini comme étant des infrastructures de recherche conçues pour durer plusieurs décennies, ce type de biobanques invite des milliers et, dans certains cas, des centaines de milliers de personnes à y participer en fournissant des échantillons, en se soumettant à des tests physiques et biochimiques, et en répondant à diverses questions sur leur santé et leur environnement sociodémographique. Mais quelles sont les obligations des biobanques et de leurs chercheurs face aux participants? Considérant leur longue durée, quel est l’encadrement juridique de ces biobanques populationnelles au Québec? Ce sont les deux questions que pose ce mémoire. Quant à l’encadrement, nous utilisons trois axes d’analyse : i) les lois, les règlements, la déontologie professionnelle et les normes applicables; ii) la qualification juridique de l’acte de mise en banque d’échantillons et de données; et iii) les obligations découlant de la nature même de l’objet de la relation juridique. Notre analyse révèle que cet encadrement est une mosaïque législative, contractuelle, déontologique et normative qui, malgré ses complexités et ses défis d’accessibilité pour les participants, assure une certaine protection pour ces derniers. Quant aux obligations incombant à la biobanque et à ses chercheurs, elles sont pour la majorité teintées par des caractéristiques particulières aux biobanques populationnelles. Ainsi, il existe des défis particuliers en ce qui concerne notamment le consentement, le devoir d’information, le retour de résultats et la sécurité des échantillons et des données. Étant donné la nature évolutive de ces obligations, nous proposons une approche basée sur le meilleur intérêt du participant pour déterminer la nature et l’intensité des obligations incombant à une biobanque et à ses chercheurs.