827 resultados para Champ visuel
Resumo:
Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.
Resumo:
Contexte : Les répercussions de l’alcool au niveau des fonctions cognitives sont bien documentées. Certaines hypothèses suggèrent que l’alcool affecte des fonctions cognitives spécifiques alors que d’autres avancent l’hypothèse de déficits diffus. Cependant, une ambigüité persiste concernant quelles fonctions cognitives sont le plus touchées par l’alcool, et à quel point la durée d’abstinence affecte la récupération cognitive. Nous avons procédé à une des premières méta-analyses qui s’intéresse aux différentes fonctions cognitives touchées par la consommation problématique d’alcool et à la durée d’abstinence requise pour une récupération au niveau des cognitions. Méthodes : Une recherche de la littérature a permis d’identifier 62 études évaluant les cognitions chez les personnes présentant des troubles liés à l’utilisation d’alcool. Les estimations de la taille d’effet ont été calculées avec la Comprehensive Meta Analysis –V2 pour les 12 domaines cognitifs suivants : quotient intellectuel, fluidité verbale/langage, vitesse de traitement de l’information, mémoire de travail, attention, résolution de problème/fonctions exécutives, inhibition/impulsivité, apprentissage verbal, mémoire verbale, apprentissage visuel, mémoire visuelle, habiletés visuo-spatiales. Parmi ces 12 domaines cognitifs, 3 estimations de la taille d’effet ont été calculées selon les durées d’abstinences suivantes : court- (<1 mois), moyen- (2 à 12 mois) et long- (>1 an) termes. Résultats : Les résultats ont révélé la présence de dysfonctions modérées dans 11 domaines cognitifs durant l’abstinence à court terme, et dans 10 domaines cognitifs pour le moyen-terme. Des dysfonctions cognitives minimales furent notées durant l’abstinence à long-terme. Conclusions : Ces résultats révèlent des déficits cognitifs significatifs et diffus durant la première année d’abstinence. Déficits qui se normalisent après un an. Ces résultats soutiennent l’hypothèse de déficits cognitifs diffus reliés à l’alcoolisme et suggèrent que la cognition devrait faire partie intégrante du traitement d’alcoolisme.
Resumo:
En 1985, la Charte des droits et libertés de la personne (L.R.Q., ch. C-12) du Québec était amendée afin d’inclure une nouvelle section consacrée aux programmes d’accès à l’égalité (PAE). Cet ajout résulte du constat d’une situation d’inégalité sur le marché du travail québécois pour les membres de certains groupes, en raison de motifs illicites de discrimination. Concrètement, on observe une certaine ségrégation professionnelle, de faibles revenus moyens et des conditions précaires d’emploi. L’objectif des PAE est de redresser la situation de groupes victimes de discrimination; pour réaliser cet objectif, ils autorisent la mise en œuvre de mesures spécifiques à l’intention de ces derniers. Plusieurs types de PAE ont été mis en place par les gouvernements québécois successifs afin d’élargir leur champ d’application. Parmi ces différents types de PAE, cette étude se concentre sur ceux associés à l’obligation contractuelle qui obligent toutes les organisations qui emploient 100 employés ou plus et qui obtiennent un contrat ou une subvention du gouvernement du Québec d’une valeur de 100 000 $ et plus, à développer et à mettre en œuvre un PAE. Il s’agit de la principale forme de PAE touchant les organisations privées. Quatre groupes cibles sont identifiés dans ces PAE : les femmes, les membres des minorités visibles, les Autochtones et les personnes handicapées. Parmi ceux-ci, compte tenu de la croissance importante de ce groupe et des situations souvent aiguës de discrimination qu’ils vivent sur le marché du travail québécois, l’attention sera portée sur le groupe des minorités visibles. Très peu de recherches ont été réalisées sur ces PAE en raison d’une obligation de confidentialité de résultats complète. Les rares études effectuées jusqu’à présent ont constaté des progrès très inégaux entre les employeurs : alors qu’un petit nombre d’organisations semblaient progresser rapidement dans l’atteinte de leurs objectifs, la vaste majorité stagnait ou encore progressait très lentement. Ce constat menait à s’interroger sur les facteurs, autres que le cadre juridique, qui peuvent expliquer le niveau de conformité aux objectifs. En se basant sur une analyse de contenu d’entrevues semi-dirigées menées auprès de gestionnaires responsables des PAE dans 31 organisations privées de la région de Montréal, plusieurs facteurs des environnements externes et internes des organisations, ont été identifiés pour expliquer les niveaux de conformité aux objectifs qualitatifs. Parmi les facteurs positivement reliés, on remarque l’engagement des membres de la haute direction en faveur des PAE, la mise en place d’un système d’imputabilité et la perception de certains bénéfices liés à la diversification des effectifs. Au contraire, la confusion entre l’égalité et l’équité, le fait de privilégier les mouvements internes de personnel et les biais des gestionnaires de première ligne semblent être négativement reliés à l’atteinte des objectifs qualitatifs. Ces résultats démontrent l’importance que prennent les facteurs liés à l’environnement interne, surtout lorsque le cadre juridique est peu contraignant et que les gestionnaires croient que les probabilités de sanctions sont faibles. En se basant sur ces résultats, une série de recommandations est proposée, afin d’améliorer les PAE, mais aussi afin d’améliorer la compréhension des gestionnaires des ressources humaines sur ce qu’est la discrimination en emploi et les moyens les plus appropriés pour la combattre.
Resumo:
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Ce travail se veut d’un rapprochement aux pratiques et savoirs des peuples amazoniens à partir de discours produits par ces nations. Nous y interpréterons des chants sacrés, des narrations ancestrales et des textes académiques de penseurs autochtones. Ce travail indique que les pratiques amazoniennes s’inscrivent dans un contexte de significations qui considèrent que tout être vivant possède des pensées et un esprit; qu’il existe des êtres spirituels qui défendent ces êtres vivants contre les abus possibles. Les êtres humains doivent transcender leur état de conscience, se déplacer vers les mondes invisibles et initier la communication avec ces esprits, pour ainsi maintenir l’équilibre existentiel. Selon les pensées de l’Amazonie, les communautés humaines ne peuvent pas se concevoir comme autosuffisantes; elles doivent plutôt maintenir de constantes relations avec les multiples êtres qui peuplent leur environnement visible et les mondes invisibles. Les trois concepts clés qui permettent de rendre compte des pratiques des peuples amazoniens sont la déprédation, la transformation et l’équilibre. Par déprédation, nous entendons les pratiques amazoniennes qui impliquent une destruction des autres êtres afin de sustenter la vie de la communauté. Selon les pensées de l’Amazonie, cette déprédation devrait être mesurée, dans le but de ne pas tuer plus que nécessaire à la survie. La déprédation est régulée par les êtres spirituels. Les pratiques amazoniennes de transformation sont destinées à la sauvegarde des liens de la communauté, en transfigurant tout ce qui entre ou sort de cette dernière, de manière à ce qu’aucun agent externe ne mette en péril les liens affectifs. Les pratiques de déprédation et de transformation sont complémentaires et elles requièrent toutes les deux de se produire de manière équilibrée, en respectant les savoirs ancestraux et les lois cosmiques établies par les esprits supérieurs. En ce qui a trait à la méthode d’analyse, nous aborderons les discours de l’Amazonie à partir leur propre logique culturelle, sans imposer des méthodologies préétablies, ce qui donne comme résultat un travail académique qui approfondie la production intellectuelle interculturelle, puisque ce sont les voix indigènes qui expriment elles-mêmes leurs conceptions et le sens de leurs pratiques. Dans son ensemble, le travail engage un dialogue critique avec son champ d’étude en discutant ou en approfondissant certaines conceptions forgées par la littérature anthropologique consacrée à l’étude de la région, à partir des savoirs ancestraux amazoniens qui nourrissent les pratiques de ces nations.
Resumo:
Les littératures migrantes féminines canadienne et allemande contemporaine sont ancrées sur des questionnements de l’espace. Les auteures comme Abla Farhoud (Le bonheur a la queue glissante), Marie-Célie Agnant (La dot de Sara) et Renan Demirkan (Schwarzer Tee mit drei Stück Zucker) arrivent à transmettre les problèmes et questionnements liés à la condition migrante féminine de nos jours, à travers leur utilisation particulière de l’espace dans leurs romans. La métaphore de la prison aide à saisir la complexité de la situation de la femme et de son rapport avec l’espace. Il faut prendre en considération des facteurs comme le déracinement de la femme de la terre natale, sa domination par l’homme et son impuissance face aux événements liés à la migration, ainsi que son emprisonnement par autrui quand la femme est marquée par les préjugés et le racisme de la société d’accueil. La prison de la femme se manifeste également à un autre niveau, soit celui des théories spatiales : les théories spatiales masculines courantes (notamment celles de Bachelard, Merleau-Ponty, Lefebvre, De Certeau et Augé) négligent la situation particulière de la femme. Bien qu’elles aident à exposer ce que les espaces dans les romans nous communiquent et comment il faut lire les espaces, elles sont insuffisantes pour révéler le rapport femme migrante – espace dans toute sa complexité. De plus, la réalité spatiale de la femme telle qu’exposée par les théories féministes (notamment celles de Shands, Rose, Chapman et Massey) saisit seulement en partie le rapport spatial complexe de la femme migrante. La faiblesse des théories mentionnées ci-haut vient du fait qu’elles sont parfois trop simples. Elles ne tiennent pas compte de l’histoire de la femme migrante : due à son histoire particulière, sa conception des termes territoire, chez-soi et identité est tout à fait différente de celle des individus qui n’ont pas fait l’expérience d’un déracinement. En exposant les problèmes particuliers de ces femmes, cette thèse aide à sortir les femmes du silence qui les opprime. Par cette thèse, nous répondons donc à un besoin qui existe dans le champ d’étude : nous plaçons la femme migrante au centre de la réflexion théorique en insistant sur la complémentarité des théories masculines et féminines/féministes et sur la nécessité de combiner plusieurs points de vues théoriques. Par cette thèse, à l’aide de notre analyse des espaces dans les romans, nous précisons la situation nuancée de la femme migrante et apportons des perspectives éclairantes au sujet de son rapport complexe à l’espace.
Resumo:
La présente étude a analysé l’évolution de l’Administration Canadienne de la Sureté du Transport Aérien (ACSTA) depuis sa mise en place jusqu’aujourd’hui, ainsi que les acteurs individuels ou institutionnels impliqués dans ce processus. L’ACSTA gravite dans un champ organisationnel ‐ensemble d’organisations qui constituent un domaine reconnu de la vie institutionnelle (DiMaggio et Powell, 1983)- au sein duquel agissent différents acteurs qui ont influencé non seulement sa création, mais qui ont continué à jouer un rôle important tout au long de son évolution. Nous avons défini le champ de la sûreté aérienne et au sein de celui‐ci, nous avons analysé les mécanismes institutionnels, tout en identifiant et définissant le rôle des différents acteurs en présence. Il ressort de nos analyses que principalement deux types de contraintes institutionnelles (DiMaggio et Powell, 1983) ont influencé la création et le développement de l’ACSTA. Premièrement, mis à part les contraintes coercitives émanant de la règlementation internationale de l’Organisation de l’Aviation Civile Internationale, il apparait que d’autres contraintes du même type proviennent du gouvernement américain, par le biais de pressions visant à la mise en place de mesures sécuritaires, tant au moment de la création que tout le long de l’évolution de l’organisation. Il est à noter, cependant, le rôle du terrorisme et des tentatives d’attentat comme provocant de telles contraintes. Deuxièmement, nous avons identifié des contraintes du type normatif, c’est-à‐dire celles qui proviennent des valeurs, des normes et du bagage professionnel lié à la sécurité et à la sureté aérienne. Il apparait que les contraintes normatives agissent constamment alors que les contraintes coercitives surgissent ponctuellement tout au long de la période analysée.
Resumo:
Pour la plupart des gens, la lecture est une activité automatique, inhérente à leur vie quotidienne et ne demandant que peu d’effort. Chez les individus souffrant d’épilepsie réflexe à la lecture, le simple fait de lire déclenche des crises épileptiques et les personnes doivent alors renoncer à la lecture. Les facteurs responsables du déclenchement de l’activité épileptique dans l’épilepsie réflexe à la lecture demeurent encore mal définis. Certains auteurs suggèrent que le nombre ainsi que la localisation des pointes épileptiques seraient en lien avec la voie de lecture impliquée. Des études en imagerie cérébrale, menées auprès de populations sans trouble neurologique, ont dévoilé que la lecture active un réseau étendu incluant les cortex frontaux, temporo-pariétaux et occipito-temporaux bilatéralement avec des différences dans les patrons d’activation pour les voies de lecture lexicale et phonologique. La majorité des études ont eu recours à des tâches de lecture silencieuse qui ne permettent pas d'évaluer la performance des participants. Dans la première étude de cette thèse, qui porte sur une étude de cas d'un patient avec épilepsie réflexe à la lecture, nous avons déterminé les tâches langagières et les caractéristiques des stimuli qui influencent l'activité épileptique. Les résultats ont confirmé que la lecture était la principale tâche responsable du déclenchement de l’activité épileptique chez ce patient. En particulier, la fréquence des pointes épileptiques était significativement plus élevée lorsque le patient avait recours au processus de conversion grapho-phonémique. Les enregistrements électroencéphalographiques (EEG) ont révélé que les pointes épileptiques étaient localisées dans le gyrus précentral gauche, indépendamment de la voie de lecture. La seconde étude avait comme objectif de valider un protocole de lecture à voix haute ayant recours à la spectroscopie près du spectre de l’infrarouge (SPIR) pour investiguer les circuits neuronaux qui sous-tendent la lecture chez les normo-lecteurs. Douze participants neurologiquement sains ont lu à voix haute des mots irréguliers et des non-mots lors d’enregistrements en SPIR. Les résultats ont montré que la lecture des deux types de stimuli impliquait des régions cérébrales bilatérales communes incluant le gyrus frontal inférieur, le gyrus prémoteur et moteur, le cortex somatosensoriel associatif, le gyrus temporal moyen et supérieur, le gyrus supramarginal, le gyrus angulaire et le cortex visuel. Les concentrations totales d’hémoglobine (HbT) dans les gyri frontaux inférieurs bilatéraux étaient plus élevées dans la lecture des non-mots que dans celle des mots irréguliers. Ce résultat suggère que le gyrus frontal inférieur joue un rôle dans la conversion grapho-phonémique, qui caractérise la voie de lecture phonologique. Cette étude a confirmé le potentiel de la SPIR pour l’investigation des corrélats neuronaux des deux voies de lecture. Une des retombées importantes de cette thèse consiste en l’utilisation du protocole de lecture en SPIR pour investiguer les troubles de la lecture. Ces investigations pourraient aider à mieux établir les liens entre le fonctionnement cérébral et la lecture dans les dyslexies développementales et acquises.
Resumo:
Le Mali est devenu un milieu attractif pour les essais cliniques. Cependant, le cadre de réglementation pour leur surveillance y est très limité. Le pays manque de l’expertise, de l’infrastructure et des ressources nécessaires pour mettre en œuvre pleinement la régulation. Ceci représente un risque pour la sécurité des sujets de recherche et l’intégrité des résultats scientifiques. Il ne permet pas non plus de s’aligner sur les normes internationales en vigueur, telles que la déclaration d’Helsinki, les directives éthiques internationales du Conseil des organisations internationales des sciences médicales (CIOMS) ou les réglementations de pays industrialisés comme les États-Unis, le Canada ou l’Union Européenne. Pour améliorer la situation, la présente étude vise à comprendre les enjeux de la régulation des essais cliniques au Mali afin de suggérer des pistes de solutions et des recommandations. L’étude a été réalisée à l’aide de méthodes qualitatives, soit l’examen de documents officiels et des entrevues semi-dirigées avec les principaux acteurs impliqués dans les essais cliniques. La théorie néo-institutionnelle a servi de toile de fond à l’analyse des données. L’approche néo-institutionnelle consiste à expliquer l’influence de l’environnement sur les organisations. Selon cette approche, l’environnement s’assimile à des champs organisationnels incluant les connexions locales ou non, les liens horizontaux et verticaux, les influences culturelles et politiques ainsi que les échanges techniques. Les résultats présentés dans un premier article montrent l’existence de nombreux enjeux reflétant la carence du système de régulation au Mali. La coexistence de quatre scénarios d’approbation des essais cliniques illustre bien l’inconsistance des mécanismes. Tout comme l’absence d’inspection, l’inconsistance des mécanismes traduit également l’intervention limitée des pouvoirs publics dans la surveillance réglementaire. Ces enjeux résultent d’une double influence subie par les autorités réglementaires et les comités d’éthique. Ceux-ci sont, d’une part, influencés par l’environnement institutionnel sous pressions réglementaires, cognitives et normatives. D’autre part, les pouvoirs publics subissent l’influence des chercheurs qui opèrent comme des entrepreneurs institutionnels en occupant un rôle central dans le champ de la régulation. Dans un second article, l’étude propose une analyse détaillée des facteurs influençant la régulation des essais cliniques. Ces facteurs sont synthétisés en cinq groupes répartis entre deux sphères d’influence. L’analyse montre combien ces facteurs influencent négativement la régulation, notamment : 1) la structuration inachevée du champ de régulation due à un faible degré d’interactions, une absence de structure de coordination, d’informations mutuelles et de conscience dans la constitution des interdépendances; et 2) les positions relatives des acteurs impliqués dans la construction du champ de régulation se manifestant par une faible autorité des pouvoirs publics et l’ascendance des groupes de recherche. Enfin, dans un troisième article nous proposons quelques mécanismes qui, s’ils sont mis en œuvre, pourraient améliorer la régulation des essais cliniques au Mali. Ces mécanismes sont présentés, en référence au cadre théorique, sous trois types de vecteurs d’influence, notamment réglementaires, normatifs et cognitifs-culturels. En guise de conclusion, l’étude envoie un signal fort pour la nécessité d’une régulation appropriée des essais cliniques au Mali. Elle montre que la plupart des problèmes de fond en matière de régulation relèvent d’un besoin de restructuration du champ organisationnel et de renforcement de la position des pouvoirs publics.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.
Resumo:
Les études d’imagerie par résonance magnétique fonctionnelle (IRMf) ont pour prémisse générale l’idée que le signal BOLD peut être utilisé comme un succédané direct de l’activation neurale. Les études portant sur le vieillissement cognitif souvent comparent directement l’amplitude et l’étendue du signal BOLD entre des groupes de personnes jeunes et âgés. Ces études comportent donc un a priori additionnel selon lequel la relation entre l’activité neurale et la réponse hémodynamique à laquelle cette activité donne lieu restent inchangée par le vieillissement. Cependant, le signal BOLD provient d’une combinaison ambiguë de changements de métabolisme oxydatif, de flux et de volume sanguin. De plus, certaines études ont démontré que plusieurs des facteurs influençant les propriétés du signal BOLD subissent des changements lors du vieillissement. L’acquisition d’information physiologiquement spécifique comme le flux sanguin cérébral et le métabolisme oxydatif permettrait de mieux comprendre les changements qui sous-tendent le contraste BOLD, ainsi que les altérations physiologiques et cognitives propres au vieillissement. Le travail présenté ici démontre l’application de nouvelles techniques permettant de mesurer le métabolisme oxydatif au repos, ainsi que pendant l’exécution d’une tâche. Ces techniques représentent des extensions de méthodes d’IRMf calibrée existantes. La première méthode présentée est une généralisation des modèles existants pour l’estimation du métabolisme oxydatif évoqué par une tâche, permettant de prendre en compte tant des changements arbitraires en flux sanguin que des changements en concentrations sanguine d’O2. Des améliorations en terme de robustesse et de précisions sont démontrées dans la matière grise et le cortex visuel lorsque cette méthode est combinée à une manipulation respiratoire incluant une composante d’hypercapnie et d’hyperoxie. Le seconde technique présentée ici est une extension de la première et utilise une combinaison de manipulations respiratoires incluant l’hypercapnie, l’hyperoxie et l’administration simultanée des deux afin d’obtenir des valeurs expérimentales de la fraction d’extraction d’oxygène et du métabolisme oxydatif au repos. Dans la deuxième partie de cette thèse, les changements vasculaires et métaboliques liés à l’âge sont explorés dans un groupe de jeunes et aînés, grâce au cadre conceptuel de l’IRMf calibrée, combiné à une manipulation respiratoire d’hypercapnie et une tâche modifiée de Stroop. Des changements de flux sanguin au repos, de réactivité vasculaire au CO2 et de paramètre de calibration M ont été identifiés chez les aînés. Les biais affectant les mesures de signal BOLD obtenues chez les participants âgés découlant de ces changements physiologiques sont de plus discutés. Finalement, la relation entre ces changements cérébraux et la performance dans la tâche de Stroop, la santé vasculaire centrale et la condition cardiovasculaire est explorée. Les résultats présentés ici sont en accord avec l’hypothèse selon laquelle une meilleure condition cardiovasculaire est associée à une meilleure fonction vasculaire centrale, contribuant ainsi à l’amélioration de la santé vasculaire cérébrale et cognitive.
Resumo:
Cette recherche exploratoire vise à documenter, du point de vue des intervenants, les conditions nécessaires à la mise en place de projets utilisant des outils de narrativité numérique, de même que les principaux apports de ces outils à l’intervention. Ces outils peuvent être des récits numériques qui sont de courtes vidéos (deux à cinq minutes) intégrant images, musique, texte, voix et animation, ou encore de courts fichiers audio, aussi appelés podcasting ou baladodiffusion. Il peut aussi s’agir de jeux vidéo interactifs ou d’un montage vidéo à partir d’extraits de témoignages. Dans un contexte où les pratiques d’intervention, dans les services publics en particulier, sont de plus en plus normées et standardisées, une recherche qui explore des outils d’intervention recourant à la créativité s’avère des plus pertinentes. Par ailleurs, ce champ n’a été que très peu exploré en service social jusqu’à maintenant. Des entrevues semi-dirigées ont été menées auprès de huit intervenants ayant utilisé ces outils dans leur pratique. L’analyse de leurs propos met d’abord en lumière les conditions nécessaires à la réalisation de ce type de projet, de même que les questions éthiques qui les accompagnent. Ensuite, du côté des principaux apports de ces outils, ils se situent, d’une part, dans le processus créatif collaboratif. Celui-ci permet d’enrichir l’intervention en donnant un espace de parole plus libre où intervenants et usagers créent des liens qui modifient le rapport hiérarchique entre aidant et aidé. D’autre part, l’attention professionnelle accordée à la réalisation des produits et à leur diffusion contribue à donner une plus grande visibilité à des personnes souvent exclues de l’espace public. Ainsi, en plus d’explorer les apports d’un outil artistique à l’intervention, cette recherche permet également d’analyser les enjeux de visibilité et de reconnaissance associés à l’utilisation de médias participatifs.