413 resultados para paradigme constructivisme
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Cette thèse est consacrée à la complexité basée sur le paradigme des preuves interactives. Les classes ainsi définies ont toutes en commun qu’un ou plusieurs prouveurs, infiniment puissants, tentent de convaincre un vérificateur, de puissance bornée, de l’appartenance d’un mot à un langage. Nous abordons ici le modèle classique, où les participants sont des machines de Turing, et le modèle quantique, où ceux-ci sont des circuits quantiques. La revue de littérature que comprend cette thèse s’adresse à un lecteur déjà familier avec la complexité et l’informatique quantique. Cette thèse présente comme résultat la caractérisation de la classe NP par une classe de preuves interactives quantiques de taille logarithmique. Les différentes classes sont présentées dans un ordre permettant d’aborder aussi facilement que possible les classes interactives. Le premier chapitre est consacré aux classes de base de la complexité ; celles-ci seront utiles pour situer les classes subséquemment présentées. Les chapitres deux et trois présentent respectivement les classes à un et à plusieurs prouveurs. La présentation du résultat ci-haut mentionné est l’objet du chapitre quatre.
Resumo:
This thesis follows and analyses the involvement of both social actors and the state in the industrial transformation of Mexico. While these actors have been key associates in the development of the Mexican economy for decades, with the 1982 debt crisis, and especially after the promotion of a structural reform in 1986, the patterns of their involvement changed. However, this change was more limited than expected, and the state did not abandon its participation in some key industrial sectors. This thesis will demonstrate that the role of the state remained important during the process of change towards an Export-Oriented developmental paradigm, although the state continued to participate in fashioning social relations, it did so in new ways that can be termed “protective liberalization.”
Resumo:
De récentes découvertes montrent le rôle important que joue l’acide ribonucléique (ARN) au sein des cellules, que ce soit le contrôle de l’expression génétique, la régulation de plusieurs processus homéostasiques, en plus de la transcription et la traduction de l’acide désoxyribonucléique (ADN) en protéine. Si l’on veut comprendre comment la cellule fonctionne, nous devons d’abords comprendre ses composantes et comment ils interagissent, et en particulier chez l’ARN. La fonction d’une molécule est tributaire de sa structure tridimensionnelle (3D). Or, déterminer expérimentalement la structure 3D d’un ARN s’avère fort coûteux. Les méthodes courantes de prédiction par ordinateur de la structure d’un ARN ne tiennent compte que des appariements classiques ou canoniques, similaires à ceux de la fameuse structure en double-hélice de l’ADN. Ici, nous avons amélioré la prédiction de structures d’ARN en tenant compte de tous les types possibles d’appariements, dont ceux dits non-canoniques. Cela est rendu possible dans le contexte d’un nouveau paradigme pour le repliement des ARN, basé sur les motifs cycliques de nucléotides ; des blocs de bases pour la construction des ARN. De plus, nous avons dévelopées de nouvelles métriques pour quantifier la précision des méthodes de prédiction des structures 3D des ARN, vue l’introduction récente de plusieurs de ces méthodes. Enfin, nous avons évalué le pouvoir prédictif des nouvelles techniques de sondage de basse résolution des structures d’ARN.
Resumo:
Dans le contexte pastoral évangélique, il est très difficile de s’expliquer qu’un croyant puisse aimer et servir Dieu avec passion pour constater, quelques années plus tard, que la motivation qui le pousse vers Dieu a été étouffée. Bien qu’ils utilisent des termes différents, les entraineurs sportifs posent essentiellement la même question : comment inciter les personnes sous leur charge à fournir un rendement correspondant à leur potentiel. Si la motivation est le moteur du comportement, pour bien des personnes, les émotions en constituent le volant. Il semble que par nature l’humain oriente son comportement vers les émotions agréables et s’éloigne des émotions désagréables. C’est aussi vrai pour le sportif que pour le croyant. Cette étude propose une réflexion interdisciplinaire entre la théologie et la psychologie au sujet du plaisir, de la motivation et de l’action humaine, à la fois dans le sport moderne et dans la spiritualité, qui permette d’aborder notre problématique sous un nouvel éclairage. Les premiers chapitres ont pour objectifs d’identifier la rencontre entre le sport et la spiritualité (chapitre 1), de situer la problématique dans son contexte anthropologique à partir de la compréhension psychologique contemporaine de l’émotion (chapitre 2) et de la motivation (chapitre 3). Les chapitres qui suivent examinent la motivation humaine chez les sportifs à partir de la psychologie du sport (chapitre 4), avant de consulter deux théologiens protestants Jürgen Moltmann du courant libéral et John Piper, évangélique conservateur (chapitre 5) pour introduire la discussion théologique. Bien que la psychologie contemporaine ait été une discipline longtemps figée dans un paradigme darwinien ou humaniste, décriant l’empiètement de la théologie sur sa compréhension de l’humain, le chapitre 6 présente des exemples où une discussion théologique de l’humain, dépourvue de toute validité empirique, peut apporter une vision complémentaire à la psychologie contemporaine et contribuer au bien-être du sportif comme à celui du croyant. Ainsi, la contribution de la psychologie, qui est acceptable à une interprétation évangélique, peut apporter un éclaircissement sur les raisons possibles d’un changement de motivation chez le croyant dans son amour et son service envers Dieu. Le dernier chapitre se veut le prolongement de cette étude dans d’autres domaines, comme les études bibliques et le counseling auprès des croyants et des sportifs et dans le cadre de l’aumônerie militaire.
Resumo:
La libéralisation des échanges a fait augmenter les richesses, mais en réalité, elles se sont concentrées dans les pays développés. La question de la distribution plus équitable des richesses s'est rapidement posée. Le système GATT/OMC a joué un rôle décisif dans la libéralisation des échanges et dans l'articulation des rapports entre les pays développés et les pays en développement (PED). L'émergence et l'incarnation juridique dans le système GATT/OMC d'un principe de justice distributive passe par l'évolution du traitement spécial et différencié (TSD). Sous le GATT, le TSD s'est d'abord manifesté par l'article XVIII et la Partie IV du GATT de 1947, la Clause d'habilitation et le Système de préférences de 1971. Le TSD ainsi proposé appartenait essentiellement à la sof law et a échoué dans sa tentative d'intégrer les PED au système SCM. Sous l'OMC, le TSD a changé de paradigme et de mandat. Le TSD est passé d'un outil voué à mettre au développement des PED à un mécanisme employé à aider les PED à mettre en œuvre les nouvelles politiques de libéralisation découlant des accords de l'OMC. Les dispositions TSD seront alors dispersées dans l'ensemble des accords de l'OMC, mais sans jamais transcender la forme «soft law» qui les caractérisait sous le GATT. L'échec de la Conférence de Seattle, en 1999, engendrera le «Programme de Doha pour le développement», en 2001. La Déclaration de Doha était alors perçue comme l'incarnation de la transformation de l'OMC en organisation qui se préoccupe désormais de justice distributive. En observant de près le texte de la Déclaration de Doha et en analysant sa valeur juridique, on ne constate pas de progrès significatifs. Encore une fois, les mesures proposées le sont sous forme de déclarations d'intention et de promesses, voire d'engagement à négocier. Actuellement, le Cycle de Doha tarde à aboutir et tout nous porte à croire que l'avènement de l'OMC n'a pas concrétisé la volonté des PED d'une répartition plus équitable des richesses.
Resumo:
La somme romanesque que représente À la recherche du temps perdu se constitue au prix d’une « recherche » qui est à prendre au pied de la lettre, et qui instaure le sujet connaissant en savant-chercheur face à son objet de savoir. Proust fait en effet du « savoir » la condition même du talent, et fait entreprendre à son héros une exploration qui se présente en priorité comme étant une quête de savoirs. Ce travail se situe dans le sillage de l’épistémocritique qui étudie l’inscription dans le texte littéraire des savoirs en général, tout en insistant sur les savoirs qui relèvent de la science. Notre but est de dégager la posture épistémique qui caractérise le narrateur de la Recherche face aux divers savoirs qu’il récolte au cours de ses observations. Le parcours cognitif du narrateur est examiné suivant les quatre grandes étapes de sa recherche, que nous redéfinissons en termes de paradigmes : le paradigme de l’Exploration, qui définit une « épistémologie de l’observateur » ; le paradigme de la Communication, qui définit une « épistémologie de l’homme social » et une « épistémologie de l’homme moderne » ; le paradigme de l’Introspection, qui prépare à l’élaboration d’une « épistémologie du personnage intérieur » ; et enfin, le paradigme de la Vocation, qui rassemble les réponses trouvées par le narrateur à la plupart des questionnements qui auront jalonné son parcours cognitif. Ce dernier paradigme se présente sous la forme d’une « épistémologie de la création », d’une « épistémologie du réel » et d’une « épistémologie du hasard ». Car en dépit d’une démarche qui apparaît soumise aux médiations culturelles, la recherche du héros proustien se présente comme une « pensée de l’imprévisible » : fortement déterminée par la recherche cognitive du protagoniste, elle demeure pourtant irréductible à cette seule recherche. Nous dégageons, pour terminer, le statut réservé à la science et aux savoirs positifs en regard de la découverte de la vocation, mais aussi par rapport à l’élaboration d’une théorie de la création littéraire : ces deux grands domaines du savoir sont-ils considérés par Proust comme inconciliables avec une priorité évidente de l’un sur l’autre ou, au contraire, participent-ils tous deux d’une manière égale à la connaissance et à la création artistique ?
Resumo:
Les politiques migratoires européennes sont conçues en termes de contrôle de l’entrée et du séjour des étrangers. Depuis la mise en place des conditions de libre circulation dans les années 1980, l’Union européenne est impliquée dans le traitement des non-nationaux qui, auparavant, relevait exclusivement de la discrétion étatique. La migration et l’asile sont aujourd’hui des domaines de compétence partagée entre l’Union et ses membres. La priorité est accordée à la lutte contre la migration irrégulière, perçue non seulement comme un défi à la souveraineté, mais aussi comme une menace à l’État providence et un risque pour la sécurité. Cette recherche porte sur l’européanisation de la lutte contre la migration irrégulière et ses effets sur les droits humains des étrangers. Il est soutenu que l’européanisation définie comme un processus de construction, de diffusion et d’institutionnalisation des normes, des pratiques et des convictions partagées, permet aux États d’atteindre leur objectif de limiter le nombre d’étrangers indésirés, y compris des demandeurs d’asile, sur leur sol. L’européanisation légitime et renforce les mesures préventives et dissuasives existantes à l’encontre des migrants clandestins. De nouvelles normes communes sont produites et de nouveaux dispositifs de coopération européenne sont créés en vue de réprimer la migration irrégulière. Ce phénomène transforme le paradigme migratoire dans les États membres ainsi que les pays candidats à l’adhésion qui se trouvent désormais chargés de la sécurisation des frontières extérieures de l’Union. La recherche démontre que ces développements ont un impact négatif sur les droits fondamentaux. Ils exacerbent aussi la vulnérabilité des demandeurs d’asile assimilés aux migrants économiques. Une analyse comparative de l’européanisation du renvoi forcé en France, au Royaume-Uni et en Turquie montre que la politique européenne engendre des atteintes aux droits et libertés des étrangers et limite leur capacité de contester les violations devant les tribunaux. L’accent est mis sur la nécessité de trouver un équilibre entre la préoccupation légitime des États et de l’Union d’assurer la sécurité et le bien-être de leurs citoyens et la protection des droits des migrants irréguliers. Il revient ultimement aux tribunaux de veiller à ce que le pouvoir discrétionnaire étatique s’exerce en stricte conformité avec les normes constitutionnelles et les obligations internationales découlant du droit international des réfugiés et des droits de l’homme.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
En inhibant la formation de caillots dans le sang, les médicaments antiplaquettaires diminuent de façon importante le risque d’événements ischémiques aigus. Cependant, une sous-population de patients souffrant de maladie coronarienne présente une inhibition inadéquate de la fonction plaquettaire malgré la prise quotidienne d’acide acétylsalicylique (AAS). Le premier volet de cette thèse démontre qu’une régénération plaquettaire accélérée pourrait expliquer en partie la variabilité dans la persistance de l’effet antiplaquettaire de l’AAS chez certains sujets souffrant de maladie coronarienne. Ces données suggèrent qu’une augmentation de la fréquence d’administration d’AAS d’une à deux fois par jour pourrait être bénéfique chez ces sujets. Des méta-analyses ont suggéré qu’une réponse plaquettaire inadéquate à l’AAS pourrait augmenter le risque d’événements ischémiques récurrents. La nature rétrospective de ces analyses ne permet pas d’établir la causalité. Dans le deuxième volet de cette thèse, les résultats d’une étude prospective visant à comparer la pertinence clinique de 6 tests de fonction plaquettaire fréquemment utilisés pour évaluer la réponse plaquettaire à l’AAS est présentée. Les résultats démontrent qu’aucun des tests de fonction plaquettaire couramment employés ne prédit la survenue d’événements ischémiques aigus chez des patients souffrant de maladie coronarienne stable. Toutefois, la cessation de la prise d’AAS est un prédicteur important d’événements thrombotiques. La cessation de médicaments antiplaquettaires a souvent été associée à la survenue d’événements thrombotiques dans les jours suivant l’interruption. À savoir si la survenue de ces événements est attribuable uniquement au retrait d’un médicament protecteur ou plutôt à une sensibilisation plaquettaire, constitue un débat d’actualité. Dans le troisième volet de cette thèse, des données sont présentées démontrant que la cessation de clopidogrel après la période recommandée par les lignes directrices actuelles provoque une sensibilisation des plaquettes nouvellement formées aux stimuli plaquettaires physiologiques. Ces résultats encouragent la recherche sur différentes modalités pour atténuer le risque thrombotique accru chez ces patients souffrant de maladie coronarienne. En conclusion, cet ouvrage présente des études visant à identifier les sous-populations de patients qui sont plus à risque de complications cardiovasculaires récurrentes. Dans ce contexte, la personnalisation de traitement est une avenue thérapeutique prometteuse, où chaque patient pourra recevoir un traitement ciblé en fonction de ses besoins et de ses contre-indications. Ce changement de paradigme d’une thérapie empirique issue d’études de grande envergure sur des données populationnelles à une thérapie ajustée aux besoins individuels représente un vaste champ de recherche, où la majorité des découvertes sont à faire.
Resumo:
Le phénomène de Clignement Attentionnel (Attentional Blink, AB), fait référence à une diminution transitoire du rapport exact d’une deuxième cible (C2) si celle-ci est présentée trop tôt après une première cible (C1) lors d’une présentation visuelle sérielle rapide (rapid serial visual presentation, RSVP), et ce, quand les deux cibles doivent être rapportées. Cette étude a examiné l’existence possible d’asymétries hémisphèriques dans le traitement attentionnel ainsi que l’éventualité que la présentation de cibles à deux hémisphères différents puisse diminuer le AB chez des participants neurologiquement sains et l’abolir dans le cas d’un patient callosotomisé. Pour ce faire, nous avons employé un paradigme modifié du AB dans lequel les cibles pouvaient apparaître dans n’importe quelle de quatre RSVP, une dans chaque quadrant du champ visuel, pour permettre des essais dans lesquels les deux cibles puissent être présentées au même hémisphère et d’autres où chaque cible était présentée à un hémisphère différent. Bien que nous n’ayons trouvé aucune diminution de l’effet AB lors de présentation inter-hémisphérique, dans les deux populations à l’étude, le taux de bonnes réponses globales à la deuxième cible était plus élevé quand les cibles étaient présentées à des hémisphères différents. Nous avons également trouvé un avantage de l’hémisphère gauche chez le patient callosotomisé.
Resumo:
Introduction: Chez les mammifères, la naissance de nouveaux neurones se poursuit à l’âge adulte dans deux régions du cerveau: 1) l’hippocampe et 2) la zone sous-ventriculaire du prosencéphale. La neurogenèse adulte n’est pas un processus stable et peut être affectée par divers facteurs tels que l’âge et la maladie. De plus, les modifications de la neurogenèse peuvent être à l’origine des maladies de sorte que la régulation ainsi que le rétablissement de la neurogenèse adulte doivent être considérés comme d’importants objectifs thérapeutiques. Chez la souris saine ou malade, la neurogenèse hippocampale peut être fortement régulée par l’enrichissement environnemental ainsi que par l’activité physique. Cependant, lors même que l’activité physique et l’enrichissement environnemental pourraient contribuer au traitement de certaines maladies, très peu d’études porte sur les mécanismes moléculaires et physiologiques responsables des changements qui sont en lien avec ces stimuli. Objectifs et hypothèses: Les principaux objectifs de cette étude sont de caractériser les effets de stimuli externes sur la neurogenèse et, par le fait même, d’élucider les mécanismes sous-jacents aux changements observés. En utilisant le modèle d’activité physique volontaire sur roue, cette étude teste les deux hypothèses suivantes: tout d’abord 1) qu’une période prolongée d’activité physique peut influencer la neurogenèse adulte dans le prosencéphale et l’hippocampe, et 2) que l’activité volontaire sur roue peut favoriser la neurogenèse à travers des stimuli dépendants ou indépendants de la course. Méthodes: Afin de valider la première hypothèse, nous avons utilisé un paradigme incluant une activité physique volontaire prolongée sur une durée de six semaines, ainsi que des analyses immunohistochimiques permettant de caractériser l’activité de précurseurs neuronaux dans la zone sous-ventriculaire et l’hippocampe. Ensuite, pour valider la seconde hypothèse, nous avons utlisé une version modifiée du paradigme ci-dessous, en plaçant les animaux (souris) soit dans des cages traditionnelles, soit dans des cages munies d’une roue bloquée soit dans des cages munies d’une roue fonctionnelle. Résultats: En accord avec la première hypothèse, l’activité physique prolongée volontaire a augmenté la prolifération des précurseurs neuronaux ainsi que la neurogenèse dans le gyrus dentelé de l’hippocampe comparativement aux animaux témoins, confirmant les résultats d’études antérieures. Par ailleurs, dans ce paradigme, nous avons aussi observé de la prolifération acrue au sein de la zone sous-ventriculaire du prosencéphale. De plus, en accord avec la seconde hypothèse, les souris placées dans une cage à roue bloquée ont montré une augmentation de la prolifération des précurseurs neuronaux dans l’hippocampe comparable à celle observée chez les souris ayant accès à une roue fonctionnelle (coureurs). Cependant, seuls les animaux coureurs ont présenté une augmentation de la neurogenèse hippocampale. Conclusions: Ces résultats nous ont permis de tirer deux conclusions nouvelles concernant les effets de l’activité physique (course) sur la neurogenèse. Premièrement, en plus de la prolifération et de la neurogenèse dans le gyrus dentelé de l’hippocampe, la prolifération dans la zone sous-ventriculaire du prosencéphale peut être augmentée par l’activité physique sur roue. Deuxièmement, l’environnement dans lequel l’activité physique a lieu contient différents stimuli qui peuvent influencer certains aspects de la neurogenèse hippocampale en l’absence d’activité physique sur roue (course).
Resumo:
La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.
Resumo:
Si le dogme libéral a longtemps mis en avant la nécessité d’un interventionnisme restreint de l’autorité publique définissant post hoc le droit idéal comme un droit absent, cette idéologie semble être amenée à évoluer. Alors que le marché a longtemps été placé comme matrice de la civilisation et que ce phénomène a donné une place essentielle à la finance, différentes initiatives réglementaires françaises, européennes et mondiales remettent en cause ce paradigme et tentent d’encadrer les dérives du capitalisme contemporain axé sur un courttermisme à outrance et une irresponsabilité grandissante. La rémunération variable des opérateurs de marché (les fameux « bonus ») illustre ce phénomène de reflux du droit, un droit qui témoigne d’une collaboration entre acteurs publics et acteurs privés. Toutefois, ce nouveau paysage juridique n’est pas sans critiques. En effet, cette intervention se révèle trop limitée en l’état pour atteindre les ambitions que l’Etat français et ses homologues ne cessent de clamer : l’institution d’un pacte mondial à long terme.
Resumo:
Cette thèse s’intéresse à un changement de paradigme dans l’imaginaire de la filiation tel qu’il est donné dans la littérature des femmes et les écrits du féminisme. L’hypothèse de travail est la suivante : à l’imaginaire d’une filiation déployée uniquement dans la latéralité des liens sororaux, se substitue au tournant des années 1990 un imaginaire mélancolique de la filiation, corollaire de la posture d’héritière désormais occupées par les auteures et penseures contemporaines. Parallèlement au développement d’une troisième vague du féminisme contemporain, la France et le Québec des années 1990 ont en effet vu naître ce qui est qualifié depuis peu de « nouvelle génération d’écrivaines ». « Premières », à l’échelle de l’histoire de la littérature des femmes, « à bénéficier d’un riche héritage littéraire féminin » (Rye et Worton, 2002 : 5), les auteures appartenant à ces « nouvelles voix » s’avèrent en effet doublement héritières, à la fois d’une tradition littéraire au féminin et de la pensée féministe contemporaine. Alors que la génération des années 1970 et du début des années 1980, se réclamant en un sens des discours d’émancipation des Lumières (liberté, égalité, fraternité), refusait l’héritage des générations antérieures, imaginant une communauté construite dans la sororité et fondée sur le meurtre des figures parentales, la génération actuelle n’est plus, quant à elle, dans la rupture. Située dans l’appropriation du passé et de l’histoire, elle réinvestit l’axe vertical de la généalogie. Or, c’est dans un récit familial mortifère ou encore lacunaire, morcelé, troué par le secret, ruiné par le passage du temps, toujours en partie perdu, qu’avancent les auteures, tout en questionnant le généalogique. Celui-ci ne s’entend pas ici en tant que vecteur d’ordre ou principe d’ordonnancement hiérarchique, mais se pose plutôt comme un mouvement de dislocation critique, « dérouteur des légitimités lorsqu’il retrace l’histoire des refoulements, des exclusions et des taxinomies » (Noudelmann, 2004 : 14) sur lesquels s’est construite l’histoire familiale. En d’autres termes, l’interrogation filiale à l’œuvre chez cette génération héritière participe d’une recherche de l’altérité, voire de l’étrangement, également présente dans les écrits théoriques et critiques du féminisme de la troisième vague. Cette thèse, en s’étayant sur l’analyse des récits de femmes et des écrits féministes publiés depuis les années 1970 – moment qui coïncide avec l’émergence de ce qu’il est désormais convenu d’appeler le féminisme de la deuxième vague –, a ainsi pour objectif de cerner les modifications que connaît l’imaginaire de la filiation à travers ce changement de paradigme. À l’aune de cette analyse menée dans la première partie, « De la sororité aux liens f(am)iliaux. Imaginaires de la filiation et représentations du corps », il s’agit, dans les deux parties suivantes intitulées « Des fantômes et des anges. La filiation en régime spectrale » et « Filles et mères, filles (a)mères. La filiation en régime de deuil » et consacrées plus précisément à l’étude des récits sélectionnés, de dégager les modalités filiales explorées par les auteures depuis le tournant des années 1990.