959 resultados para Logical positivism.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données sur l'utilisation des médicaments sont généralement recueillies dans la recherche clinique. Pourtant, aucune méthode normalisée pour les catégoriser n’existe, que ce soit pour la description des échantillons ou pour l'étude de l'utilisation des médicaments comme une variable. Cette étude a été conçue pour développer un système de classification simple, sur une base empirique, pour la catégorisation d'utilisation des médicaments. Nous avons utilisé l'analyse factorielle pour réduire le nombre de groupements de médicaments possible. Cette analyse a fait émerger un modèle de constellations de consommation de médicaments qui semble caractériser des groupes cliniques spécifiques. Pour illustrer le potentiel de la technique, nous avons appliqué ce système de classification des échantillons où les troubles du sommeil sont importants: syndrome de fatigue chronique et l'apnée du sommeil. Notre méthode de classification a généré 5 facteurs qui semblent adhérer de façon logique. Ils ont été nommés: Médicaments cardiovasculaire/syndrome métabolique, Médicaments pour le soulagement des symptômes, Médicaments psychotropes, Médicaments préventifs et Médicaments hormonaux. Nos résultats démontrent que le profil des médicaments varie selon l'échantillon clinique. Le profil de médicament associé aux participants apnéiques reflète les conditions de comorbidité connues parmi ce groupe clinique, et le profil de médicament associé au Syndrome de fatigue chronique semble refléter la perception commune de cette condition comme étant un trouble psychogène

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse examine les liens entre le sommeil, la mémoire épisodique et les rêves. Dans une première étude, nous utilisons les technologies de la réalité virtuelle (RV) en liaison avec un paradigme de privation de sommeil paradoxal et de collecte de rêve en vue d'examiner l'hypothèse que le sommeil paradoxal et le rêve sont impliqués dans la consolidation de la mémoire épisodique. Le sommeil paradoxal a été associé au rappel des aspects spatiaux des éléments émotionnels de la tâche RV. De la même façon, l'incorporation de la tâche RV dans les rêves a été associée au rappel des aspects spatiaux de la tâche. De plus, le rappel des aspects factuels et perceptuels de la mémoire épisodique, formé lors de la tâche VR, a été associé au sommeil aux ondes lentes. Une deuxième étude examine l'hypothèse selon laquelle une fonction possible du rêve pourrait être de créer de nouvelles associations entre les éléments de divers souvenirs épisodiques. Un participant a été réveillé 43 fois lors de l'endormissement pour fournir des rapports détaillés de rêves. Les résultats suggèrent qu'un seul rêve peut comporter, dans un même contexte spatiotemporel, divers éléments appartenant aux multiples souvenirs épisodiques. Une troisième étude aborde la question de la cognition lors du sommeil paradoxal, notamment comment les aspects bizarres des rêves, qui sont formés grâce aux nouvelles combinaisons d'éléments de la mémoire épisodique, sont perçus par le rêveur. Les résultats démontrent une dissociation dans les capacités cognitives en sommeil paradoxal caractérisée par un déficit sélectif dans l'appréciation des éléments bizarres des rêves. Les résultats des quatre études suggèrent que le sommeil aux ondes lentes et le sommeil paradoxal sont différemment impliqués dans le traitement de la mémoire épisodique. Le sommeil aux ondes lentes pourrait être implique dans la consolidation de la mémoire épisodique, et le sommeil paradoxal, par l'entremise du rêve, pourrais avoir le rôle d'introduire de la flexibilité dans ce système mnémonique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur les perceptions de l’université et des diplômes (universitaires) chez les lycéens guinéens du privé et du public en classe de terminale. L’atteinte de cet objectif exigeait une exploration de l’expérience scolaire et extrascolaire des élèves. La démarche privilégiée est qualitative et a consisté en des entrevues semi-dirigées auprès de 23 jeunes de deux lycées de la capitale, différents de par leur statut (privé/public) et l’origine sociale de leurs élèves. Les résultats de la recherche montrent que l’expérience scolaire et extrascolaire varie considérablement selon le type de lycée fréquenté. Si le parcours scolaire au privé s’est déroulé sans grands heurts, il est nettement plus chaotique parmi les élèves du public. Les premiers bénéficient d’un cadre d’apprentissage -tant au niveau infrastructurel que professoral- et d’un soutien familial clairement plus propices aux études que les seconds. Hors de l’école, si le temps est consacré aux loisirs pour les lycéens privés, il est marqué par une forte implication dans les activités économiques de survie pour les lycéens et lycéennes du public qui doivent tous se « battre » pour rester aux études. Les données révèlent en outre que la poursuite des études au-delà de la classe de terminale est perçue par les deux groupes de lycéens comme une suite logique de leur parcours scolaire. L’université attire et exerce une forme de « fascination » notamment pour le «bout de papier » qu’elle octroie. Le diplôme universitaire demeure perçu comme une marque distinctive et un symbole de prestige et, surtout dans des milieux populaires, comme un gage d’employabilité. Enfin, pour les jeunes filles du lycée privé, la poursuite des études est présentée comme un moyen d’acquérir une certaine indépendance même si, comme leurs homologues du public, la poursuite des études doit « coexister » avec le projet matrimonial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’un des buts de l’apprentissage des mathématiques est le développement du raisonnement et celui-ci participe à la compréhension des mathématiques. Très liée au raisonnement, la notion de preuve est aussi fondamentale à l’apprentissage des mathématiques, car elle permet d’établir la validité d’arguments mathématiques et de conférer un sens à différents concepts à travers l’explication de l’organisation logique du travail effectué. Toutefois, malgré l’importance accordée au développement de différents types de raisonnements, plusieurs élèves éprouvent des difficultés lorsqu’ils sont appelés à concevoir ou à évaluer des preuves. Dans le cadre de cette recherche, nous avons étudié l’impact de l’utilisation d’un forum électronique sur le développement d’habiletés de validation algébrique ainsi que sur le développement d’habiletés en lien avec l’évaluation de preuves en algèbre chez des élèves de 13 et 14 ans du Nouveau-Brunswick et du Québec. Les résultats laissent supposer que l’utilisation du forum électronique encourage le passage des preuves pragmatiques aux preuves intellectuelles, en plus de favoriser une utilisation adéquate des règles du débat mathématique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scénarios d’aveuglement dans la littérature d’Orhan Pamuk, d’Ernesto Sábato, et de José Saramago analyse trois œuvres importantes de trois auteurs contemporains : Mon nom est Rouge d’Orhan Pamuk ; « Rapport sur les aveugles » du roman Héros et tombes d’Ernesto Sábato ; et L’aveuglement de José Saramago. Malgré leurs différences, ces romans ont des points communs évidents, synthétisés dans la figure de l’aveuglement. Cette figure signale l’avènement, dans les textes, d’un régime de connaissance alternatif, centré moins sur le primat de la raison et du visuel que sur une nouvelle capacité cognitive, basée sur une logique spéciale du destin. L’aveuglement s’ouvre également sur une nouvelle compréhension de l’histoire, grâce à une capacité du récit de fiction qui passe par le point de fuite de la cécité. Pour Pamuk, l’aveuglement est le couronnement paradoxal d’une vision du monde, gravement mise en crise à la fin du XVIe siècle par le perspectivisme et le réalisme de la Renaissance, la voie d’entrée vers un monde imaginal qui n’est plus accessible à l’imaginaire occidental. Pour Sábato, il représente la variante renversée d’une quête de l’absolu qui passe par les antres de l’inceste, de l’enfer et du crime, tandis que le monde décrit par Saramago est un monde qui sombre sur la pente de la déchéance, en suivant une logique implacable. Il est l’équivalent de plusieurs formes de cécité qui menacent le monde contemporain, comme le fondamentalisme religieux, l’homogénéité préconisée par la société de masse, l’exclusion raciale, l’oppression idéologique. La thèse se divise en trois parties, La violente beauté du monde, Un mythe hérétique de la caverne et Une épidémie à cause inconnue, chacune d’entre elles analysant l’œuvre d’un auteur, mais établissant également des liens avec les autres chapitres. L’approche adoptée est interdisciplinaire, un croisement entre études littéraires, philosophie et histoire de l’art. Dans leur quête de nouveaux concepts et de nouvelles formes de pensée qui s’écartent du modèle rationnel dominant de la modernité, les trois auteurs partent de la présupposition que regarder les choses n’est pas du tout l’équivalent de voir les choses. Ils tentent d’articuler une logique du voir qui ressemble plutôt à la vision et à la clairvoyance qu’à la conformité logique. La figure de l’aveuglement sert de tremplin vers le monde imaginal (Pamuk), la pensée magique (Sábato) et la vision dystopique (Saramago) – des espaces ontologiquement différents où les auteurs mènent leurs attaques contre la rationnalité à tout prix. C’est précisément ces espaces que nous avons choisi d’explorer dans les trois romans. Nous soutenons également que ces trois textes proposent un nouveau régime de « connaissance » qui met en question les règles de pensée héritées de la Renaissance et surtout des Lumières, qui constituent un discours dominant dans la culture visuelle et philosophique moderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thérapie génique, qui consiste à modifier le génome d'un individu, est la progression logique de l'application de la recherche fondamentale à la médecine. Au moment où l'on célèbre le décryptage du génome humain, surgissent les premières guérisons par la thérapie génique qui soulèvent l'espoir d'un traitement par la génétique pour des maladies jusqu'ici incurables. Paradoxalement, est survenu au même moment le décès d'un adolescent au cours d'un essai clinique de thérapie génique aux Etats-Unis démontrant les risques sérieux de la thérapie génique et notre manque de connaissances scientifiques. À la lumière de ces derniers épisodes, il est important de réévaluer l'encadrement normatif des essais cliniques de la thérapie génique au Canada. Nous devons nous demander si la thérapie génique, hautement expérimentale, diffère d'un point de vue juridique, des autres types de recherche biomédicale. Une analyse comparative de différents modèles normatifs encadrant la thérapie génique permet de faire ressortir les avantages et les inconvénients de chacun. Le modèle québécois a intégré simplement la thérapie génique aux régimes normatifs préexistants (celui de l'expérimentation et celui des drogues). Le modèle français se distingue par l'insertion d'un régime d'exception dans le Code de la santé publique et le Code civil pour encadrer de façon spécifique la thérapie génique. Le Royaume-Uni offre un modèle intéressant d'auto-régulation alors que les États-Unis ont des normes spécifiques malheureusement restreintes aux recherches financées par les fonds publics. Il subsiste plusieurs lacunes dans l'encadrement canadien et québécois. Afin de l'améliorer, le Canada et le Québec devraient notamment se pencher sur la création d'une autorité nationale spécialisée et de normes spécifiques à la thérapie génique, l'implantation d'une évaluation structurée des risques de dissémination d'OGMs et l'établissement d'un suivi à long terme des participants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose une analyse sémio-narrative d’un corpus de dix-neuf contes merveilleux recueillis auprès des conteurs canadiens-français et canadiens-hurons par l’anthropologue Charles-Marius Barbeau, au début du XXe siècle. Après avoir passé en revue les principales théories dans l’approche sémiotique du conte à partir de Vladimir Propp jusqu’à nos jours, nous avons procédé à une étude narrative du corpus selon la méthode du grand folkloriste russe : cela nous a permis d’en montrer la valeur exceptionnelle mais aussi les limites. Nous avons constaté ainsi que le travail sur un corpus inédit peut mener à l’identification de nouveaux éléments dans la structure du conte merveilleux. En poursuivant nos recherches sur les dix-neuf contes recueillis par Barbeau, nous sommes passée du schéma linéaire, syntagmatique de Propp aux modèles logiques de ses continuateurs, particulièrement celui élaboré par Guy Laflèche. Nos analyses ont mis en évidence non seulement le fait que la structure en miroir est un modèle valide auquel une partie des contes merveilleux se plie parfaitement (d’emblée l’exclusivité du schéma de Propp est mise en question, sinon infirmée), mais aussi que tout conte merveilleux est exceptionnellement organisé, structuré (ce qui confirme la théorie de Claude Bremond conformément à laquelle le récit narratif est une alternance de dégradations et d’améliorations). Enfin, la dernière partie du mémoire est une analyse sémio-discursive de notre corpus qui, au lieu d’être une simple accumulation de listes de mots, d’expressions et de figures, tente d’aborder la structure idéologique, grâce à une étude en parallèle d’un conte du corpus et de deux versions littéraires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au début de son Traité fondamental de la foi, Karl Rahner avise le lecteur que l’introduction au concept de christianisme qu’il propose se déploie à ce qu’il nomme un « premier niveau de réflexion » (erste Reflexionsstufe). S’il le distingue explicitement du niveau de réflexion des sciences entendues au sens usuel, il n’en donne pas de définition formelle, s’employant plutôt à le mettre en œuvre. Curieusement, eu égard à l’importance que lui accorde Rahner, la question de ce « plan » alternatif de compréhension et de justification de la foi chrétienne est demeurée pratiquement sans écho (un constat formulé par Max Seckler en 1984 et renouvelé par Karl H. Neufeld en 2006). C'est à cette question du « premier niveau de réflexion » chez Rahner que s'attache la présente étude. Après avoir dressé un état de la question, nous y présentons les jalons du déve-loppement du concept chez Rahner, depuis ses articles sur la formation des prêtres en contexte de pluralisme jusqu’au Traité fondamental de la foi. Nous y montrons ensuite en quoi la référence de Rahner à l'illative sense newmanien, contestée lorsqu’elle n’est pas négligée par les commentateurs, peut être une clé d’interprétation de la notion qui nous occupe, le « sens illatif » (et la Grammar of Assent) éclairant le « premier niveau de réflexion » (et le Traité fondamental), et vice versa. Nous y voyons enfin comment cette référence à Newman met sur la voie des Exercices spirituels d’Ignace de Loyola, lequel aura été pour Rahner non seulement un maître spirituel, mais également un maître de théologie. Ce qui paraissait n’être au début qu’une indication d’ordre didactique se révèle dès lors comme une caractérisation fondamentale de la théologie telle que la com-prend Rahner.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les dernières décennies, le présumé déclin de la compétence scripturale des élèves québécois a soulevé les passions. Force est d’admettre que leurs compétences sont lacunaires : tant les rapports du ministère de l’Éducation (Jalbert, 2006; Ouellet, 1984) que les études scientifiques ou gouvernementales (Bureau, 1985; Groupe DIEPE, 1995; Roberge, 1984) révèlent leur incapacité à s’approprier l’écriture. Les TIC pourraient bien faire partie de la solution : on sait pertinemment qu’elles favorisent la réussite scolaire dans certains contextes (Barayktar, 2001; Christmann & Badgett, 2003; Waxman, Lin, & Michko, 2003). Toutefois, modifient-elles le processus scriptural au point d’en faciliter l’apprentissage? Cette question constitue le cœur de l’actuel projet de recherche. Les modèles du processus d’écriture comme celui de Hayes et Flower (Flower & Hayes, 1981; Hayes, 1995; Hayes & Flower, 1980) rappellent que les TIC font partie du contexte de production; à ce titre, elles influencent autant la qualité des textes que les processus cognitifs et la motivation. Elles libèrent notamment des ressources cognitives, puisqu’elles prennent en charge certaines opérations, comme la calligraphie (Daiute, 1983). Partant, le scripteur peut se concentrer davantage sur des tâches plus complexes. Des méta-analyses (Bangert-Drowns, 1993; Goldberg, Russell, & Cook, 2003) attestent que le traitement de texte exerce un effet minime, mais statistiquement significatif sur la qualité de l’écriture. Toutefois, il est associé à des révisions en surface (Faigley & Witte, 1981; Figueredo & Varnhagen, 2006). Rares sont les projets de recherche qui explorent simultanément l’impact du traitement de texte sur plusieurs dimensions du processus scriptural; plus rares encore sont les travaux qui se sont intéressés à ce sujet depuis les années 1990. Pour pallier ce manque, cette thèse de doctorat vise à 1) mesurer l’effet des TIC sur la qualité de l’écriture; 2) décrire l’impact des TIC sur les processus cognitifs de révision et de traduction; 3) mesurer l’impact des TIC sur la motivation à écrire. Pour y arriver, nous recourons à une méthodologie mixte. D’une part, un devis de recherche quasi expérimental nous permet de comparer les scripteurs technologiques aux scripteurs traditionnels; d’autre part, une approche qualitative nous laisse accéder aux pensées et aux perceptions des utilisateurs de l’ordinateur. Les trois articles qui constituent le cœur de cette thèse rapportent les résultats relatifs à chacun des objectifs spécifiques de recherche. Dans le premier texte, nous avons mesuré les effets du traitement de texte sur la compétence scripturale. L’analyse statistique des données colligées nous a permis de dégager une amélioration des performances, strictement en orthographe d’usage. En comparaison, les élèves du groupe témoin se sont améliorés davantage en cohérence textuelle et ont mieux performé en orthographe grammaticale. Le deuxième article propose de faire la lumière sur ces résultats. Nous y étudions donc l’impact des TIC sur le processus cognitif de révision. Ce volet, basé sur une approche qualitative, recourt largement à l’observation vidéographiée. Nous y mettons d’abord en évidence le grand nombre d’erreurs commises lors des séances d’écriture technologiques; nous faisons également ressortir la sous-utilisation du vérificateur linguistique, qui pose peu de diagnostics appropriés ou qui est souvent ignoré des scripteurs. Toutefois, malgré cette sous-utilisation du traitement de texte, des entrevues de groupe font état de perceptions positives à l’égard des TIC; on leur prête des vertus certaines et elles sont jugées motivantes. Ce phénomène constitue le cœur du dernier article, au cours duquel nous tâchons de mesurer l’impact du mode d’écriture sur la motivation à écrire. Nous menons ce volet dans une perspective quantitative. La motivation des participants a été mesurée avec une échelle de motivation. L’analyse statistique des données montre que les élèves technologiques sont motivés intrinsèquement par les technologies, tandis que leurs pairs du groupe témoin sont amotivés. Lors du chapitre conclusif, nous mettons ces résultats en relation, tentant d’expliquer globalement l’impact des TIC dans le processus scriptural. Au terme de notre thèse, nous formulons des recommandations destinées aux praticiens et aux décideurs engagés dans le système éducatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous avons effectué ce travail afin d’évaluer l’impact d’une utilisation accrue des antirétroviraux (ARV) sur l’émergence de la résistance dans le cadre d’une cohorte de sujets infectés par le VIH-1, enrôlés au Mali pour recevoir la thérapie antirétrovirale. La première partie de ce travail a évalué la résistance primaire auprès de 101 sujets naïfs aux ARV. Cette étude a démontré que la majorité des sujets (71,3%) étaient infectés par le sous-type CRF02_AG. La prévalence de la résistance primaire était de 9,9%. Ce chiffre dépasse largement la moyenne de 5,5% observée dans les pays en développement et le seuil des 5% fixé par l’OMS dans le cadre de la surveillance de la résistance. Les mutations associées aux analogues de la thymidine ou « Thymidine-associated Mutations » (TAMs): M41L, D67N, L210W, T215A/Y, K219E liées à la résistance aux inhibiteurs nucléosidiques de la transcriptase inverse (INTI) ainsi que les mutations K103N, V108I, V179E et Y181C impliquées dans la résistance aux inhibiteurs non nucléosidiques de la transcriptase inverse (INNTI) étaient majoritairement observées. Ces mutations sont compatibles avec les régimes de traitement de première ligne utilisés au Mali, composés de stavudine/lamivudine/nevirapine. Nous n’avons pas trouvé de mutations majeures aux inhibiteurs de protéase (IP), probablement du fait que cette classe d’ARV est rarement utilisée au Mali. Cependant plusieurs polymorphismes au niveau du gène de la protéase, particulièrement L10I et L10V ont été observés à une fréquence très élevée (18,80%). Compte tenu de ces premiers résultats, une suite logique de ce travail était de savoir comment des souches de sous-type CRF02_AG évolueraient sous la pression de sélection des ARV. Nous avons abordé ces questions dans une étude de cohorte de 132 sujets infectés majoritairement avec le sous-type CRF02_AG débutant une thérapie de première ligne. Nos résultats suggèrent que la présence de mutation de résistance primaire pourrait avoir un effet sur l’efficacité du traitement. Par exemple, la présence d’une seule mutation INNTI avant traitement comme K103N ou V179E était suffisante pour mener à l’échec au traitement (charge virale supérieure à 400 copies/ml). Par ailleurs, nous avons effectué des expériences in vitro pour mieux évaluer l’impact du polymorphisme L10I/V chez le sous-type CRF02_AG. Il faut savoir que le rôle de ce polymorphisme reste incertain chez le sous-type CRF02_AG, car aucune étude in vitro n’avait été réalisée auparavant. Nos résultats indiquent chez le sous-type sauvage CRF02_AGwt_10L une légère augmentation de la concentration inhibitrice 50% (IC50) pour le darunavir, le lopinavir et le nelfinavir comparativement au sous-type de référence B HXB2_10L avec respectivement un « Fold Change » (FC) de 1,2, 1,3 et 1,5. Cette augmentation est plus importante pour le lopinavir avec un FC (1,3) très proche de son seuil biologique (1,6). Comparativement au type sauvage CRF02_AGwt_10L, nos deux mutants CRF02_AGL10I et CRF02_AGL10V ont démontré une légère augmentation d’IC50 pour l’indinavir (avec respectivement un FC de 1,3 et 1,2) et une diminution pour le lopinavir (avec respectivement un FC de 0,78 et 0,75). Toutes ces observations suggèrent que la mutation en position 10 pourrait avoir un impact chez le sous-type CRF02_AG. Toutefois, la signification clinique de ces observations doit être déterminée. En conclusion, nos résultats supportent d’une part la nécessité de renforcer la surveillance de la résistance aux ARV et d’autre part, il fournit des informations nécessaires à l’amélioration des stratégies thérapeutiques afin de prévenir les échecs aux traitements chez les sous-types non B, particulièrement le CRF02_AG.