982 resultados para Changement thérapeutique
Resumo:
L’asthme est une maladie multifactorielle hétérogène qui engendre une inflammation pulmonaire associée à une variété de manifestations cliniques, dont des difficultés respiratoires graves. Globalement, l’asthme touche environ une personne sur 6 et présente actuellement un sérieux problème de santé publique. Bien que de nombreux traitements soient disponibles pour soulager les symptômes de la maladie, aucun traitement curatif n’est actuellement disponible. La compréhension des mécanismes qui régissent l’état inflammatoire au cours de la maladie est primordiale à la découverte de nouvelles cibles thérapeutiques efficaces. Les cellules dendritiques captent les allergènes dans les poumons et migrent vers les ganglions drainants pour les présenter aux cellules T et engendrer la réponse inflammatoire pathogénique chez les asthmatiques. Nous avons contribué à l’avancement des connaissances mécanistiques de l’asthme en identifiant chez la souris la sous-population de cellules dendritiques responsable de l’initiation et du maintien de la réponse inflammatoire locale et systémique associée à l’asthme. En effet, nous avons démontré que le SIRPα, récepteur extracellulaire impliqué dans la régulation de la réponse immune, est sélectivement exprimé à la surface des cellules dendritiques immunogéniques. L’interruption de la liaison entre le SIRPα et son ligand, le CD47, interfère avec la migration des cellules dendritiques SIRPα+ et renverse la réponse inflammatoire allergique. Ce mécanisme constitue une avenue thérapeutique prometteuse. D’ailleurs, les molécules de fusion CD47-Fc et SIRPα-Fc se sont avérées efficaces pour inhiber l’asthme allergique dans le modèle murin. Nous avons également démontré l’implication des cellules dendritiques SIRPα dans un modèle d’inflammation pulmonaire sévère. L’administration répétée de ces cellules, localement par la voie intra-trachéale et systémiquement par la voie intra-veineuse, mène au développement d’une réponse inflammatoire mixte, de type Th2-Th17, similaire à celle observée chez les patients atteints d’asthme sévère. La présence de cellules T exprimant à la fois l’IL-17, l’IL-4, l’IL-13 et le GATA3 a été mise en évidence pour la première fois in vitro et in vivo dans les poumons et les ganglions médiastinaux grâce à ce modèle. Nos expériences suggèrent que ces cellules Th2-Th17 exploitent la plasticité des cellules T et sont générées à partir de la conversion de cellules Th17 qui acquièrent un phénotype Th2, et non l’inverse. Ces résultats approfondissent la compréhension des mécanismes impliqués dans l’initiation et le maintien de l’asthme allergique et non allergique, en plus d’ouvrir la voie à l’élaboration d’un traitement spécifique pour les patients asthmatiques, particulièrement ceux pour qui aucun traitement efficace n’est actuellement disponible.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
L’intérêt pour les hélicènes s’est accru au fur et à mesure que de nouvelles applications pour ce genre de molécules ont été découvertes. Par contre, la recherche dans ce domaine a été limitée par le petit nombre de voies de synthèse de ces molécules, la plupart nécessitant une étape de résolution ou de séparation des énantiomères par HPLC à la fin de la synthèse. Le présent projet de recherche propose d’utiliser la réaction de fermeture de cycle asymétrique par métathèse d’oléfines (asymmetric ring closing metathesis, ARCM) pour effectuer une synthèse d’hélicène à la fois catalytique et énantiosélective. La synthèse énantiosélective du [7]hélicène a été effectuée à l’aide d’une résolution cinétique du précurseur racémique. Au cours de cette synthèse, nous avons été en mesure de démontrer l’efficacité de différents catalyseurs de métathèse chiraux en plus de démontrer l’effet de l’ajout de simples oléfines comme additifs à la réaction. De plus, nous avons formulé une hypothèse expliquant cet effet à l’aide du mécanisme de la réaction. Finalement, nous avons aussi montré l’effet du changement de solvant sur la sélectivité de la réaction. Au cours de ces travaux, nous avons également développé une nouvelle méthode de synthèse de binaphtols à l’aide d’une réaction de couplage oxydatif impliquant un catalyseur de cuivre. À l’aide d’études de réactivité, nous avons été en mesure de démontrer que le métal portait deux ligands N-hétérocycliques (NHC). Nous avons aussi observé que le catalyseur favorisait la formation de binaphtol non symétrique avec un groupement naphtol avec une densité électronique élevée et un autre groupement naphtol avec une faible densité électronique.
Resumo:
Cette thèse vise à répondre à trois questions fondamentales: 1) La diminution de l’excitabilité corticospinale et le manque d’inhibition intracorticale observés suite à la stimulation magnétique transcrânienne (SMT) du cortex moteur de la main atteinte de sujets hémiparétiques sont-ils aussi présents suite à la SMT du cortex moteur de la jambe atteinte? 2) Est-ce que les altérations dans l’excitabilité corticomotrice sont corrélées aux déficits et incapacités motrices des personnes ayant subi un accident vasculaire cérébral depuis plus de 6 mois? 3) La vibration musculaire, étant la source d’une forte afférence sensorielle, peut-elle moduler l’excitabilité corticomotrice et améliorer la performance motrice de ces personnes? Premièrement, afin d’appuyer notre choix d’intervention et d’évaluer le potentiel de la vibration mécanique locale pour favoriser la réadaptation des personnes ayant une atteinte neurologique, nous avons réalisé une révision en profondeur de ses applications et intérêts cliniques à partir d’informations trouvées dans la littérature scientifique (article 1). La quantité importante d’information sur les effets physiologiques de la vibration contraste avec la pauvreté des études qui ont évalué son effet thérapeutique. Nous avons trouvé que, malgré le manque d’études, les résultats sur son utilisation sont encourageants et positifs et aucun effet adverse n’a été rapporté. Dans les trois autres articles qui composent cette thèse, l’excitabilité des circuits corticospinaux et intracorticaux a été étudiée chez 27 sujets hémiparétiques et 20 sujets sains sans atteintes neurologiques. Les fonctions sensorimotrices ont aussi été évaluées par des tests cliniques valides et fidèles. Tel qu’observé à la main chez les sujets hémiparétiques, nous avons trouvé, par rapport aux sujets sains, une diminution de l’excitabilité corticospinale ainsi qu’un manque d’inhibition intracorticale suite à la SMT du cortex moteur de la jambe atteinte (article 2). Les sujets hémiparétiques ont également montré un manque de focus de la commande motrice lors de l’activation volontaire des fléchisseurs plantaires. Ceci était caractérisé par une augmentation de l’excitabilité nerveuse des muscles agonistes, mais aussi généralisée aux synergistes et même aux antagonistes. De plus, ces altérations ont été corrélées aux déficits moteurs au membre parétique. Le but principal de cette thèse était de tester les effets potentiels de la vibration des muscles de la main (article 3) et de la cuisse (article 4) sur les mécanismes neuronaux qui contrôlent ces muscles. Nous avons trouvé que la vibration augmente l’amplitude de la réponse motrice des muscles vibrés, même chez des personnes n’ayant pas de réponse motrice au repos ou lors d’une contraction volontaire. La vibration a également diminué l’inhibition intracorticale enregistrée au quadriceps parétique (muscle vibré). La diminution n’a cependant pas été significative au niveau de la main. Finalement, lors d’un devis d’investigation croisé, la vibration de la main ou de la jambe parétique a résulté en une amélioration spécifique de la dextérité manuelle ou de la coordination de la jambe, respectivement. Au membre inférieur, la vibration du quadriceps a également diminuée la spasticité des patients. Les résultats obtenus dans cette thèse sont très prometteurs pour la rééducation de la personne hémiparétique car avec une seule séance de vibration, nous avons obtenu des améliorations neurophysiologiques et cliniques.
Resumo:
Notre recherche analyse des discours théologiques qui épousent les traits caractéristiques de l’afro-descendance dans des ouvrages de l’Atabaque et de la Conférence Haïtienne des Religieux et Religieuses (CHR). Ces publications permettent de nommer la réflexion théologique afro-brésilienne et haïtienne comme l’expression d’un engagement au sein d’un Brésil multiculturel et métissé et d’une Haïti noire. Elles se réfèrent à la lutte des Afro-descendants et à leur résistance contre ce qu’ils considèrent comme les conséquences de la période de l’esclavage commencée au XVIe siècle qui oppriment encore des Noirs au XXIe siècle et empêchent leur pleine émancipation. Elles font partie d’une démarche postcolonialiste de changement qui inclut l’inculturation et la reconnaissance des forces des religions de matrices africaines dans leur quête d’une pleine libération des Noirs. Notre démarche, basée sur l’étude comparative des contenus de ces théologies développées au Brésil et en Haïti, met en relief des éléments essentiels de deux courants distincts de production théologique de 1986 à 2004. Cette délimitation correspond à la période de publication du résultat de trois consultations sur les théologies noires au Brésil en 1986, en 1995 et en 2004. Les ouvrages de la CHR datent de 1991 à 1999. Notre étude permet de suivre la pratique de la foi chrétienne qui s’y dégage, l’élaboration et le parcours d’évolution de cette pensée. Teologia Negra et théologie haïtienne représentent deux manières distinctes de faire de la théologie noire. Une comparaison entre les deux contextes n’a jamais été faite jusqu’à présent. Cette recherche a conduit au constat selon lequel trois paradigmes peuvent englober les principaux aspects des courants théologiques afro-brésiliens et haïtiens. Nous relevons des convergences et des divergences des paradigmes de l’inculturation libératrice, du postcolonialisme et du pluralisme religieux. La réflexion théologique afro-brésilienne est vue comme une démarche sociopolitique, ancrée surtout dans la promotion des actions positives qui consistent à favoriser l’insertion des Noirs en situation relativement minoritaire dans une société multiculturelle. En Haïti, où les Noirs sont en situation majoritaire, cette réflexion théologique va dans la direction de la sauvegarde des racines historiques en vue de motiver des changements dans une société de Noirs. Cette optique de la question des Noirs, interprétée sous un nouvel angle, offre de nouvelles pistes de réflexion théologique en même temps qu’elle renforce les revendications culturelles des Afro-Brésiliens et des Afro-Haïtiens dans le but d’élaborer un nouveau discours théologique. Notre thèse contribue à mettre en évidence deux institutions qui se dévouent à la cause des Afro-Brésiliens et des Afro-Haïtiens. L’œuvre de l’Atabaque et de la CHR témoigne du fait que celles-ci ont été susceptibles d’agir collectivement en contribuant à la diversité de la réflexion théologique des Afro-descendants, en soutenant un processus de solidarité entre les victimes permanentes du racisme explicite et implicite. Notre étude suscite l’ouverture vers le développement d’une théologie de la rencontre au sein des théologies noires tout en érigeant le défi de construire un réseau Brésil-Haïti à partir des Afro-descendants. Finalement, la spécificité de ces théologies contribue à inspirer le christianisme latino-américain et des Caraïbes et cette réflexion ne se limite pas seulement à ces deux pays, mais s’étend à d’autres contextes latino-américains ou africains.
Resumo:
La généralisation des acquis dans le domaine de l’agression sexuelle peut se subdiviser en deux volets, soit la généralisation qui se produit lors du traitement et celle suivant le retour dans la collectivité. Le modèle de traitement cognitivo-comportemental, basé sur les principes du risque, des besoins et de la réceptivité, permet une réduction significative des taux de récidive. Plus spécifiquement, les besoins criminogènes ciblés chez chacun des délinquants et le type de stratégies apprises en traitement peuvent influer sur le processus de généralisation des acquis. De la même façon, les caractéristiques propres à l’agresseur sexuel ont également un rôle à jouer. Lors de la libération, la considération et la mise en place de certaines mesures, telles que le plan de réinsertion sociale, les besoins sociaux et individuels, l’employabilité, le logement et la continuité thérapeutique importent afin de faciliter le maintien des acquis. Ainsi, le présent projet de maîtrise vise à mettre de l’avant une meilleure compréhension du phénomène de la généralisation des acquis chez quatre délinquants sexuels suivis dans la collectivité (Centre de psychiatrie légale de Montréal), à la suite d’un traitement d’un an complété à l’Institut Philippe-Pinel de Montréal. Dans le but de comprendre les facteurs pouvant favoriser ce processus, nous avons étudié la manière dont ces différents facteurs se sont présentés chez les délinquants sexuels à l’étude et l’impact lié à la présence ou à l’absence de ces variables. L’analyse clinique du matériel obtenu a démontré, d’une part, que la généralisation des acquis est facilitée lorsque l’ensemble des besoins criminogènes sont des cibles de traitement et que, d’autre part, le délinquant est en mesure d’appliquer des stratégies cognitivo-comportementales plutôt que des techniques purement cognitives. Par ailleurs, la présence d’impulsivité et de problèmes individuels non stabilisés peut nuire au processus. Finalement, il est ressorti que la généralisation des acquis est plus facilement atteignable lorsque les variables identifiées comme étant propices à une réinsertion sociale réussie sont présentes dans le quotidien des délinquants.
Resumo:
Diverses études se sont penchées sur les paramètres EEG du sommeil en ondes lentes, y compris l’activité en ondes lentes en lien avec le somnambulisme, mais les résultats se révèlent inconsistants et contradictoires. Le premier objectif de la présente étude était d’analyser quantitativement l’EEG en sommeil en mesurant les fluctuations de puissance spectrale en delta (1-4 Hz) et delta lent (0.5-1 Hz) avant des épisodes de somnambulisme. Le second était de détecter les oscillations lentes (> 75 μV, fréquence d'environ 0.7-0.8 Hz) et très lentes (> 140 μV, fréquence d'environ 0.7-0.8 Hz) afin d'examiner leur changement d'amplitude et de densité avant de tels épisodes. Suite à une privation de sommeil de 25 heures, les enregistrements polysomnographiques de 22 adultes atteints de somnambulisme ont été scrutés. L’analyse des 200 secondes avant les épisodes révèle que ceux-ci ne sont pas précédés d’une augmentation graduelle de puissance spectrale en delta ni en delta lent, tant sur les dérivations frontale, centrale que pariétale. Toutefois, une hausse statistiquement significative de la densité des oscillations lentes et des oscillations très lentes a été observée au cours des 20 sec immédiatement avant le début des épisodes. Reste à déterminer le rôle exact de ces paramètres de l’EEG en sommeil par rapport à la manifestation et au diagnostic des parasomnies en sommeil lent.
Resumo:
La sclérose en plaques (SEP) est caractérisée par des infiltrations périvasculaires de cellules immunitaires et par de la démyélinisation au sein du système nerveux central (SNC). Ces deux paramètres de la maladie sont associés à la fragilisation de la barrière hémato-encéphalique (BHE). En ce sens, le recrutement des cellules présentatrices d’antigène (CPA) myéloïdes, telles que les monocytes, les macrophages et les cellules dendritiques, dans le SNC à travers la BHE, est une étape cruciale dans l’initiation et la persistance de l’inflammation cérébrale. Nerve injury-induced protein (Ninjurin)-1 est une nouvelle molécule d’adhérence qui médie une interaction de type homophilique et dont l’expression sur l’endothélium vasculaire de la BHE humaine fut identifiée grâce à une analyse protéomique des protéines associées à la BHE. Les résultats présentés dans ce mémoire montrent que l’expression de Ninjurin-1 augmente dans un contexte inflammatoire dans les cultures primaires de cellules endothéliales de la BHE (CE-BHE) et sur les CPA myéloïdes humaines ex vivo et générées in vitro. De plus, les CPA infiltrantes retrouvées dans les lésions cérébrales de patients atteints de SEP et dans le SNC des souris atteintes d’encéphalomyélite autoimmune expérimentale (EAE), le modèle murin de la SEP, expriment de hauts niveaux de Ninjurin-1. À l’aide du modèle in vitro de la BHE, la neutralisation de Ninjurin-1 restreint spécifiquement la migration des monocytes à travers les CE-BHE sans affecter le recrutement des lymphocytes, ni la perméabilité des CE-BHE. Enfin, les souris atteintes d’EAE et traitées avec un peptide bloquant dirigé contre Ninjurin-1 présentent une maladie moins sévère ainsi qu’une diminution des CPA infiltrant le SNC et ce comparé au groupe contrôle. Ces résultats suggèrent que Ninjurin-1 est une molécule d’adhérence de la BHE impliquée dans le recrutement de CPA myéloïdes au sein du SNC et qu’elle peut être considérée comme une cible thérapeutique potentielle en SEP.
Évaluation de l'impact clinique et économique du développement d'un traitement pour la schizophrénie
Resumo:
Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.
Resumo:
L’évolution technologique et l'accroissement de la population vieillissante sont deux tendances majeures de la dernière décennie. Durant cette période, la prolifération ubiquitaire de la téléphonie mobile a changé les habitudes de communication des gens. Le changement constant des appareils téléphoniques portatifs, l'augmentation des fonctions, la diversité iconographique, la variété des interfaces et la complexité de navigation exigent aujourd’hui non seulement plus de temps d'adaptation et d’apprentissage, mais représentent aussi un effort cognitif important. Les technologies d'information et de communication (TIC) sont devenues des outils incontournables de la vie moderne. Pour les personnes âgées, cet univers en perpétuelle mutation avec ces nouveaux appareils représente un obstacle à l’accès à l’information et contribue ainsi au gap générationnel. Le manque de référence et de soutien et les déficiences physiques ou cognitives, que certaines personnes développent en vieillissant, rendent l'usage de ce type d’objet souvent impossible. Pourtant, les produits intelligents plus accessibles, tant au niveau physique que cognitif sont une réelle nécessité au sein de notre société moderne permettant aux personnes âgées de vivre de manière plus autonome et « connectée ». Cette recherche a pour but d'exposer les défis d'usage des téléphones portables existants et d'identifier en particulier les problèmes d’usage que les personnes âgées manifestent. L’étude vise la tranche de population qui est peu habituée aux technologies de communications qui ne ciblent le plus souvent que les plus jeunes et les professionnels. C’est en regardant les habitudes d’usage, que la recherche qualitative nous permettra d’établir un profil des personnes âgées par rapport au TIC et de mieux comprendre les défis liés à la perception, compréhension et l’usage des interfaces de téléphones portables.
Resumo:
La thèse présente une analyse conceptuelle de l'évolution du concept d'espace topologique. En particulier, elle se concentre sur la transition des espaces topologiques hérités de Hausdorff aux topos de Grothendieck. Il en ressort que, par rapport aux espaces topologiques traditionnels, les topos transforment radicalement la conceptualisation topologique de l'espace. Alors qu'un espace topologique est un ensemble de points muni d'une structure induite par certains sous-ensembles appelés ouverts, un topos est plutôt une catégorie satisfaisant certaines propriétés d'exactitude. L'aspect le plus important de cette transformation tient à un renversement de la relation dialectique unissant un espace à ses points. Un espace topologique est entièrement déterminé par ses points, ceux-ci étant compris comme des unités indivisibles et sans structure. L'identité de l'espace est donc celle que lui insufflent ses points. À l'opposé, les points et les ouverts d'un topos sont déterminés par la structure de celui-ci. Qui plus est, la nature des points change: ils ne sont plus premiers et indivisibles. En effet, les points d'un topos disposent eux-mêmes d'une structure. L'analyse met également en évidence que le concept d'espace topologique évolua selon une dynamique de rupture et de continuité. Entre 1945 et 1957, la topologie algébrique et, dans une certaine mesure, la géométrie algébrique furent l'objet de changements fondamentaux. Les livres Foundations of Algebraic Topology de Eilenberg et Steenrod et Homological Algebra de Cartan et Eilenberg de même que la théorie des faisceaux modifièrent profondément l'étude des espaces topologiques. En contrepartie, ces ruptures ne furent pas assez profondes pour altérer la conceptualisation topologique de l'espace elle-même. Ces ruptures doivent donc être considérées comme des microfractures dans la perspective de l'évolution du concept d'espace topologique. La rupture définitive ne survint qu'au début des années 1960 avec l'avènement des topos dans le cadre de la vaste refonte de la géométrie algébrique entreprise par Grothendieck. La clé fut l'utilisation novatrice que fit Grothendieck de la théorie des catégories. Alors que ses prédécesseurs n'y voyaient qu'un langage utile pour exprimer certaines idées mathématiques, Grothendieck l'emploie comme un outil de clarification conceptuelle. Ce faisant, il se trouve à mettre de l'avant une approche axiomatico-catégorielle des mathématiques. Or, cette rupture était tributaire des innovations associées à Foundations of Algebraic Topology, Homological Algebra et la théorie des faisceaux. La théorie des catégories permit à Grothendieck d'exploiter le plein potentiel des idées introduites par ces ruptures partielles. D'un point de vue épistémologique, la transition des espaces topologiques aux topos doit alors être vue comme s'inscrivant dans un changement de position normative en mathématiques, soit celui des mathématiques modernes vers les mathématiques contemporaines.
Resumo:
Cette thèse s’intéresse aux fondements épistémologiques et à la vision que des enseignants d’histoire au secondaire entretiennent à l’égard de l’enseignement de l’histoire et de la formation citoyenne. La réflexion s’inscrit dans le contexte de la refonte des programmes d’enseignement de l’histoire qui engage dorénavant les maîtres d’histoire à éduquer à la citoyenneté démocratique. Ce projet éducationnel repose sur le postulat suivant : l’apprentissage de l’histoire, de sa pensée et de sa méthode permet de former des individus capables de réflexion critique autonome et informée. Cette vision de l’enseignement de l’histoire implique que les élèves s’exercent à la pensée historienne, à l’analyse des sources et à la construction d’interprétations historiques. Ce faisant, ils développeraient une compréhension du monde fondée sur la maîtrise de concepts et une pensée complexe, ce qui servirait de ce fait la citoyenneté. La recherche a par ailleurs démontré que les maîtres avaient recours à des méthodes pédagogiques plus traditionnelles (Charland, 2003; Martineau, 1997). C’est donc à des changements de pratiques qu’appelle le ministère de l’Éducation. Or un tel changement ne se déclare pas « d’en haut ». Les convictions des maîtres sont lentes à se transformer et ce sont elles qui déterminent la formation historienne et citoyenne que recevront les élèves. Nous en avons fait notre objet d’étude pour cette recherche en recourant à la théorie des représentations sociales. Nous avons adopté le modèle du noyau central (Abric, 1994) et celui des principes organisateurs qui permet d’identifier les relations existantes entre plusieurs représentations. Nous avons effectué une recherche exploratoire de type qualitative. Des entretiens individuels semi-dirigés d’une durée moyenne de 120 minutes ont été réalisés avec un échantillon comptant 18 enseignants d’histoire au secondaire de Montréal, de Québec et de communautés amérindiennes du Québec. L’outil de cueillette et d’analyse des données s’inspire grandement des développements méthodologiques réalisés par la recherche sur les représentations sociales (évocation hiérarchisée continuée ou limitée, schémas conceptuels) (Abric, 1994; 1997). Les résultats permettent d’identifier les fondements épistémologiques et didactiques, le contenu et la structure, de même que les relations existant entre les représentations de l’enseignement de l’histoire et de la formation à la citoyenneté. Ils ont également mis en lumière les convictions idéologiques et pédagogiques des maîtres d’histoire.
Resumo:
Cette thèse défend l’idée que plusieurs auteurs modernistes ont utilisé des concepts centraux à la croyance religieuse traditionnelle afin de préconiser le changement social. Au lieu de soutenir l'hypothèse de la sécularisation, qui prétend que les modernistes ont rejeté la religion en faveur d'une laïcité non contestée, j'argumente en faveur de ce que j'appelle « la spiritualité moderniste, » qui décrie une continuité intégrale des concepts spirituels dans l'agitation de la période moderniste qui a déstabilisée les institutions qui avait auparavant jeté les bases de la société Occidentale. En me basant sur les écrit de Sigmund Freud, William James et Émile Durkheim concernant les fins poursuivis par la religion, je développe cinq concepts centraux de la croyance religieuse que les modernistes ont cherché à resignifier, à savoir la rédemption, la communauté, la sacralité, le spectre, et la liturgie, et, dans chaque cas, j'ai montré comment ces catégories ont été réinterprétées pour traiter des questions considérées comme essentielles au début du vingtième siècle, à savoir ce que l’on identifie aujourd’hui comme le féminisme, l'écologie, la biopolitique, les crises, et le rôle du poète. Le chapitre I se concentre sur la rédemption par le féminin telle qu’on la trouve dans le recueil de vers de H.D. portant sur la Seconde Guerre mondiale, Trilogy (1944-1946), qui projette un certain espoir grâce à un mélange synchrétique de Christianisme, de mythes anciens, d’astrologie, et de psychologie. Mon deuxième chapitre discute de The Grapes of Wrath (1939) de John Steinbeck, qui élargit le rôle de la communauté en avançant une écologie universelle qui concevoit tous les gens comme étant intimement liés entre eux et avec le monde. Le chapitre III traite de la notion du sacré dans The Light in August (1932) de Willam Faulkner et Nightwood (1936) de Djuna Barnes, qui préconisent une foi privatisée qui accentue l'illégitimité des concepts de sacralité et de pollution en élevant des individus qui sont marginalisés biopolitiquement. Le chapitre IV cherche à comprendre le retour des morts, et je soutiens que le topos a été utilisé par les modernistes comme un symbole de crises sociales; le chapitre enquête d'abord sur “The Jolly Corner” (1908) de Henry James, que j'ai lu comme la séquence rêvée d'un homme faisant face à son propre spectre, Ulysses (1922) de James Joyce, où Stephen Dedalus est hanté de façon répétée par le spectre de sa mère, et Mrs. Dalloway (1925) de Virginia Woolf, qui se concentre sur le motif caché de la Fête des Morts. Ma cinquième section traite de la liturgie, la langue poétique utilisée pour les rites religieux, dans la première poésie de Wallace Stevens, qui conçoit le rôle du poète comme une vocation de l'imagination.
Resumo:
Thèse réalisée en cotutelle avec l'université Montpellier2 dans le laboratoire de pharmacologie moléculaire de Jean-Philippe Pin à l'institut de génomique fonctionnelle (IGF), Montpellier, France.
Resumo:
Le but principal de cet article est de montrer la nécessité de faire en sorte que la citoyenneté puisse être coresponsable à l’égard du problème du développement. Dans la première partie du travail, l’on présente les paramètres éthiques du modèle, un cadre qu’il ne faut pas inventer car des exigences légitimes existent déjà dans la société civile : les objectifs du développement du millénaire et les trois générations des droits de l’homme. Le point de départ de la deuxième partie de l’article demeure la théorie des capacités de Sen et l’on met l’accent notamment sur le besoin de promouvoir les capacités pour pouvoir rendre compte de notre responsabilité en ce qui concerne le problème du développement. Dans la troisième partie enfin l’on montre un outil didactique qui favorise la sensibilisation vis-à-vis des objectifs du millénaire, tout en les insérant dans le cadre précis des droits de l’homme. Une pratique éducative qui rend possible le fait que l’étudiant devienne le protagoniste du changement et fasse partie de la solution.