434 resultados para Dynamique d’acquisition et d’utilisation


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire. Elle réduit le dihydrofolate en tétrahydrofolate, un co-facteur impliqué dans la biosynthèse des purines et du thymidylate. La DHFRh est une cible de choix pour des agents de chimiothérapie comme le méthotrexate (MTX), inhibant spécifiquement l’enzyme ce qui mène à un arrêt de la prolifération et ultimement à la mort cellulaire. Le MTX est utilisé pour le traitement de plusieurs maladies prolifératives, incluant le cancer. La grande utilisation du MTX dans le milieu clinique a mené au développement de mécanismes de résistance, qui réduisent l’efficacité de traitement. La présente étude se penche sur l’un des mécanismes de résistance, soit des mutations dans la DHFRh qui réduisent son affinité pour le MTX, dans le but de mieux comprendre les éléments moléculaires requis pour la reconnaissance de l’inhibiteur au site actif de l’enzyme. En parallèle, nous visons à identifier des variantes plus résistantes au MTX pour leur utilisation en tant que marqueurs de sélection en culture cellulaire pour des systèmes particuliers, tel que la culture de cellules hématopoïétiques souches (CHS), qui offrent des possibilités intéressantes dans le domaine de la thérapie cellulaire. Pour étudier le rôle des différentes régions du site actif, et pour vérifier la présence d’une corrélation entre des mutations à ces régions et une augmentation de la résistance au MTX, une stratégie combinatoire a été dévelopée pour la création de plusieurs banques de variantes à des résidus du site actif à proximité du MTX lié. Les banques ont été sélectionnées in vivo dans un système bactérien en utilisant des milieux de croissance contenant des hautes concentrations de MTX. La banque DHFRh 31/34/35 généra un nombre considérable de variantes combinatoires de la DHFRh hautement résistantes au MTX. Les variantes les plus intéressantes ont été testées pour leur potentiel en tant que marqueur de sélection dans plusieurs lignées cellulaires, dont les cellules hématopoïétiques transduites. Une protection complète contre les effets cytotoxiques du MTX a été observée chez ces cellules suite à leur infection avec les variantes combinatoires. Pour mieux comprendre les causes moléculaires reliées à la résistance au MTX, des études de structure tridimensionnelle de variantes liées au MTX ont été entreprises. La résolution de la structure de la double variante F31R/Q35E lié au MTX a révélé que le phénotype de résistance était attribuable à d’importantes différences entre le site actif de la double variante et de l’enzyme native, possiblement dû à un phénomème dynamique. Une compréhension plus générale de la reconnaissance et la résistance aux antifolates a été réalisée en comparant des séquences et des structures de variantes de la DHFR résistants aux antifolates et provenant de différentes espèces. En somme, ces travaux apportent de nouveaux éléments pour la comprehension des intéractions importantes entre une enzyme et un ligand, pouvant aider au développement de nouveaux antifolates plus efficaces pour le traitement de diverses maladies. De plus, ces travaux ont généré de nouveaux gènes de résistance pouvant être utilisés en tant que marqueurs de sélection en biologie cellulaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le cadre de la recherche d’appui à la phase III du projet huile de palme rouge (HPR) au Burkina Faso, une étude de base a porté sur 150 femmes de la zone de production échantillonnées par la méthode aléatoire géographique. Leur statut en vitamine A (VA) a été évalué par HPLC et leurs apports alimentaires par un questionnaire de fréquence de consommation. Les connaissances, les perceptions, les habitudes d’utilisation et de consommation de l’HPR ont été explorées par un questionnaire pré-testé administré au domicile des participantes. Une étude comparative sur la qualité nutritionnelle, physico-chimique, microbiologique et sensorielle de 13 échantillons d’HPR de différentes provenances a été également réalisée. La prévalence de faibles rétinolémies était de 10,7% et les apports en VA provenaient à 90% des aliments d’origine végétale. Seules 5,9% des femmes productrices présentaient une faible rétinolémie, comparativement à 20,8% des femmes non-productrices d’HPR. Les échantillons d’HPR présentaient un profil satisfaisant mais quelques-uns étaient limites au plan microbiologique. En outre, aucun échantillon ne se distinguait nettement selon tous les paramètres de qualité étudiés. Cette étude démontre que les aliments d’origine végétale riches en caroténoïdes provitaminiques A, dont l’HPR qui en est la meilleure source, peuvent permettre d’avoir un statut adéquat en VA. Les risques de contamination de l’HPR au stade de la vente au détail impliquent une sensibilisation et une formation aux pratiques exemplaires de manipulation. Mots clés : Huile de palme rouge, vitamine A, diversification alimentaire, qualité, Burkina Faso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude qui s’inscrit dans la perspective de l’action située, vise à comprendre le phénomène de (re)construction des communautés de pratique (CoPs) en contexte de fusion hospitalière. La recherche repose sur un devis d’étude de cas longitudinale qui combine plusieurs sources de données : documentaires, d’entretiens semi-directifs et d’observations de terrain. La stratégie d’analyse combine deux méthodes : l’une processuelle, permettant un ordonnancement temporel de récits d’événements et d'activités qui ont contribué à situer l’action dans le temps; l’autre selon l’approche de la théorisation ancrée, a permis la comparaison des données par leur regroupement systématique en catégories et sous catégories, tout au long de la collecte des données. La démarche de recherche processuelle adoptée, nous a conduit à révéler la dynamique de construction d’une communauté de pratique (CoP) à partir des caractéristiques inter reliées, identifiées dans la littérature et qui font référence à un engagement mutuel, une entreprise commune et un répertoire partagé. Ainsi, nos analyses montrent que le domaine d’action qui vient délimiter les points de convergence des participants, constitue le dénominateur commun de la pratique de la communauté qui met à jour des savoirs tacites et explicites qui s’échangent et se développent dans le temps. Cette pratique partagée, éminemment sociale, génère des connaissances et des règles négociées et entretenues par les membres dans le cadre de leurs rencontres. Nos analyses révèlent également que le processus d’évolution d’une communauté de pratique, s’inscrit dans une trajectoire d’apprentissages continue où se combinent de façon dynamique, des temps de participation intense, propices à la construction progressive d’une compréhension commune et négociée du domaine d’action (participation) et des temps de mise en forme de ces représentations (réification). Ici, la dialectique participation/réification qui se donne à voir, révèle un véritable travail d’organisation où la construction du sens à donner à l’action s’instruit à l’aune d’une régulation sociale omniprésente. Toutefois, le résultat de la régulation sociale, n’implique pas de facto, la rencontre d’une régulation conjointe. Plutôt, nos résultats mettent à jour un ensemble de régulations, tantôt concurrentes, tantôt en équilibre en regard du contexte dans lequel sont placés les acteurs. Enfin, nos résultats sur la dynamique de (re)construction des communautés de pratique en contexte de fusion, permettent d’appréhender le changement organisationnel non plus sous ses seuls aspects stratégiques et en direction des équipes dirigeantes, mais également sous l’angle des capacités d’acteurs « ordinaires » à l’initier dans une perspective continue et située.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ses entretiens, George Steiner considère la musique rock et le heavy metal comme l’espéranto international des jeunes de notre époque (Steiner, Entretiens, p. 91). Or, cet espéranto porte une dimension religieuse manifeste, entre autres à travers l’usage fréquent d’images et de textes bibliques souvent passés au broyeur des guitares et des voix vociférantes. On peut se demander quelles figures construisent les fragments qui en résultent, souvent irrévérencieux voire scandaleux pour plusieurs. À travers les violences que le rock et surtout le métal infligent au texte biblique, faut-il voir des attaques contre la Bible et contre Dieu, comme le croient plusieurs chrétiens, ou, au contraire, un respect profond de la dynamique de ce texte et un usage légitime de celui-ci ? Davantage portée par la seconde hypothèse, ce texte vise à identifier les usages et les fonctions religieuses de la Bible dans la musique rock.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

« La grande majorité des accidents demeure liée aux comportements dangereux des usagers de la route ». Cet énoncé, lapidaire, fait aujourd’hui figure d’évidence au sein de la communauté des intervenants en sécurité routière. Il repose pourtant sur des prémisses discutables. Le problème le plus fondamental réside dans le fait que la recherche des dernières décennies s’est presque toute entière vouée à l’analyse des seuls aspects défaillants de la conduite (l’accident, les infractions, les erreurs et les fautes de conduite, les conducteurs à risque ou dysfonctionnels, les attitudes et traits de caractère incitant à la conduite dangereuse, etc.). Ce faisant, on a fini par oublier qu’il nous restait encore beaucoup de choses à apprendre sur le fonctionnement usuel de la conduite automobile. Comment, en effet, peut-on escompter élucider tous les rouages de la dynamique accidentelle sans avoir au préalable cerné, et bien compris, les mécanismes de la conduite « ordinaire » ? Comment peut-on parvenir à approfondir notre compréhension des comportements de conduite si l’on fait totalement abstraction de toutes les activités courantes, « normales », auxquelles se livrent les conducteurs lorsqu’ils sont au volant de leur véhicule ? C’est dans la perspective de mieux comprendre les comportements de conduite, dans leur complexité et dans leur diversité, que la présente thèse a été réalisée. Y a plus spécifiquement été examinée la question des habitudes en raison de leur prédominance dans l’activité de la conduite, mais également en raison de leur résistance, des obstacles bien concrets qu’elles sont susceptibles d’opposer à tous ceux qui tentent de modifier les comportements individuels de conduite. Des entrevues en profondeur, menées auprès de trente conducteurs et conductrices âgé(e)s de 17 à 54 ans, devaient permettre de répondre, entre autres, aux questions suivantes : De quoi sont constituées les différentes habitudes en matière de conduite automobile ? Quelle place occupent-elles dans la conduite des individus ? En quoi constituent-elles un frein au changement, à la modification des pratiques adoptées ? Quelles sont les dimensions qui participent à leur installation ? Les résultats de l’analyse ont permis de jeter les bases d’un modèle des comportements de conduite où les sensations corporelles se voient conférer un rôle des plus centraux, et où l’habitude – bien davantage caractérisée par la notion de confort que par celles d’automatisme ou de répétition – concourt non seulement à la pérennité, mais également à la régulation des conduites adoptées sur la route.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse comprend deux parties distinctes, dans lesquelles seront décrits tout d’abord, le développement d’un procédé multicatalytique en un seul pot d’une réaction de méthylénation suivie d’un couplage de Heck, puis dans un second temps, une étude vers la synthèse de l’Hodgsonox. Le premier thème de la thèse correspond à la mise en place d’un procédé en un seul pot, basé sur la méthodologie de méthylénation catalysée par un métal de transition, développée au sein du groupe du Pr. Lebel, et sur des couplages de Heck. Différentes études de compatibilité des réactifs mis en présence sont abordées, ainsi que le choix des conditions optimales (Pd(OAc)2 et P(o-tol)3) pour la réalisation d’un tel système qui ne requiert aucun isolement du produit intermédiaire. Il a été démontré que la présence de triphénylphosphine en excès inhibe la réaction de couplage de Heck, ce qui a finalement orienté notre choix vers les sels de cuivre pour la catalyse de la réaction de méthylénation. Le tandem séquentiel a ensuite été appliqué à la synthèse de divers stilbènes, notamment des composés dérivés du Resvératrol, molécule d’intérêt thérapeutique pour les maladies cardiovasculaires, et à la synthèse d’indanes substitués, avec un couplage intramoléculaire, avec de bons rendements. La deuxième partie de cette thèse traite de l’étude menée vers la synthèse de l’Hodgsonox. Cette molécule correspond à une nouvelle classe de sesquiterpènes tricycliques, comportant un dihydropyrane doté d’une fonction éther diallylique. Cette molécule représente un défi synthétique pour le groupe du Pr. Lebel, qui envisage de synthétiser les deux doubles liaisons terminales au moyen de la méthodologie de méthylénation développée au sein du groupe. L’Hodgsonox, dont la biosynthèse utilise la voie MEP, a un potentiel insecticide pour la croissance de la larve de la mouche verte d’Australie, Lucilia cuprina. La synthèse envisagée au cours de ces travaux est basée sur la formation préalable d’un cycle à 5 chaînons, comportant 3 centres stéréogéniques, puis sur la cyclisation du cycle pyranique au moyen d’une réaction d’insertion dans un lien O H. Un dédoublement cinétique dynamique sur une δ butyrolactone substituée permet de fixer la stéréochimie relative de deux centres chiraux dès la première étape. Le cycle à 5 chaînons est ensuite formé par métathèse après 6 étapes avec un rendement de 37%. Une addition conjuguée suivie d’une réaction de Saegusa et d’une réaction d’hydrosilylation introduit le groupement isopropyle de manière syn. Après mise en place d’un groupement céto-ester, un transfert de groupement diazonium permet de préparer le précurseur pour la réaction d’insertion dans un lien O-H. Le bicycle correspondant à la structure de base de l’Hodgsonox a été préparé au moyen de 16 étapes linéaires avec un rendement global de 12%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Comprendre le mode d’existence de l’organisation est certainement l’un des plus grands défis que se sont donnés les chercheurs qui s’intéressent à ce domaine d’étude. La littérature nous présente ainsi plusieurs images, métaphores et perspectives qui, combinées, dressent un portrait hybride de ce type de collectif. Je propose, dans cette thèse, de reconnaître et exploiter ce caractère hybride de l’organisation en partant d’une réflexion centrée sur l'espace. En m’inspirant particulièrement des travaux de la géographe Doreen Massey (1999, 2005), le concept d'espace auquel je souscris est celui d’un espace ouvert et dynamique (qui incorpore le temps), basé sur une relationalité matérielle et hétérogène, supposant des acteurs humains et non humains en interaction. L'espace peut donc être compris comme la coexistence d’ontologies hétérogènes, ce que Massey (2005) nomme une coexistence de trajectoires comme stories-so-far. Il s’agit ici d’une vision performative de l’espace organisationnel qui est constitué dans la relation de trajectoires distinctes qui coexistent, se rencontrent, s’affectent, entrent en conflit ou coopèrent (Massey, 1999). Je postule que pour assurer une certaine continuité et cohérence dans la coexistence de trajectoires hétérogènes, un travail d’alignement et d’ordonnancement est mis à l’oeuvre, et ce, par le suivi d’une trajectoire principale — ce que je nomme une trajectoire scriptée. Suivre cette trajectoire permet ainsi à l’organisation de s’étendre, de se rendre présente dans le temps et dans l’espace, sans pour autant perdre son identité : to be here and there at the same time, now and then at the same place. À partir de cette définition de l’espace, je propose d’« espacer l’organisation », et plus particulièrement d’« espacer » Explora, un programme d’éducation non formelle du gouvernement du Chili visant la diffusion et la valorisation de la science et de la technologie. Cette proposition est double : elle renvoie aux pratiques d’espacements — des pratiques hybrides, collectives et situées — des agents organisationnels (dans ce cas, aux pratiques des agents d’Explora impliqués dans l’organisation d’un projet, celui de la Semaine de la science 2006),mais aussi à une pratique de recherche. « Espacer l’organisation » veut donc dire déployer ces espaces pleins, déplier l’organisation, accroître la série des simultanéités-successions pour ainsi créer plus d’espace-temps.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

ARTICLE 1 : RÉSUMÉ Amputation traumatique: Une étude de cas laotien sur l’indignation et l’injustice. La culture est un contexte essentiel à considérer pour produire un diagnostic et un plan d’intervention psychiatrique. Une perspective culturelle met en relief le contexte social dans lequel les symptômes émergent, et comment ils sont interprétés et gérés par la personne atteinte. Des études ethnoculturelles sur les maladies nous suggèrent que la plupart des gens nous donnent des explications pour leurs symptômes qui ont un fondement culturel. Bien que ces explications contredisent la théorie biomédicale, elles soulagent la souffrance des patients et leur permettent de donner une signification à cette dernière. L’exploration des caractéristiques, contextes et antécédents des symptômes permet au patient de les communiquer au clinicien qui pourrait avoir une explication différente de sa maladie. Cette étude de cas permet de montrer comment le Guide pour Formulation Culturelle du DSM-IV (The DSM-IV Outline for Cultural Formulation) permet aux cliniciens de solliciter un récit du patient en lien avec son expérience de la maladie. Notre étude examine l’utilisation par un patient laotien de « l’indignation sociale » (« Khuâm khum khang ») comme le modèle explicatif culturel de son problème malgré le diagnostic de trouble de stress post-traumatique qui lui fut attribué après une amputation traumatique. L’explication culturelle de son problème a permis au patient d’exprimer la signification personnelle et collective à sa colère et sa frustration, émotions qu’il avait réprimées. Cet idiome culturel lui a permis d’exprimer sa détresse et de réfléchir sur le système de soins de santé et, plus précisément, le contexte dans lequel les symptômes et leurs origines sont racontés et évalués. Cette représentation laotienne a aussi permis aux cliniciens de comprendre des expériences et les explications du client, autrement difficiles à situer dans un contexte biomédical et psychiatrique Euro-américain. Cette étude démontre comment il est possible d’améliorer les interactions entre cliniciens et patients et dès lors la qualité des soins par la compréhension de la perspective du patient et l’utilisation d’une approche culturelle. Mots clés: Culture, signification, idiome culturel, modèle explicatif, Guide pour Formulation culturelle du DSM-IV, indignation sociale, interaction entre patient et intervenant. ARTICLE 2 : RÉSUMÉ Impact de l’utilisation du Guide pour la formulation culturelle du DSM-IV sur la dynamique de conférences multidisciplinaires en santé mentale. La croissance du pluralisme culturel en Amérique du nord a obligé la communauté oeuvrant en santé mentale d’adopter une sensibilité culturelle accrue dans l’exercice de leur métier. Les professionnels en santé mentale doivent prendre conscience du contexte historique et social non seulement de leur clientèle mais également de leur propre profession. Les renseignements exigés pour les soins professionnels proviennent d’ évaluations cliniques. Il faut examiner ces informations dans un cadre culturellement sensible pour pouvoir formuler une évaluation des cas qui permet aux cliniciens de poser un diagnostic juste et précis, et ce, à travers les frontières culturelles du patient aussi bien que celles du professionnel en santé mentale. Cette situation a suscité le développement du Guide pour la formulation culturelle dans la 4ième édition du Manuel diagnostique et statistique des troubles mentaux américain (Diagnostic and Statistical Manual of Mental Disorders (4th ed., DSM-IV) de l’Association psychiatrique américaine. Ce guide est un outil pour aider les cliniciens à obtenir des informations de nature culturelle auprès du client et de sa famille afin de guider la production des soins en santé mentale. L’étude vise l’analyse conversationnelle de la conférence multidisciplinaire comme contexte d’utilisation du Guide pour la formulation culturelle qui sert de cadre dans lequel les pratiques discursives des professionnels de la santé mentale évoluent. Utilisant la perspective théorique de l’interactionnisme symbolique, l’étude examine comment les diverses disciplines de la santé mentale interprètent et conceptualisent les éléments culturels et les implications de ce cadre pour la collaboration interdisciplinaire dans l’évaluation, l’élaboration de plans de traitement et des soins. Mots clé: Guide pour Formulation culturelle – Santé mentale – Psychiatrie transculturelle – Analyse conversationnelle – Interactionnisme symbolique

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Communication présentée au Premier Congrès des milieux documentaires du Québec le 12 novembre 2009, Palais des congrès de Montréal. Comprend une annexe comportant un exemple d'élément RDA, des exemples de notices RCAA2 et RDA en MARC 21 ainsi qu'une bibliographie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce travail de maîtrise a mené à la rédaction d'un article (Physical Review A 80, 062319 (2009)).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Bien qu’on ait longtemps considéré le désespoir ou la souffrance comme un facteur de précipitation de l’expérience religieuse, aucune étude n’a été effectuée sur les liens entre une expérience d’abus sexuels et une conversion religieuse subséquente. Une revue de la littérature sur la dynamique religieuse des abus sexuels révèle deux paradigmes opposés : la religion comme ressource ou comme facteur de risque. De même, un examen des études sur la conversion indique trois dichotomies : un converti actif ou passif, une conversion soudaine ou progressive, et la conversion comme phénomène normal ou pathologique. Or, un recensement des témoignages anecdotiques de victimes d’abus sexuels qui ont subséquemment vécu une conversion suggère que l'interaction entre les deux événements est plus complexe. Pour dépasser ces dichotomies paradigmatiques, nous préconisons une approche narrative. Plus spécifiquement, nous utilisons le concept d’identité narrative développé par Paul Ricœur. Ce concept s’inscrit dans la dynamique ricœurienne de triple mimèsis, laquelle assure une fonction de liaison entre le champ pratique et le champ narratif. De façon générale, notre stratégie méthodologique consiste à déterminer comment, à partir d’éléments biographiques issus de la préfiguration (mimèsis I), le sujet configure son récit pour donner sens à son expérience (mimèsis II) et la refigure pour aboutir à une identité de survivant ou de converti (mimèsis III). Sept entrevues non directives ont été effectuées auprès de personnes qui ont subi des abus sexuels durant leur enfance et qui ont plus tard vécu une conversion religieuse dans le milieu évangélique. À partir de l'analyse en trois étapes mentionnée ci-dessus, nous évaluons la contribution positive ou négative des divers éléments narratifs et, surtout, de leur interaction à la construction de l’identité narrative du sujet. Nous en concluons que le rapport entre des abus sexuels subis durant l’enfance et une conversion ultérieure n’est pas si simple que la littérature pourrait le laisser soupçonner. La conversion peut s’avérer salutaire à la survie du sujet et contribuer à la guérison du traumatisme sexuel qu’il a subi. Toutefois, certains éléments religieux peuvent faire obstacle au processus de recouvrement. Ces éléments nocifs varient d’un sujet à l’autre, et ce qui est délétère pour l’un peut être bénéfique pour l’autre, selon la configuration du récit.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.