961 resultados para Approche spectrale
Resumo:
La présente étude se concentre sur le travail de Nancy Fraser sur la justice sociale, lequel a suscité beaucoup d’intérêt dans la littérature au cours des dernières années. La reconnaissance et la redistribution sont les deux piliers originaux de son approche: les désavantages dont souffrent les gens dus au dénigrement culturel ou à la privation économique. Ces deux concepts servent à diagnostiquer et fournir le soutien moral aux multiples luttes que les victimes d’injustice entreprennent avec l’objectif d’établir une participation plus égalitaire à la société. Cependant, que peut-elle dire cette approche des groupes qui sont marginalisés et cherchent l’autogouvernance (ou la séparation même) plutôt que l’intégration dans la société? Le travail de Fraser manifeste une résistance envers les droits du groupe, et un silence quant à l’autodétermination. Mon intervention prend comme objectif d’inclure ces formes d’injustice dans son approche, la rendant plus sensible aux dynamiques des groupes et capable de répondre à leurs revendications trop souvent négligées sous prétexte de l’égalité. La question est, l’égalité de qui?
Resumo:
Dès le tournant du XIIIe siècle, les écrivains reprennent l’idée d’une quête du Graal, déjà développée par Chrétien de Troyes avec le Conte du Graal, pour y faire entrer plus amplement les traits d’une idéologie ecclésiastique. Les premières proses du Graal présentent alors une nouvelle façon d’exposer certains idéaux de la chevalerie à travers des convictions religieuses. Dans une approche socio-historique, nous nous sommes d’abord penché sur la figure incontournable du roi Arthur, personnage dont le comportement est la cause de la quête du Graal. Plus particulièrement, dans cette recherche, il est question de découvrir comment la position sociale du chevalier tend à s’élever au-dessus de celle du roi. Partant des différentes fonctions royales pour aller vers la nature et le but des aventures vécues par les chevaliers, nous observons pourquoi et comment les auteurs des premières proses du Graal ont tenté d’adapter l’idéologie chevaleresque à l’idéologie ecclésiastique. Il appert que l’influence des discours politiques de cette période médiévale aura joué un rôle important dans cette nouvelle approche de la chevalerie.
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
ARTICLE 1 : RÉSUMÉ Amputation traumatique: Une étude de cas laotien sur l’indignation et l’injustice. La culture est un contexte essentiel à considérer pour produire un diagnostic et un plan d’intervention psychiatrique. Une perspective culturelle met en relief le contexte social dans lequel les symptômes émergent, et comment ils sont interprétés et gérés par la personne atteinte. Des études ethnoculturelles sur les maladies nous suggèrent que la plupart des gens nous donnent des explications pour leurs symptômes qui ont un fondement culturel. Bien que ces explications contredisent la théorie biomédicale, elles soulagent la souffrance des patients et leur permettent de donner une signification à cette dernière. L’exploration des caractéristiques, contextes et antécédents des symptômes permet au patient de les communiquer au clinicien qui pourrait avoir une explication différente de sa maladie. Cette étude de cas permet de montrer comment le Guide pour Formulation Culturelle du DSM-IV (The DSM-IV Outline for Cultural Formulation) permet aux cliniciens de solliciter un récit du patient en lien avec son expérience de la maladie. Notre étude examine l’utilisation par un patient laotien de « l’indignation sociale » (« Khuâm khum khang ») comme le modèle explicatif culturel de son problème malgré le diagnostic de trouble de stress post-traumatique qui lui fut attribué après une amputation traumatique. L’explication culturelle de son problème a permis au patient d’exprimer la signification personnelle et collective à sa colère et sa frustration, émotions qu’il avait réprimées. Cet idiome culturel lui a permis d’exprimer sa détresse et de réfléchir sur le système de soins de santé et, plus précisément, le contexte dans lequel les symptômes et leurs origines sont racontés et évalués. Cette représentation laotienne a aussi permis aux cliniciens de comprendre des expériences et les explications du client, autrement difficiles à situer dans un contexte biomédical et psychiatrique Euro-américain. Cette étude démontre comment il est possible d’améliorer les interactions entre cliniciens et patients et dès lors la qualité des soins par la compréhension de la perspective du patient et l’utilisation d’une approche culturelle. Mots clés: Culture, signification, idiome culturel, modèle explicatif, Guide pour Formulation culturelle du DSM-IV, indignation sociale, interaction entre patient et intervenant. ARTICLE 2 : RÉSUMÉ Impact de l’utilisation du Guide pour la formulation culturelle du DSM-IV sur la dynamique de conférences multidisciplinaires en santé mentale. La croissance du pluralisme culturel en Amérique du nord a obligé la communauté oeuvrant en santé mentale d’adopter une sensibilité culturelle accrue dans l’exercice de leur métier. Les professionnels en santé mentale doivent prendre conscience du contexte historique et social non seulement de leur clientèle mais également de leur propre profession. Les renseignements exigés pour les soins professionnels proviennent d’ évaluations cliniques. Il faut examiner ces informations dans un cadre culturellement sensible pour pouvoir formuler une évaluation des cas qui permet aux cliniciens de poser un diagnostic juste et précis, et ce, à travers les frontières culturelles du patient aussi bien que celles du professionnel en santé mentale. Cette situation a suscité le développement du Guide pour la formulation culturelle dans la 4ième édition du Manuel diagnostique et statistique des troubles mentaux américain (Diagnostic and Statistical Manual of Mental Disorders (4th ed., DSM-IV) de l’Association psychiatrique américaine. Ce guide est un outil pour aider les cliniciens à obtenir des informations de nature culturelle auprès du client et de sa famille afin de guider la production des soins en santé mentale. L’étude vise l’analyse conversationnelle de la conférence multidisciplinaire comme contexte d’utilisation du Guide pour la formulation culturelle qui sert de cadre dans lequel les pratiques discursives des professionnels de la santé mentale évoluent. Utilisant la perspective théorique de l’interactionnisme symbolique, l’étude examine comment les diverses disciplines de la santé mentale interprètent et conceptualisent les éléments culturels et les implications de ce cadre pour la collaboration interdisciplinaire dans l’évaluation, l’élaboration de plans de traitement et des soins. Mots clé: Guide pour Formulation culturelle – Santé mentale – Psychiatrie transculturelle – Analyse conversationnelle – Interactionnisme symbolique
Resumo:
La théorie de la guerre juste a fournit les principes qui forment la base de nos intuitions concernant l’éthique de la guerre pendant plus de milles ans. Cependant, la nature de la guerre a changé drastiquement dans les derniers 50 ans. Avec les avancés technologiques, tous les aspects de la guerre, du champ de bataille aux armes utilisées, sont aujourd’hui très différents. Ce qui est proposé dans ce texte est que les principes de jus in bello sont malgré tout encore adéquats pour les guerres contemporaines. Spécifiquement, en utilisant une analyse historique, ce texte argumentera contre la condition de l’urgence suprême de Michael Walzer pour proposer une approche qui laisse les principes de bases du jus in bello intactes. Ce texte suggère que les théoriciens de la guerre juste se penchent sur la question des armes prohibées pour avoir un impacte positif dans le domaine de l’éthique de la guerre.
Resumo:
Communication présentée au Premier Congrès des milieux documentaires du Québec le 12 novembre 2009, Palais des congrès de Montréal. Comprend une annexe comportant un exemple d'élément RDA, des exemples de notices RCAA2 et RDA en MARC 21 ainsi qu'une bibliographie.
Resumo:
Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.
Resumo:
Ce travail de maîtrise a mené à la rédaction d'un article (Physical Review A 80, 062319 (2009)).
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Facile de discourir sur la paix ; complexe, par contre, d’évaluer si paroles et gestes y contribuent vraiment. De manière critique, ce mémoire cherche à contextualiser l’émergence de la nation israélienne de 1881 à 1948, de même qu’un certain nombre de forces pacifistes juives, religieuses comme séculières, sionistes comme anti-sionistes, que cette société a engendrées ou provoquées de la fin du XIXe siècle à aujourd’hui. Dans un premier temps, quatre stratégies utilisées pour construire l’État juif sont explorées : la voie pratique (l’établissement de mochavot, kibboutzim et mochavim), la voie diplomatique (le lobbying de Herzl et Weizmann), la voie sociopolitique (la formation de syndicats, de l’Agence juive et du Va’ad Leoumi) et enfin la voie militaire (la mise sur pied d’organisations paramilitaires telles la Hagana, l’Irgoun, le Lehi et le Palmah). Cette exploration permet de mieux camper le problème de la légalité et de la légitimité des nations palestinienne et israélienne. Dans un deuxième temps, une approche conceptuelle et une approche empirique sont combinées pour mieux comprendre ce qu’est un camp de la paix. L’exploration conceptuelle remet en question les critères qu’utilisent certains chercheurs afin d’identifier si une organisation contribue, ou non, à la construction de la paix. L’exploration empirique trace les contours de deux camps de la paix israéliens : les militants de la gauche séculière achkenazi (un pacifisme qui a émergé dans les années 1970) et les religieux haredim (un pacifisme opposé à l’idéologie sioniste dès ses débuts). Ce survol permet de saisir que tout système de croyances peut provoquer la guerre autant que la paix. La conclusion discute des défis du dialogue intercivilisationnel, des défis tant intranationaux (l’harmonie sociale israélienne entre les juifs achkenazim, mizrahim, russes, éthiopiens, etc.) qu’internationaux (la paix entre les Palestiniens et les Israéliens).
Resumo:
Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.
Resumo:
Cet ouvrage traite principalement de la synthèse de motifs polypropionates de type stéréopentade ainsi qu’une application à la synthèse d’une molécule naturelle possèdant des propriétés biologiques. La stratégie envisagée pour l’élaboration de ces motifs récurrents dans plusieurs structures d’origine naturelle fait appel à la chimie des radicaux. Cette thèse se divise en différents chapitres dans lesquels la versatilité de la méthodologie développée sera démontrée. En premier lieu, il sera question de présenter l’importance de la synthèse de motifs polypropionates. Le domaine couvert par la chimie de ces molécules complexes hautement fonctionnalisées a contribué énormément à l’avancement de nos connaissances en synthèse organique, particulièrement dans le contexte des réactions impliquant des molécules acyliques. Une brève description des méthodes connues est présentée afin de saisir l’étendue des défis restants pour construire efficacement tous les isomères possibles des polypropionates de type stéréopentade. La stratégie proposée est basée sur une approche contrôlée entièrement par le substrat. Ce contrôle s’appuie sur le choix judicieux de l’acide de Lewis activant les deux réactions impliquées, soit la réaction de Mukaiyama et le transfert d’hydrogène. La seconde section de cette thèse concerne principalement le développement d’une réaction de Mukaiyama impliquant un éther d’énol silylé portant un lien pouvant être homolytiquement brisé dans la réaction suivante et un aldéhyde de type propionate. Le contrôle de l’aldolisation provient de la nature de l’acide de Lewis. Une espèce monodentate (BF3·OEt2) génère une relation 3,4-syn selon le modèle dit Felkin-Anh tandis que les acides de Lewis bidentates mènent à la relation 3,4-anti via un état de transition définit comme Cram-chélate. Une optimisation des conditions réactionnelles en variant l’acidité et la stoechiométrie de l’acide de Lewis de titane a permis de construire diastéréosélectivement le produit de Mukaiyama ayant une relation 3,4-anti. En outre, la nature des complexes impliqués dans ces réactions a été élucidée par des études RMN 13C à basse température. Une fois les précurseurs radicalaires synthétisés, notre méthodologie de réduction par transfert d’hydrogène contrôlée également par les acides de Lewis s’avère très efficace. Les acides de Lewis dérivés d’aluminium mènent sélectivement à la relation 2,3-syn selon un contrôle endocyclique tandis que les acides de Lewis de bore permettent la création des relations 2,3-anti en se basant sur une stabilisation par les divers facteurs de contrôle de molécules acycliques. Cette stratégie novatrice nous a ainsi permis de construire efficacement les 16 diastéréoisomères possibles. Le chapitre suivant concerne l’application de cette méthodologie à la synthèse de l’hémisphère ouest de la salinomycine et de la narasine. Plusieurs défis synthétiques ont été relevés à cette occasion par la présence de nombreux centres stéréogènes contigus. Nous avons réalisé que la relation stéréochimique 2,3-anti de la salinomycine n’est pas accessible sélectivement par la chimie des radicaux via l’effet exocyclique. Des études ont été entreprises afin de comprendre cette perte de sélectivité. Les conclusions suggèrent que les substituants sur le cycle imposent un biais conformationnel conduisant à des faibles sélectivités. Une alternative utilisant un réactif de crotylsilane chiral a été développée pour arriver à la molécule cible. Cette situation est différente dans le cas de la narasine où la présence du méthyle sur le carbone en position β du radical bloque efficacement l’approche d’une des faces d’attaque par l’hydrure. Des sélectivités impressionnantes nous ont permis de construire le fragment C1-C9 de la narasine de manière expéditive et efficace. Finalement, l’élongation sélective utilisant à nouveau la séquence d’aldolisation de Mukaiyama/réduction radicalaire suivie d’un couplage de type aldol stéréosélectif conduit au fragment C1-C17 de la narasine (hémisphère ouest)en 19 étapes avec un rendement global de l’ordre de 7 %. En dernier lieu, nous nous sommes penchés sur la réactivité des α-bromo-β- alkoxycétones lors de transfert d’hydrogène. Nous avons découvert que la chimie de ces derniers pourrait s’avérer utile dans le contexte de la synthèse de motifs complexes polypropionates. La présence d’un centre stéréogène de l’autre coté de la cétone semble avoir un impact sur la sélectivité.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Objectif : La carcinose péritonéale (CP) d’origine appendiculaire est une pathologie rare avec un pauvre pronostic à long terme. Le but de cette étude fut d’évaluer une approche agressive utilisée dans notre institution au cours des cinq dernières années. Méthodes : Les données de tous les patients avec CP d’origine appendiculaire ont été recueillies et analysées de façon prospective. Le traitement consista en une cytoréduction chirurgicale complète de la CP suivie d’une chimiohyperthermie intrapéritonéale (CHIP) à l’oxaliplatine (460 mg/m2) dans 2 L/m2 de D5% à 43°C pendant 30 minutes. Résultats : De février 2003 à mars 2007, 38 patients eurent une laparotomie à visée curative. Vingt-trois patients reçurent la CHIP. Par contre, chez 10 patients, une cytoréduction complète fut impossible et pour 5 autres patients, la chirurgie de « second-look » s’est révélée négative ; ils ne reçurent donc pas de CHIP. Le suivi moyen fut de 23 mois. La survie globale à 3 ans fut de 100% pour le groupe « second-look » négatif, 86% pour le groupe CHIP et 29% pour les patients avec maladie non-résécable (p=0.0098). La survie sans maladie (SSM) à 3 ans fut de 49% pour les patients du groupe CHIP. Le grade histologique fut identifié comme facteur pronostique en regard de la SSM dans le groupe CHIP (p=0.011). Il y eut un décès post-opératoire. Le taux de complications chez les patients traités fut de 39%, incluant les abcès intra-abdominaux (22%), les hémorragies (18%) et les fuites anastomotiques (9%). Conclusion : Bien que ces résultats soient préliminaires, cette approche thérapeutique semble à la fois faisable et sécuritaire chez des patients sélectionnés.
Resumo:
Les équipes virtuelles font l’objet de beaucoup d’attention depuis près de deux décennies. Elles font désormais partie des organisations qui ont dû s’ajuster à l’internationalisation des marchés. Elles sont aussi de plus en plus présentes dans les universités qui mettent en place des cours en environnement virtuel pour préparer leurs étudiants aux nouvelles réalités du marché du travail. Elles sont aussi le fruit des modes nées sous l’impulsion de l’approche constructiviste de la pédagogie. Les recherches qui s’intéressent a elles ont des préoccupations principalement téléologiques et utilitaristes qui donnent le point de vue des gestionnaires et des enseignants sur le phénomène. Peu de recherches se sont penchées sur l’expérience vécue par les membres de ces équipes. Par ailleurs, la volonté de dégager les lois générales des équipes virtuelles amène les chercheurs à l’amputer d’une partie de sa complexité. Notre recherche propose d’observer la manière dont des étudiants ont vécu leur expérience de collaboration en équipe virtuelle. Nous adoptons une posture interprétative et une approche narrative pour observer leur «sensemaking». Cette perspective nous permet de tenir compte de la complexité du phénomène. Nos questions de recherche sont : comment les étudiants font-ils sens de leur collaboration? Comment le «sensemaking» individuel contribue-t-il à construire le «sensemaking» collectif? Nos résultats nous renseignent sur l’importance que revêt le «sensegiving», pour les équipes virtuelles, dans la création de «sensemaking» collectif.