959 resultados para Dynamique d’acquisition et d’utilisation


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette recherche a pour objet l'étude de la dynamique de transformation du métier d'ingénieur dans le contexte algérien saisi à travers le rapport au travail. Elle repose sur une approche théorique s'inspirant d'une sociologie des groupes professionnels avec une démarche alliant méthodes quantitatives et qualitatives. Prenant appui sur des données recueillies à l'aide d'un questionnaire et d'entretiens approfondis menés dans Sonatrach, la plus grande entreprise d'Algérie, notre étude s'est attachée à faire ressortir les facteurs qui agissent au niveau individuel, organisationnel et sociétal sur les pratiques professionnelles pour deux générations d'ingénieurs. La première a eu pour mission de bâtir le pays à travers les grands projets de développement qui ont caractérisé la période après l'indépendance. La deuxième est arrivée sur le marché de l'emploi, à la fin des années 80, dans un contexte de crise et a payé un lourd tribut à la détérioration de la conjoncture économique. Les pratiques professionnelles se construisent tout d'abord dans le travail, mais aussi dans l'exercice des activités quotidiennes, les relations avec les autres et enfin la satisfaction à l'égard du travail. Tels ont été les points focaux de notre démarche d'explicitation du rapport au travail chez nos ingénieurs. Nous avons mis en lumière l'effet de la position hiérarchique au sein de l'organisation et des types de fonction. La satisfaction tient de la fierté d'appartenir à une entreprise prestigieuse. Chez les jeunes, elle s'exprime aussi dans les avantages matériels et une vision du métier fondée sur la maîtrise technique. Les plus âgés, encore marqués par l'idéologie nationaliste, mettent l'accent sur la participation à l'édification du pays, mais aussi sur la réalisation de soi et la fidélité à l'entreprise. Le rapport au travail s'élabore également au fil du temps dans son cheminement professionnel. Nous l'avons abordé, dans une deuxième étape, en documentant les processus d'intégration et de mobilité au sein de l'entreprise. Les trajectoires professionnelles sont régies par des politiques et des procédures de gestion qui en définissent les modalités, mais elles obéissent également à des opportunités et à des pratiques informelles qui jouent un rôle tout aussi important dans la détermination des profils de carrière. Enfin, le rapport au travail est tributaire de facteurs qui dépassent le cadre de l'entreprise. Dans une troisième étape, nous avons analysé les transformations du système éducatif et leur impact sur la certification des ingénieurs, la crise économique et ses effets en termes de chômage et de précarité et enfin la montée du discours religieux et ses manifestations chez les ingénieurs. Ces facteurs liés au contexte sociétal modifient les représentations et modèlent les attitudes et comportements au travail et à l'égard de celui-ci. Comme le montre notre recherche, le rapport au travail articule, dans une composition complexe, parcours individuels et histoires collectives vécus dans des environnements en évolution. La pratique d'un métier se trouve liée aux différents contextes de socialisation qui traversent les individus. Elle se situe, dans le cas algérien, au croisement d'une formation scientifique et technique qui montre peu de réactivité aux besoins mouvants de l'opérateur économique qu'elle est censée satisfaire, d'une entreprise bureaucratique dans son organisation et dans son fonctionnement où le contournement des règles peut s'ériger en principes de gestion et enfin d'un contexte sociétal qui oscille entre modernité et tradition. Cette dernière est réinterprétée de manière orthodoxe par les mouvements religieux en action dans la société. Ainsi, les ingénieurs investis initialement d'une mission de développement et considérés alors comme "vecteur de modernité" connaissent une détérioration de leur statut et la crise touche la profession vécue cependant différemment selon les générations.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La plasticité synaptique est une propriété indispensable à l’acquisition de la mémoire chez toutes les espèces étudiées, des invertébrés aux primates. La formation d’une mémoire débute par une phase de plasticité qui inclut une restructuration synaptique ; ensuite elle se poursuit par la consolidation de ces modifications, contribuant à la mémoire à long terme. Certaines mémoires redeviennent malléables lorsqu’elles sont rappelées. La trace mnésique entre alors dans une nouvelle de phase de plasticité, au cours de laquelle certaines composantes de la mémoire peuvent être mises à jour, puis reconsolidées. L’objectif de la présente thèse est d’étudier les mécanismes cellulaires et moléculaires qui sont activés lors du rappel d’une mémoire. Nous avons utilisé un modèle de conditionnement Pavlovien, combiné à l’administration d’agents pharmacologiques et à l’analyse quantitative de marqueurs de plasticité synaptique, afin d’étudier la dynamique de la mémoire de peur auditive chez des rats Sprague Dawley. La circuiterie neuronale et les mécanismes associatifs impliqués dans la neurobiologie de cette mémoire sont bien caractérisés, en particulier le rôle des récepteurs glutamatergiques de type NMDA et AMPA dans la plasticité synaptique et la consolidation. Nos résultats démontrent que le retour de la trace mnésique à un état de labilité nécessite l’activation des récepteurs NMDA dans l’amygdale baso-latérale à l’instant même du rappel, alors que les récepteurs AMPA sont requis pour l’expression comportementale de la réponse de peur conditionnée. D’autre part, les résultats identifient le rappel comme une phase bien plus dynamique que présumée, et suggèrent que l’expression de la peur conditionnée mette en jeu la régulation du trafic des récepteurs AMPA par les récepteurs NMDA. Le présent travail espère contribuer à la compréhension de la neurobiologie fondamentale de la mémoire. De plus, il propose une intégration des résultats aux modèles animaux d’étude des troubles psychologiques conséquents aux mémoires traumatiques chez l’humain, tels que les phobies et les syndromes de stress post-traumatiques.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trois protéines de la famille TRIM (Motif TRIpartite), TIF1α, β (Transcriptional Intermediary Factor 1) et PML (ProMyelocytic Leukaemia¬), font l’objet de cette étude. TIF1α est connu comme un coactivateur des récepteurs nucléaires et TIF1β comme le corépresseur universel des protéines KRAB-multidoigt de zinc dont le prototype étudié ici est ZNF74. PML possède divers rôles dont le plus caractérisé est celui d’être l’organisateur principal et essentiel des PML-NBs (PML-Nuclear Bodies), des macrostructures nucléaires très dynamiques regroupant et coordonnant plus de 40 protéines. Il est à noter que la fonction de TIF1α, β et PML est régulée par une modification post-traductionnelle, la sumoylation, qui implique le couplage covalent de la petite protéine SUMO (Small Ubiquitin like MOdifier) à des lysines de ces trois protéines cibles. Cette thèse propose de développer des méthodes utilisant le BRET (Bioluminescence Resonance Energy Transfert) afin de détecter dans des cellules vivantes et en temps réel des interactions non-covalentes de protéines nucléaires mais aussi leur couplage covalent à SUMO. En effet, le BRET n’a jamais été exploré jusqu’alors pour étudier les interactions non-covalentes et covalentes de protéines nucléaires. L’étude de l’interaction de protéines transcriptionnellement actives est parfois difficile par des méthodes classiques du fait de leur grande propension à agréger (famille TRIM) ou de leur association à la matrice nucléaire (ZNF74). L’homo et l’hétérodimérisation de TIF1α, β ainsi que leur interaction avec ZNF74 sont ici testées sur des protéines entières dans des cellules vivantes de mammifères répondant aux résultats conflictuels de la littérature et démontrant que le BRET peut être avantageusement utilisé comme alternative aux essais plus classiques basés sur la transcription. Du fait de l’hétérodimérisation confirmée de TIF1α et β, le premier article présenté ouvre la possibilité d’une relation étroite entre les récepteurs nucléaires et les protéines KRAB- multidoigt de zinc. Des études précédentes ont démontré que la sumoylation de PML est impliquée dans sa dégradation induite par l’As2O3 et dépendante de RNF4, une E3 ubiquitine ligase ayant pour substrat des chaînes de SUMO (polySUMO). Dans le second article, grâce au développement d’une nouvelle application du BRET pour la détection d’interactions covalentes et non-covalentes avec SUMO (BRETSUMO), nous établissons un nouveau lien entre la sumoylation de PML et sa dégradation. Nous confirmons que le recrutement de RNF4 dépend de SUMO mais démontrons également l’implication du SBD (Sumo Binding Domain) de PML dans sa dégradation induite par l’As2O3 et/ou RNF4. De plus, nous démontrons que des sérines, au sein du SBD de PML, qui sont connues comme des cibles de phosphorylation par la voie de la kinase CK2, régulent les interactions non-covalentes de ce SBD mettant en évidence, pour la première fois, que les interactions avec un SBD peuvent dépendre d’un évènement de phosphorylation (“SBD phospho-switch”). Nos résultats nous amènent à proposer l’hypothèse que le recrutement de PML sumoylé au niveau des PML-NBs via son SBD, favorise le recrutement d’une autre activité E3 ubiquitine ligase, outre celle de RNF4, PML étant lui-même un potentiel candidat. Ceci suggère l’existence d’une nouvelle relation dynamique entre phosphorylation, sumoylation et ubiquitination de PML. Finalement, il est suggéré que PML est dégradé par deux voies différentes dépendantes de l’ubiquitine et du protéasome; la voie de CK2 et la voie de RNF4. Enfin une étude sur la sumoylation de TIF1β est également présentée en annexe. Cette étude caractérise les 6 lysines cibles de SUMO sur TIF1β et démontre que la sumoylation est nécessaire à l’activité répressive de TIF1β mais n’est pas impliquée dans son homodimérisation ou son interaction avec la boîte KRAB. La sumoylation est cependant nécessaire au recrutement d’histones déacétylases, dépendante de son homodimérisation et de l’intégrité du domaine PHD. Alors que l’on ne connaît pas de régulateur physiologique de la sumoylation outre les enzymes directement impliquées dans la machinerie de sumoylation, nous mettons en évidence que la sumoylation de TIF1β est positivement régulée par son interaction avec le domaine KRAB et suggérons que ces facteurs transcriptionnels recrutent TIF1β à l’ADN au niveau de promoteur et augmentent son activité répressive en favorisant sa sumoylation.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le Web se caractérise de bien des façons, un de ses traits dominants étant son caractère hautement évolutif. Bien que relativement jeune, il en est déjà à sa deuxième génération – on parle du Web 2.0 – et certains entrevoient déjà le Web 3.0. Cette évolution n’est pas uniquement technologique mais aussi culturelle, modifiant le rapport des internautes à cet univers numérique et à l’information qui s’y trouve. Les technologies phares du Web 2.0 – blogues, fils RSS, sites Wikis, etc. – offrent aux utilisateurs du Web la possibilité de passer d’un rôle passif d’observateurs à un rôle actif de créateurs. Le Web que l’on côtoie actuellement en est ainsi un plus participatif, dynamique et collaboratif. Les organisations doivent ainsi sérieusement considérer non seulement le potentiel de ces nouveaux environnements pour les aider dans le cadre de leurs activités, mais aussi la nouvelle cyberculture qu’ils engendrent chez leurs employés, clients et partenaires. Les plateformes du Web 2.0 viennent renforcer le potentiel déjà perçu par les organisations des systèmes d’information Web (SIW) à plusieurs niveaux : comme le partage d’information, l’augmentation de la compétitivité ou l’amélioration des relations avec leurs clients. Les milieux documentaires peuvent, au même titre que d’autres types d’organisations, tirer profit des outils de ce Web participatif et de la nouvelle culture collaborative qui en découle. Depuis quelque temps déjà, les bibliothèques se penchent activement sur ces questions et la communauté archivistique emboîte le pas… « vers une Archivistique 2.0 ? » se demanderont certains. Cet article se propose d’examiner le potentiel du Web 2.0 pour les organisations en général ainsi que plus particulièrement pour la communauté archivistique. Nous nous attarderons dans un premier temps à définir ce qu’est le Web 2.0 et à détailler ses technologies et concepts clés. Ces précisions aideront à mieux comprendre par la suite l’apport possible du Web 2.0 en contexte organisationnel. Finalement, des exemples d’utilisation du Web 2.0 par la communauté archivistique viendront conclure cette réflexion sur le Web 2.0, les organisations et l’archivistique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

RÉSUMÉ Les répercussions du sida sur la communauté intellectuelle préfiguraient un changement certain dans l’esthétique littéraire contemporaine. Le témoignage de l’expérience individuelle de l’écrivain, à cet instant de désarroi collectif et de répression sociale à l’égard de la communauté homosexuelle, cherchait à provoquer une reconfiguration de l’espace de l’aveu par la projection du sujet privé dans la sphère publique. Cette posture de mise à nu avait déjà vu le jour dans les écrits féministes des années 70, mais elle a subi dans les années 80 et 90 une transformation importante puisque c’est le sujet masculin qui s’est exposé par la médiation du corps dans le récit de la maladie à l’heure du sida. Les discours de l’intime tentaient de rapprocher les espaces social et littéraire tout en affirmant des formes définies par des éthiques et des esthétiques hétérogènes. La période d’écriture de la maladie, qui clôt l’oeuvre de Guibert, est caractérisée par l’ancrage du contexte social de l’épidémie du sida. Par conséquent, les trois récits qui la fondent, soit À l’ami qui ne m’a pas sauvé la vie (1990), Le protocole compassionnel (1991) et Cytomégalovirus (1992), constituent le triptyque sur lequel s’appuiera ma réflexion, auquel s’ajoute le journal tenu par Guibert depuis son adolescence jusqu’à sa mort, Le mausolée des amants (2001), qui a été publié dix ans après la disparition de l’auteur. Cette oeuvre s’inscrit en partie dans cette mouvance du témoignage de la maladie, qui prend place entre 1987 et 1991, période pendant laquelle l’écrivain sent sa vulnérabilité sur le plan de sa santé. Il est proposé d’étudier à travers ces écrits l’écriture de l’aveu et de la dénonciation, telle qu’elle est pensée chez Guibert. Il s’agira de réfléchir sur les stratégies et les fonctions du témoignage littéraire d’une telle expérience à travers la mise en récit du sujet. Une problématique traverse toutefois cette posture de mise en danger individuelle où la nécessité de se révéler est l’objet d’un non-consensus. Or, cette recherche d’intensité par l’aveu, qui repose sur la maladie, la sexualité et la mort, veut dépasser sa dimension apocalyptique en tentant d’inscrire l’oeuvre dans une éthique sociale. De ce fait, le dévoilement, sur le mode de la dénonciation, s’oriente sur la dimension collective en prenant à partie la société et la communauté.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Réalisé en cotutellle avec Gaétan Bourgeois et avec la participation de Guy Boivin, d'Agriculture et Agroalimentaire Canada, du Centre de Recherche et Développement en Horticulture à Saint-Jean-sur-Richelieu, QC J3B 3E6, Canada

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette thèse de doctorat explore les trajectoires de deux types de déviance, celle de joueurs excessifs (N=100) et celle de délinquants (N=172). Le questionnaire utilisé dans chacun des cas possède un important volet destiné à recueillir des renseignements de manière chronologique par différentes thématiques; la méthode des calendriers d’histoire de vie. L’intérêt d’une analyse de calendrier est qu’elle permet de tenir compte des changements ponctuels de comportement et d’évaluer les effets à court terme de la prise en charge des sujets au cours de leur carrière déviante. La démonstration se base sur trois dimensions des trajectoires : l’intensité de l’engagement, les épisodes d’abstinence volontaire et les épisodes de rechutes. Le résultat majeur de ma thèse montre que les circonstances de vie (facteurs dynamiques) rendent bien compte des dimensions des trajectoires alors que les caractéristiques des individus (facteurs fixes ou statiques) ont souvent très peu de force explicative. Une analyse attentive des effets indirects montre la pertinence de continuer à s’intéresser à ces facteurs. En effet, l’impact des caractéristiques dynamiques est souvent conditionnel à certaines variables statiques. Aucune étude, tant américaine que canadienne, ne s’est penchée sur la dynamique des trajectoires de joueurs excessifs. Le troisième chapitre examine les fluctuations mensuelles des sommes englouties dans les jeux de hasard et d’argent. On s’efforce de comprendre ce qui incite les joueurs à dépenser davantage certains mois et moins à d’autres. Une attention particulière est aussi consacrée aux mois où les joueurs cessent de participer aux jeux de hasard et d’argent et aux facteurs qui favorisent cette abstinence provisoire. Le quatrième chapitre se concentre sur les trajectoires de délinquants. Dans ce cas-ci, la performance criminelle, les revenus illégaux mensuels, mesure l’intensité de l’engagement criminel. On s’intéresse dans ce chapitre aux conditions régissant à la fois les épisodes de réussite criminelle et les épisodes concomitants de désistement temporaire. Les mesures « officielles » de récidive (nouvelle condamnation, nouvelle entrée en thérapie) présentent un problème de chiffre noir (les rechutes effectives sont plus nombreuses que les rechutes connues des autorités officielles). L’intérêt du chapitre cinq est de miser sur une analyse autorévélée des rechutes et du « moment » où ces rechutes se produisent. Le deuxième objectif de cette étude est de comparer les épisodes de rechutes dans ces deux trajectoires de déviance. La logique de ce chapitre suit celles des précédents, on s’intéresse à la dynamique qui entoure ces épisodes, on se demande si elle est similaire au sein des deux trajectoires déviantes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le recours à la stratégie du recentrage sur le cœur de métier (core business) par les entreprises fait apparaître, en discours comme en pratique, trois mouvements qui déstabilisent les ensembles bureaucratiques: la réorganisation de la grande firme en « centres de profits », la multiplication des relations inter-firmes et un changement d’ordre qualitatif dans les termes de l’échange. L’avènement et le maintien de ce que nous convenons d’appeler l’« entreprise réseau » demeurent à ce jour problématique : soit cette forme organisationnelle serait le résultat d’une adaptation unilatérale à son environnement; soit la dynamique sociale serait réglée par la confiance entre les acteurs. Notre démarche inductive et exploratoire d’un cas d’entreprise réseau québécoise veut contribuer au démontage de la notion, puis à la compréhension sociologique du phénomène. Nous constatons que cette forme d’entreprise ne peut être comprise que lorsque nous la mettons en perspective avec l’entreprise bureaucratique.