12 resultados para positive and negative selection

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les protéines sont les produits finaux de la machinerie génétique. Elles jouent des rôles essentiels dans la définition de la structure, de l'intégrité et de la dynamique de la cellule afin de promouvoir les diverses transformations chimiques requises dans le métabolisme et dans la transmission des signaux biochimique. Nous savons que la doctrine centrale de la biologie moléculaire: un gène = un ARN messager = une protéine, est une simplification grossière du système biologique. En effet, plusieurs ARN messagers peuvent provenir d’un seul gène grâce à l’épissage alternatif. De plus, une protéine peut adopter plusieurs fonctions au courant de sa vie selon son état de modification post-traductionelle, sa conformation et son interaction avec d’autres protéines. La formation de complexes protéiques peut, en elle-même, être déterminée par l’état de modifications des protéines influencées par le contexte génétique, les compartiments subcellulaires, les conditions environmentales ou être intrinsèque à la croissance et la division cellulaire. Les complexes protéiques impliqués dans la régulation du cycle cellulaire sont particulièrement difficiles à disséquer car ils ne se forment qu’au cours de phases spécifiques du cycle cellulaire, ils sont fortement régulés par les modifications post-traductionnelles et peuvent se produire dans tous les compartiments subcellulaires. À ce jour, aucune méthode générale n’a été développée pour permettre une dissection fine de ces complexes macromoléculaires. L'objectif de cette thèse est d'établir et de démontrer une nouvelle stratégie pour disséquer les complexes protéines formés lors du cycle cellulaire de la levure Saccharomyces cerevisiae (S. cerevisiae). Dans cette thèse, je décris le développement et l'optimisation d'une stratégie simple de sélection basée sur un essai de complémentation de fragments protéiques en utilisant la cytosine déaminase de la levure comme sonde (PCA OyCD). En outre, je décris une série d'études de validation du PCA OyCD afin de l’utiliser pour disséquer les mécanismes d'activation des facteurs de transcription et des interactions protéine-protéines (IPPs) entre les régulateurs du cycle cellulaire. Une caractéristique clé du PCA OyCD est qu'il peut être utilisé pour détecter à la fois la formation et la dissociation des IPPs et émettre un signal détectable (la croissance des cellules) pour les deux types de sélections. J'ai appliqué le PCA OyCD pour disséquer les interactions entre SBF et MBF, deux facteurs de transcription clés régulant la transition de la phase G1 à la phase S. SBF et MBF sont deux facteurs de transcription hétérodimériques composés de deux sous-unités : une protéine qui peut lier directement l’ADN (Swi4 ou Mbp1, respectivement) et une protéine commune contenant un domain d’activation de la transcription appelée Swi6. J'ai appliqué le PCA OyCD afin de générer un mutant de Swi6 qui restreint ses activités transcriptionnelles à SBF, abolissant l’activité MBF. Nous avons isolé des souches portant des mutations dans le domaine C-terminal de Swi6, préalablement identifié comme responsable dans la formation de l’interaction avec Swi4 et Mbp1, et également important pour les activités de SBF et MBF. Nos résultats appuient un modèle où Swi6 subit un changement conformationnel lors de la liaison à Swi4 ou Mbp1. De plus, ce mutant de Swi6 a été utilisé pour disséquer le mécanisme de régulation de l’entrée de la cellule dans un nouveau cycle de division cellulaire appelé « START ». Nous avons constaté que le répresseur de SBF et MBF nommé Whi5 se lie directement au domaine C-terminal de Swi6. Finalement, j'ai appliqué le PCA OyCD afin de disséquer les complexes protéiques de la kinase cycline-dépendante de la levure nommé Cdk1. Cdk1 est la kinase essentielle qui régule la progression du cycle cellulaire et peut phosphoryler un grand nombre de substrats différents en s'associant à l'une des neuf protéines cycline régulatrice (Cln1-3, Clb1-6). Je décris une stratégie à haut débit, voir à une échelle génomique, visant à identifier les partenaires d'interaction de Cdk1 et d’y associer la cycline appropriée(s) requise(s) à l’observation d’une interaction en utilisant le PCA OyCD et des souches délétées pour chacune des cyclines. Mes résultats nous permettent d’identifier la phase(s) du cycle cellulaire où Cdk1 peut phosphoryler un substrat particulier et la fonction potentielle ou connue de Cdk1 pendant cette phase. Par exemple, nous avons identifié que l’interaction entre Cdk1 et la γ-tubuline (Tub4) est dépendante de Clb3. Ce résultat est conforme au rôle de Tub4 dans la nucléation et la croissance des faisceaux mitotiques émanant des centromères. Cette stratégie peut également être appliquée à l’étude d'autres IPPs qui sont contrôlées par des sous-unités régulatrices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les premières cellules progénitrices lympho-myéloïdes (LMPP) entrent dans le thymus et commencent leur processus de différenciation au stade double négatif (DN, CD4-CD8-). Après un réarrangement fonctionnel de la chaine bêta de leur récepteur des cellules T (RCT), les cellules reçoivent des signaux de différenciation, de prolifération, de survie et de sélection et passent au stade double positif (DP, CD4+CD8+). Ensuite, la chaine alpha du RCT est réarrangée et testée via les sélections positive et négative. Si le RCT reçoit un signal ni trop fort, ni trop faible, les cellules passent au stade simple positif où elles exprimeront soit la molécule CD4 ou CD8. ERK3, une MAPK non-conventionnelle, joue un rôle important dans le développement thymique. Des études précédentes ont démontré qu’une déficience en ERK3 diminue de 50 % la cellularité thymique et de 75% le nombre de cellules simples positives CD4 (CD4SP). Nous avons posé comme hypothèses qu’il y a une augmentation de l’apoptose chez les thymocytes DP de souris Erk3-/- et que cette déficience chez les thymocytes DP affecterait la sélection positive des cellules DP, réduisant ainsi le nombre de thymocytes CD4SP. Afin de vérifier la première hypothèse, nous avons regardé les niveaux d’apoptose grâce à la cytométrie en flux et par immunohistochimie. Dans les deux cas, nous étions incapables de détecter une différence du niveau d’apoptose chez les thymocytes DP entre les souris Erk3+/+ et Erk3-/-. Ensuite, nous nous sommes posés la question suivante : La demi-vie des thymocytes DP Erk3-/- était-elle plus courte que le type sauvage? La demi-vie des thymocytes DP a été mesurée à l’aide de l’étude des réarrangements secondaires de la chaine alpha du RCT par PCR semi-quantitatif et à l’aide de cultures de thymus fœtaux. En effet, ERK3 semble important pour prolonger la demi-vie des thymocytes DP. Ensuite, nous avons utilisé des marqueurs cellulaires différentiels (CD69, CD5 et RCT) pour regarder si les thymocytes DP sont capables de passer la sélection positive. En effet, il y a moins de thymocytes DP Erk3-/- qui sont CD69fort, CD5fort et RCTfort. Finalement, nous voulons savoir si les fonctions de ERK3 passent par MK5, son seul partenaire d’interaction connu à ce jour. Après la caractérisation du thymus de la souris Mk5-/-, nous observons que seulement la réduction du nombre de thymocytes CD4SP est identique à celle des thymocytes CD4SP de la souris Erk3-/-. En conclusion, ces résultats révèlent des fonctions importantes pour la molécule ERK3 lors du processus de sélection positive, le maintient de la demi-vie des thymocytes DP et lors de la régulation de développement thymique de manière MK5-dépendante et -indépendante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Although Insurers Face Adverse Selection and Moral Hazard When They Set Insurance Contracts, These Two Types of Asymmetrical Information Have Been Given Separate Treatments Sofar in the Economic Literature. This Paper Is a First Attempt to Integrate Both Problems Into a Single Model. We Show How It Is Possible to Use Time in Order to Achieve a First-Best Allocation of Risks When Both Problems Are Present Simultaneously.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’émergence de l’utilisation du méthylphénidate (MPH; Ritalin) par des étudiants universitaires afin d’améliorer leur concentration et leurs performances universitaires suscite l’intérêt du public et soulève d’importants débats éthiques auprès des spécialistes. Les différentes perspectives sur l’amélioration des performances cognitives représentent une dimension importante des défis sociaux et éthiques autour d’un tel phénomène et méritent d’être élucidées. Ce mémoire vise à examiner les discours présents dans les reportages internationaux de presse populaire, les discours en bioéthique et en en santé publique sur le thème de l’utilisation non médicale du méthylphénidate. Cette recherche a permis d’identifier et d’analyser des « lacunes » dans les perspectives éthiques, sociales et scientifiques de l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive d’individus en santé. Une analyse systématique du contenu des discours sur l’utilisation non médicale du méthylphénidate pour accroître la performance cognitive a identifié des paradigmes divergents employés pour décrire l’utilisation non médicale du méthylphénidate et discuter ses conséquences éthiques. Les paradigmes « choix de mode de vie », « abus de médicament » et « amélioration de la cognition » sont présents dans les discours de la presse populaire, de la bioéthique et de la santé publique respectivement. Parmi les principales différences entre ces paradigmes, on retrouve : la description de l’utilisation non médicale d’agents neuropharmacologiques pour l’amélioration des performances, les risques et bénéfices qui y sont associés, la discussion d’enjeux éthiques et sociaux et des stratégies de prévention et les défis associés à l’augmentation de la prévalence de ce phénomène. La divergence de ces paradigmes reflète le pluralisme des perceptions de l’utilisation non médicale d’agents neuropharmacologiques Nos résultats suggèrent la nécessité de débats autour de l’amélioration neuropharmacologique afin de poursuivre l’identification des enjeux et de développer des approches de santé publique cohérentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alors que les hypothèses de valence et de dominance hémisphérique droite ont longtemps été utilisées afin d’expliquer les résultats de recherches portant sur le traitement émotionnel de stimuli verbaux et non-verbaux, la littérature sur le traitement de mots émotionnels est généralement en désaccord avec ces deux hypothèses et semble converger vers celle du décours temporel. Cette dernière hypothèse stipule que le décours temporal lors du traitement de certains aspects du système sémantique est plus lent pour l’hémisphère droit que pour l’hémisphère gauche. L’objectif de cette thèse est d’examiner la façon dont les mots émotionnels sont traités par les hémisphères cérébraux chez des individus jeunes et âgés. À cet effet, la première étude a pour objectif d’évaluer l’hypothèse du décours temporel en examinant les patrons d’activations relatif au traitement de mots émotionnels par les hémisphères gauche et droit en utilisant un paradigme d’amorçage sémantique et une tâche d’évaluation. En accord avec l’hypothèse du décours temporel, les résultats obtenus pour les hommes montrent que l’amorçage débute plus tôt dans l’hémisphère gauche et plus tard dans l’hémisphère droit. Par contre, les résultats obtenus pour les femmes sont plutôt en accord avec l’hypothèse de valence, car les mots à valence positive sont principalement amorcés dans l’hémisphère gauche, alors que les mots à valence négative sont principalement amorcés dans l’hémisphère droit. Puisque les femmes sont considérées plus « émotives » que les hommes, les résultats ainsi obtenus peuvent être la conséquence des effets de la tâche, qui exige une décision explicite au sujet de la cible. La deuxième étude a pour objectif d’examiner la possibilité que la préservation avec l’âge de l’habileté à traiter des mots émotionnels s’exprime par un phénomène compensatoire d’activations bilatérales fréquemment observées chez des individus âgés et maintenant un haut niveau de performance, ce qui est également connu sous le terme de phénomène HAROLD (Hemispheric Asymmetry Reduction in OLDer adults). En comparant les patrons d’amorçages de mots émotionnels auprès de jeunes adultes et d’adultes âgés performants à des niveaux élevés sur le plan comportemental, les résultats révèlent que l’amorçage se manifeste unilatéralement chez les jeunes participants et bilatéralement chez les participants âgés. Par ailleurs, l’amorçage se produit chez les participants âgés avec un léger délai, ce qui peut résulter d’une augmentation des seuils sensoriels chez les participants âgés, qui nécessiteraient alors davantage de temps pour encoder les stimuli et entamer l’activation à travers le réseau sémantique. Ainsi, la performance équivalente au niveau de la précision retrouvée chez les deux groupes de participants et l’amorçage bilatéral observé chez les participants âgés sont en accord avec l’hypothèse de compensation du phénomène HAROLD.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte Autant dans une population schizophrène que non schizophrène, l‘abus de substance a pour conséquence la manifestation de symptômes psychiatriques et neurologiques. Dans les présentes études cas-témoins, nous avons examiné les différences initiales ainsi que les changements suite au traitement de 12 semaines à la quetiapine au niveau de la sévérité de la toxicomanie et des symptômes psychiatriques et neurologiques chez 3 groupes distincts. Ces 3 groupes sont: des patients schizophrènes avec une toxicomanie (double diagnostic: DD), des patients schizophrènes sans toxicomanie concomittante (SCZ) et finalement, des toxicomanes non schizophrènes (SUD). Parallèlement, afin de nous aider à interpréter nos résultats, nous avons mené deux revues systématiques: la première regardait l‘effet d‘antipsychotiques dans le traitement de troubles d‘abus/dépendance chez des personnes atteintes ou non de psychoses, la deuxième comparait l‘efficacité de la quetiapine et sa relation dose-réponse parmi différents désordres psychiatriques. Méthodes Pour nos études cas-témoins, l‘ensemble des symptômes psychiatriques et neurologiques ont été évalués via l‘Échelle du syndrome positif et négatif (PANSS), l‘Échelle de dépression de Calgary, l‘Échelle des symptômes extrapyramidaux (ESRS) ainsi qu‘avec l‘Échelle d‘akathisie de Barnes. Résultats À la suite du traitement de 12 semaines avec la quetiapine, les groupes SCZ et DD recevaient des doses de quetiapine significativement plus élevées (moyenne = 554 et 478 mg par jour, respectivement) par rapport au groupe SUD (moyenne = 150 mg par jour). Aussi, nous avons observé chez ces mêmes patients SUD une plus importante baisse du montant d‘argent dépensé par semaine en alcool et autres drogues, ainsi qu‘une nette amélioration de la sévérité de la toxicomanie comparativement aux patients DD. Par conséquent, à la fin de l‘essai de 12 semaines, il n‘y avait pas de différence significative dans l‘argent dépensé en alcool et drogues entre les deux groupes de toxicomanes iv or, les patients DD présentait, comme au point de départ, un score de toxicomanie plus sévère que les SUD. Étonnamment, aux points initial et final de l‘étude, le groupe DD souffrait de plus de symptômes parkinsoniens et de dépression que le groupe SCZ. Par ailleurs, nous avons trouvé qu‘initiallement, les patients SUD présentaient significativement plus d‘akathisie, mais qu‘en cours de traitement, cette akathisie reliée à l‘abus/dépendance de cannabis s‘est nettement améliorée en comparaison aux patients SCZ. Enfin, les patients SUD ont bénéficié d‘une plus grande diminution de leurs symptômes positifs que les 2 groupes atteints de schizophrénie. Conclusions Bref, l‘ensemble de nos résultats fait montre d‘une vulnérabilité accentuée par les effets négatifs de l‘alcool et autres drogues dans une population de patients schizophrènes. Également, ces résultats suggèrent que l‘abus de substance en combinaison avec les états de manque miment certains symptômes retrouvés en schizophrénie. De futures études seront nécessaires afin de déterminer le rôle spécifique qu‘a joué la quetiapine dans ces améliorations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif principal de cette thèse est d’explorer et d’analyser la réception de l’œuvre d’Eugen Wüster afin d’expliquer comment ses travaux ont influencé le développement disciplinaire de la terminologie. Du point de vue historique, les travaux de Wüster, en particulier la Théorie générale de la terminologie, ont stimulé la recherche en terminologie. Malgré des opinions divergentes, on s’entend pour reconnaître que les travaux de Wüster constituent la pierre angulaire de la terminologie moderne. Notre recherche vise spécifiquement à explorer la réception de l’œuvre wüsterienne en étudiant les écrits relatifs à cette œuvre dans la littérature universitaire en anglais, en espagnol et en français entre 1979 et 2009, en Europe et en Amérique. Réalisée dans le cadre du débat sur la réception de l’œuvre de Wüster, cette étude se concentre exclusivement sur l’analyse des critiques et des commentaires de son œuvre. Pour ce faire, nous avons tenu compte de la production intellectuelle de Wüster, de sa réception positive ou négative, des nouvelles approches théoriques en terminologie ainsi que des études portant sur l’état de la question en terminologie entre 1979 et 2009. Au moyen d’une recherche qualitative de type exploratoire, nous avons analysé un corpus de textes dans lesquels les auteurs : a. ont cité textuellement au moins un extrait d’un texte écrit par Wüster ; b. ont référé aux travaux de Wüster dans la bibliographie de l’article ; ou c. ont fait un commentaire sur ces travaux. De cette manière, nous avons cerné les grandes lignes du débat autour de la réception de son œuvre. Les résultats de notre étude sont éloquents. Ils offrent une idée claire de la réception des travaux de Wüster dans la communauté scientifique. Premièrement, Wüster représente une figure centrale de la terminologie moderne en ce qui concerne la normalisation terminologique. Il fut le premier à proposer une théorie de la terminologie. Deuxièmement, la contextualisation appropriée de son œuvre constitue un point de départ essentiel pour une appréciation éclairée et juste de sa contribution à l’évolution de la discipline. Troisièmement, les résultats de notre recherche dévoilent comment les nouvelles approches théoriques de la terminologie se sont adaptées aux progrès scientifiques et techniques. Quatrièmement, une étude menée sur 166 articles publiés dans des revues savantes confirme que l’œuvre de Wüster a provoqué des réactions variées tant en Europe qu’en Amérique et que sa réception est plutôt positive. Les résultats de notre étude font état d’une tendance qu’ont les auteurs de critiquer les travaux de Wüster avec lesquels, dans la plupart des cas, ils ne semblent cependant pas être bien familiarisés. La « méthodologie des programmes de recherche scientifique », proposée par Lakatos (1978) et appliquée comme un modèle interprétatif, nous a permis de démontrer que Wüster a joué un rôle décisif dans le développement de la terminologie comme discipline et que la terminologie peut être perçue comme un programme de recherche scientifique. La conclusion principale de notre thèse est que la terminologie a vécu des changements considérables et progressifs qui l’ont aidée à devenir, en termes lakatosiens, une discipline forte tant au plan théorique que descriptif.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: En réponse aux exigences du gouvernement fédéral en ce qui concerne les temps d'attente pour les chirurgies électives d’hanche et du genou, les Organismes Canadiens de santé ont adopté des stratégies de gestion pour les listes d'attente. Cependant, il n'existe pas actuellement aucune information disponible concernant les effets imprévus, positive ou négative, de ces stratégies. Méthodologie: Un modèle qui a été construit est tombé en panne la gestion de la chirurgie d’hanche et du genou en différentes étapes, afin d'identifier les effets imprévus possibles pour chaque étape; le modèle a été validé auprès d'un panel d'experts. Cette étude a choisi quatre études de cas en fonction de leur durabilité: un cas qui a été durable, un cas qui a été modérément durable, et deux cas peu probable d'être durable. Dans cette étude qualitative, nous avons mené 31 entretiens semi-structurés entre Novembre 2010 et Juin 2011 avec les gestionnaires, les infirmières, les thérapeutes et les chirurgiens impliqués dans la gestion des stratégies du temps d’attente pour les chirurgies électives d’hanche et du genou. Les quatre cas ont été sélectionnés à partir de trois provinces / régions. Nous avons analysé les conséquences non intentionnelles aux niveaux systémique et organisationnelle en utilisant les stratégies dans chaque contexte. Enregistrements des entrevues ont été transcrits mot à mot et soumis à l'analyse du cadre. Résultats: Les effets négatifs sont la précarité des stratégies en raison du non-récurrente financement, l'anxiété chez les patients qui ne sont pas prêts pour la chirurgie, une redistribution du temps de chirurgie vers l’orthopédie au détriment des autres interventions chirurgicales, tensions entre les chirurgiens et entre les orthopédistes et anesthésistes, et la pression sur le personnel dans le bloc opératoire et postopératoire. Conclusion: La stratégie d’implémentation aux niveaux national et local devrait prendre en compte les conséquences potentielles, positives et négatives. Il y a des conséquences inattendues à chaque niveau de l'organisation des soins de santé. Individuellement et collectivement, ces conséquences peuvent positivement et négativement affecter les résultats. Par conséquent, la planification de la santé doit analyser et prendre en compte les conséquences inattendues en termes de bonnes résultats inattendues, compromis et les conséquences négatives afin d'améliorer les résultats.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Early studies of electoral behavior proposed that party identification could be negative as well as positive. Over time, though, the concept became mostly understood as a positive construct. The few studies that took negative identification into account tended to portray it as a marginal factor that went “hand-in-hand” with positive preferences. Recent scholarship in psychology reaffirms, however, that negative evaluations are not simply the bipolar opposite of positive ones. This article considers negative party identification from this standpoint, and evaluates its impact in recent national elections in Australia, Canada, New Zealand, and the United States. Our findings highlight the autonomous power of negative partisanship. They indicate as well that ideology has an influence on both positive and negative partisan identification.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.