168 resultados para sIL-2R


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le VPH-16 de même que certains VPH, dont le VPH-18, causent le cancer du col utérin. Son intégration dans le génome humain pourrait être un marqueur de progression de l’infection. Les charges virales totale et intégrée sont présentement mesurées en quantifiant par PCR en temps réel les gènes E6 (RT-E6) et E2 (RT-E2-1) du VPH-16. Nous avons évalué l’impact du polymorphisme du gène E2 sur la quantification de l’ADN du VPH-16 dans des spécimens cliniques. Dans un premier temps, le gène E2 de 135 isolats de VPH-16 (123 appartenaient au clade Européen et 12 à des clades non- Européens) fut séquencé. Ensuite, un test de PCR en temps réel ciblant les séquences conservées dans E2 (RT-E2-2) fut développé et optimisé. Cent trente-neuf spécimens (lavages cervicaux et vaginaux) provenant de 74 participantes (58 séropositives pour le VIH, 16 séronégatives pour le VIH) ont été étudiés avec les trois tests E2 (RT-E2-2), E6 (RT-E6) et E2 (RT-E2-1). Les ratios de la quantité d’ADN de VPH-16 mesuré avec RT-E2-2 et RT-E2-1 dans les isolats Européens (médiane, 1.02; intervalle, 0.64-1.80) et Africains 1 (médiane, 0.80; intervalle, 0.53-1.09) sont similaires (P=0.08). Par contre, les ratios mesurés avec les isolats Africains 2 (médiane, 3.23; intervalle, 1.92-3.49) ou Asiatique- Américains (médiane, 3.78; intervalle, 1.47-37) sont nettement supérieurs à ceux obtenus avec les isolats Européens (P<0.02 pour chaque comparaison). Les distributions des quantités de E2 contenues dans les 139 échantillons mesurées avec RT-E2-2 (médiane, 6150) et RT-E2-1 (médiane, 8960) étaient statistiquement différentes (P<0.0001). Nous avons observé que les charges virales totale (odds ratio (OR) OR, 2.16 95% intervalle de confiance (IC) 1.11-4.19), et épisomale du VPH-16 (OR, 2.14 95% IC 1.09-4.19), mais pas la présence de formes intégrées (OR, 3.72 95% IC 1.03-13.4), sont associées aux néoplasies intraepitheliales cervicales de haut grade (CIN-2,3), et ce, en contrôlant pour des facteurs confondants tels que l’âge, le taux de CD4 sanguin, l’infection au VIH, et le polymorphisme de VPH-16. La proportion des échantillons ayant un ratio E6/E2 > 2 pour les femmes sans lésion intraépithéliale (7 de 35) est similaire à celle des femmes avec CIN-2,3 (5 de 11, p=0.24) ou avec CIN- 1 (4 de14, P=0.65). Le polymorphisme du gène E2 est un facteur qui influence la quantification des charges intégrées de VPH-16.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’industrie forestière est un secteur qui, même s’il est en déclin, se trouve au cœur du débat sur la mondialisation et le développement durable. Pour de nombreux pays tels que le Canada, la Suède et le Chili, les objectifs sont de maintenir un secteur florissant sans nuire à l’environnement et en réalisant le caractère fini des ressources. Il devient important d’être compétitif et d’exploiter de manière efficace les territoires forestiers, de la récolte jusqu’à la fabrication des produits aux usines, en passant par le transport, dont les coûts augmentent rapidement. L’objectif de ce mémoire est de développer un modèle de planification tactique/opérationnelle qui permet d’ordonnancer les activités pour une année de récolte de façon à satisfaire les demandes des usines, sans perdre de vue le transport des quantités récoltées et la gestion des inventaires en usine. L’année se divise en 26 périodes de deux semaines. Nous cherchons à obtenir les horaires et l’affectation des équipes de récolte aux blocs de coupe pour une année. Le modèle mathématique développé est un problème linéaire mixte en nombres entiers dont la structure est basée sur chaque étape de la chaine d’approvisionnement forestière. Nous choisissons de le résoudre par une méthode exacte, le branch-and-bound. Nous avons pu évaluer combien la résolution directe de notre problème de planification était difficile pour les instances avec un grand nombre de périodes. Cependant l’approche des horizons roulants s’est avérée fructueuse. Grâce à elle en une journée, il est possible de planifier les activités de récolte des blocs pour l’année entière (26 périodes).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

S’il est généralement reconnu que le processus d’institutionnalisation de l’Église s’est accéléré au IVe siècle, certaines de ses étapes nous sont moins connues. Ce mémoire cherche à évaluer l’importance de Jean Chrysostome dans l’émergence de la primauté d’honneur de Constantinople. Après une étude attentive du troisième canon du concile de Constantinople I mise en relation avec l’opinion de trois auteurs contemporains, c’est-à-dire Palladius d’Hélénopolis, Socrate de Constantinople et Sozomène, il ressort de ce travail que l’épiscopat de Jean Chrysostome a favorisé l’implantation de cette prééminence dans l’Église. L’analyse des modalités de la primauté d’honneur de Constantinople montre bien qu’historiquement, les évêques de l’ancienne et de la nouvelle Rome n’ont pas construit leur primat à l’aide des mêmes arguments. L’explicitation de ces éléments ne se veut pas une prise de position dans les débats oecuméniques actuels, mais plutôt un préliminaire permettant une meilleure compréhension des données du problème.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une recherche pluridisciplinaire sur le concept du pardon interpersonnel. Elle cherche à circonscrire la portée et la dynamique du pardon, entre autres en répondant à la question Pourquoi pardonner ? Jusqu’à récemment on trouvait peu d’écrits sur le pardon. Mais les deux dernières décennies ont vu un foisonnement de travaux de recherche sur le sujet de la part de psychologues éveillés à ses bienfaits thérapeutiques. Parallèlement, des philosophes et des théologiens se sont aussi intéressés à la question et ont commencé à publier leurs réflexions. Deux hypothèses marquent le parcours de notre recherche. La première porte sur la signification de la deuxième partie de l’énoncé biblique en Luc 23, 34 « Père, pardonne-leur car ils ne savent pas ce qu’ils font ». Elle avance que le « motif de l’ignorance » que cette parole affirme a une portée universelle et soutient que l’offenseur est en état d’ignorance inconsciente lorsqu’il fait le mal. Le pardon des offenses serait donc le pardon de cette ignorance inconsciente. La seconde hypothèse conjecture que le pardon interpersonnel s’inscrit dans une dynamique spirituelle même s’il a quitté ses amarres religieuses. Nous avançons que la relation pardon-spiritualité est significative et que sa compréhension peut aider à mieux saisir l’essence d’un pardon devenu séculier et à en permettre l’éclosion. Pour établir la valeur de cette hypothèse, nous devons étudier la dynamique d’une démarche de pardon de même qu’à déterminer le statut actuel de la spiritualité. La thèse se divise en trois parties. La première partie expose la pensée d’auteurs significatifs dans chacune des principales disciplines concernées par le pardon : philosophie, théologie, psychologie et spiritualité. Il y est question d’offense pardonnable ou impardonnable, de pardon conditionnel ou inconditionnel, de corrélats du pardon comme l’oubli, la colère, la culpabilité, le repentir et des résultats d’études empiriques psychothérapeutiques sur le pardon. Cette première partie se termine par une réflexion sur la spiritualité de façon à voir dans quelle mesure le pardon devient une dynamique spirituelle. La deuxième partie est consacrée à l’examen de l’hypothèse concernant le sens et la portée du « car ils ne savent pas ce qu’ils font ». Dans un premier temps on fait appel à l’expertise exégétique pour situer l’authenticité et la portée de ce passage. Nous explorons ensuite la pensée philosophique à travers l’histoire pour comprendre le véritable sens du libre-arbitre et son impact sur la conception de la faute. La remise en cause philosophique du libre-arbitre nous ramènera à la thèse socratique selon laquelle « Nul n’est méchant volontairement ». La théorie mimétique de René Girard vient démontrer que les persécuteurs sont fondamentalement inconscients de ce qu’ils font et la théologienne Lytta Basset identifie le fantasme de la connaissance du bien et du mal comme accroissant cette ignorance qui s’ignore. La troisième partie de la thèse intègre les réflexions et découvertes des deux premières parties, et les situent dans un parcours qui va de l’impardonnable à la guérison, tout en les conceptualisant avec une matrice de verticalité et d’horizontalité qui schématise leurs interactions. Nous découvrons que si « car ils ne savent pas ce qu’ils font » fournit la réponse logique à la question Pourquoi pardonner ?, il existe aussi une deuxième voie qui conduit au pardon, l’amour. L’amour est la clé du pardon basé sur le message évangélique, alors que l’empathie est celle de l’approche psychothérapeutique. Enfin, la comparaison entre le « pardon psychothérapeutique » et le « pardon évangélique » nous fait conclure qu’il y a deux modes d’accès majeurs au pardon : la raison et l’amour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, ‘agency’ has appeared in academic writings as a new way of referring to active involvement from below in development interventions. The concept of ‘agency’ starts from the assumption that people are actually agents themselves, continuously acting in and reacting to circumstances. In child labour activism, this concept has been applied to working children in the understanding that, in order to improve their working conditions, children should be organised in organizations that are exclusively for and (ideally) run by working children. This paper aims to evaluate the extent to which child labourers can become agents of change through their own organizations. The paper will draw on two studies carried out by the IREWOC foundation. In 2002 a study was undertaken in Bolivia to give practical meaning to the concept of child agency. Secondly, in 2004/2005 an investigation was carried out on the functioning and impact of children’s organizations in Peru, Bolivia and Brazil. The applied research methods were mainly anthropological and used participant observation, (semi-) informal interviews and group interviewing with working children, their parents and adult representatives of the working children’s organizations. Both investigations show that in focussing on children as active participants, the structural constraints under which children have to live also need to be highlighted. One needs to understand how material poverty, mental deprivation and disempowerment help to shape resilience and defiance, but also anger, distrust and marginalisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is highly desirable for an allocation of goods to be efficient. However, one might also deem it important that an allocation gives individuals what they deserve. This paper investigates whether it is possible for an allocation to be both efficient and give people what they deserve. It will first of all consider comparative desert, and conclude that it is possible to satisfy both desiderata. It will then consider absolute desert by integrating Shelly Kagan’s work on desert and economic theory. The conclusion will be that there are potential conflicts between absolute desert and efficiency. The paper will then examine how to select the best compromise between the two values, considering several different conceptions of absolute desert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Brazilian Amazon is one of the world’s largest tropical forests. It supplies more than 80 % of Brazil’s timber production and makes this nation the second largest producer of tropical wood. The forestry sector is of major importance in terms of economic production and employment creation. However, the Brazilian Amazon is also known for its high deforestation rate and for its rather unsustainably managed timber resources, a fact which puts in the balance the long-term future of the forestry sector in the region. Since the mid- 1990s, with strong support from World Wildlife Fund (WWF), the number of tropical forests certified by the Forest Stewardship Council (FSC) has significantly increased. This is especially true for projects sponsored by large scale companies. The number of community- based forest management projects has also increased. Certification of community-based forest enterprises (CFEs) was initially a goal for the sponsors and community members. Certification is viewed as a way to reach alternative timber markets. In Brazil, the state of Acre has the highest concentration of CFEs certified by FSC. Most of them have been implemented with the support of environmental NGOs and public funds. Environmental NGOs strongly defend the advantages of certification for communities; however, in reality, this option is not that advantageous. Despite all the efforts, the number of participants in each project remains low. Why is this occurring? In this paper, we analyze the underlying motives of a few individual’s participation in CFEs certification projects. We aim to present and discuss some factors that shape the success of CFEs and their later certification. The results are based on surveys conducted in two certified CFEs in the state of Acre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le degré de rétention de l’arboricolisme dans le répertoire locomoteur des hominines fossiles du Pliocène est toujours matière à débat, les études ayant principalement porté sur la courbure des phalanges et la proportion des membres. Vu la récente découverte de DIK-1-1 (A. afarensis) et de la scapula qui lui est associée, l’étude de cet os d’un point de vue fonctionnel est intéressante, puisqu’il est directement impliqué dans la locomotion de presque tous les hominoïdes. Le but de cette étude est de tenter d’établir un lien entre l’orientation supéro-inférieure (SI) et antéro-postérieure (AP) de la cavité glénoïde de la scapula et les comportements locomoteurs chez les grands singes et l’humain moderne. Des analyses comparatives sur les adultes ont été réalisées pour 1) voir s’il existe des différences dans la morphologie étudiée entre les espèces et 2) voir si ces différences peuvent être expliquées par la taille corporelle. Des analyses ontogéniques ont aussi été réalisées pour voir si un accroissement de la taille corporelle pendant le développement et les changements locomoteurs qui y sont associés correspondent à un changement d’orientation de la cavité glénoïde. Les résultats montrent que les humains ont une cavité glénoïde qui est orientée moins supérieurement que les grands singes, mais que Pongo, bien qu’étant le plus arboricole, n’a pas l’orientation la plus supérieure. Les « knuckle-walkers » (Pan et Gorilla) se distinguent des autres hominoïdes avec une orientation de la surface glénoïde relative à l’épine plus inférieure. La taille corporelle ne semble pas influencer la morphologie étudiée, sauf parfois chez le gorille. Seuls l’humain et les mâles Pongo montrent un changement ontogénique dans l’orientation de la cavité glénoïde relativement à l’épine. Sur la base de ces résultats, l’orientation de la cavité glénoïde semble refléter partiellement la fonction du membre supérieur dans la locomotion, mais des recherches plus poussées sont nécessaires. Mots-Clés : Scapula, cavité glénoïde, grands singes, humains, locomotion, arboricolisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La majorité des auteurs qui s’intéressent à la surqualification la comprennent et l’analysent habituellement comme une situation de suréducation ou de déclassement scolaire. Ce mémoire fait l’hypothèse que le sens qu’accordent les individus au fait d’être surqualifié est beaucoup plus large. Même s’il est raisonnable de croire que la majorité des diplômés espèrent pouvoir obtenir un emploi à la hauteur de leur diplôme, le fait de définir le sentiment de surqualification de façon substantialiste, en ne considérant que le niveau de diplôme obtenu par le travailleur et exigé par l’employeur, semble quelque peu réducteur. Le sentiment de surqualification naît d’un jugement social : il est empirique, contextualisé et dynamique. À la croisée des mesures objectives et subjectives, nous explorons ainsi les facteurs explicatifs du sentiment de surqualification chez les diplômés canadiens à partir d’une analyse statistique des déterminants de ce sentiment dans les premières années qui suivent l’obtention de leur diplôme d’études postsecondaires. Nous montrons d’abord que l’utilisation de compétences en emploi et le lien entre le diplôme obtenu et l’emploi expliquent bien plus le sentiment de surqualification que la suréducation objective. Nous montrons aussi que l’impact du niveau d’utilisation d’une compétence donnée sur le sentiment de surqualification varie substantiellement selon le domaine d’études du diplômé et la nature de cette compétence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Forme littéraire développée dès les débuts du IVe siècle, l’hagiographie, plus tard sanctionnée par l’Église catholique romaine, se déploie avec tout le rituel et le décorum requis par le genre institué, dévoilant les modalités du savoir et du croire qui la distingue. Cette forme fixe fut réactivée, contre toute attente, dans une somme étoffée durant la seconde moitié du XXe siècle par le Collège de ‘Pataphysique, aréopage de philosophes, littérateurs et plasticiens, qui n’est pas un conclave d’excentriques, pas davantage qu’un nouvel « isme », mais une institution qui résolument emblématise la Science. Ce réemploi générique de l’hagiographie est caractérisé par une hétérogénéité bien peu canonique s’inscrivant dans une continuité problématique par rapport au sous-texte. Une première traversée du Calendrier inviterait à croire à une entreprise parodique et iconoclaste. La parodie, qui est aussi une imitation, pose un problème de visée. Le second degré de Gérard Genette implique deux grands régimes discursifs : le sérieux (le sérieux proprement dit et le satirique) et le ludique. Ces régimes nous ont été utiles pour arrimer la question de l’humour. Il y a là en somme deux possibilités, soit la parodie sérieuse conduisant à ridiculiser l’hagiographie et le Calendrier des Saints qui seraient sérieusement visés, néantisés, tournés en dérision; soit la parodie ludique, à portée nulle, simple jeu, farce farfelue, « pour rire ». Or, nous avons tenté de démontrer dans ce mémoire que, même s’il y a lieu d’avancer des arguments en faveur de l’un et de l’autre type de parodie, le partage ne fonctionne pas, précisément peut-être parce qu’il est possible de montrer à la fois que c’est sérieux et pas sérieux. Dans un troisième temps, on peut aussi faire la démonstration que le pas-sérieux est sérieux. Les jeux de mots, d’homophonie n’engagent-ils pas le Verbe? L’imitation impossible ne réfléchit-elle pas les imitabile de la Sainte Église? La situation énonciatrice tributaire de l’hagiographie pataphysique est non différentiable d’un souci de didactisme qui place la composante moralisatrice au centre des enjeux discursifs. Elle induit de ce fait des attentes en matière d’ethos consistant à mettre au même diapason une représentation sociale de l’énonciateur et une représentation intradiscursive au ton didactique. Elle adjoint un autre ton, savant celui-là, érudit, qui vient défaire la belle convergence et fait disjoncter la rhétorique du genre. Cette rhétoricité problématique de l’hagiographie pataphysique a été abordée sous l’angle de l’ethos. L’ethos est l’instance de validation par laquelle nous renvoyons non pas au caractère de l’orateur, mais, suivant en cela Dominique Maingueneau, au type de parole engendrée par le discours et qui, en retour, rend ce discours crédible. Que devient cette instance lorsque la visée persuasive du discours est remise en question, que l’ethos se démultiplie de façon hétérogène sans véritablement assurer la cohésion du propos ni garantir sa portée? La parodie posant incidemment un problème de visée, est-ce du côté d’un ethos parodique que se trouve la réponse? Il nous a convenu de mesurer, d’articuler, de déplacer cette postulation. Nous nous sommes saisi, pour les besoins de notre argumentation, d’une discipline historiquement lourde d’investissement théorique, soit la rhétorique. Celle-ci constitue à la fois une méthode de composition d’un discours reposant sur des lieux susceptibles de susciter l’adhésion et l’émulation de l’énonciataire et une méthode d’analyse. Guidé par une définition étendue du texte, traversant les littératures non narrative et narrative, il nous a importé enfin de restituer la pratique cymbaliste à partir d’un corpus qui est resté l’apanage du « seul » pataphysicien. Nous nous sommes ainsi situé dans l’horizon plus global de la réceptivité d’un discours qui évacue l’idéologique, qui jamais ne se laisse saisir tout à fait, ni enferrer par le fétiche du sens au profit des potentialités qu’il recèle, et cela à partir d’axiomes arbitraires soumis à l’unique exigence de cohérence interne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le traitement de première ligne de l’apnée obstructive du sommeil est l’appareil à pression positive, soit le CPAP, qui est le plus souvent utilisé avec un masque nasal. Certains patients, incapables de tolérer le masque nasal, doivent se tourner vers le masque facial, qui peut parfois requérir une pression supérieure à celle utilisée avec le masque nasal pour éliminer tous les événements respiratoires. Nous supposons que l’ajustement serré du masque facial, dans le but de réduire les fuites, entraîne une pression de recul sur la mandibule; ceci diminuerait le calibre des voies aériennes supérieures, nécessitant donc une pression effective thérapeutique supérieure pour rétablir un passage de l’air. Nos objectifs étaient : 1) de démontrer s’il y avait une différence de pression effective entre le masque nasal et le masque facial, 2) de quantifier la fuite entre les deux masques, 3) d’évaluer l’effet d’une orthèse de rétention mandibulaire neutre (OMN), qui empêche le recul mandibulaire, sur la pression effective des deux masques et 4) d’évaluer s’il existait un lien entre la céphalométrie et les réponses variables des individus. Méthodologie : Lors de cette étude expérimentale croisée, huit sujets (2 femmes, 6 hommes) avec une moyenne d’âge de 56,3ans [33ans-65ans] ont reçu un examen orthodontique complet incluant une radiographie céphalométrique latérale. Ils ont ensuite passé deux nuits de polysomnographie au laboratoire du sommeil en protocole « split-night » où les deux masques ont été portés, seuls, la première nuit, et avec l’OMN, la deuxième nuit. Résultats : Nous avons trouvé que la pression effective thérapeutique était supérieure avec le masque facial comparativement au masque nasal de manière statistiquement significative. Nous avons observé une fuite supérieure avec le masque nasal, ce qui permet de dire que la fuite n’explique probablement pas cette différence de pression entre les deux masques. L’OMN n’a pas donné d’effet statistiquement significatif lorsque combinée au masque nasal, mais il aurait probablement été possible de trouver un effet positif avec le masque facial si le Bi-PAP avait été inclus dans le protocole de recherche. Conclusion : Nos résultats ne permettent pas de confirmer le rôle du recul mandibulaire, causé par la force exercée avec le masque facial, dans l’obtention de pressions supérieures avec ce masque, mais nous ne pouvons toutefois pas éliminer l’hypothèse. Les résultats suggèrent également que ce phénomène est peut-être plus fréquent qu’on ne le croit et qu’il pourrait y avoir un lien avec certains facteurs anatomiques individuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon plusieurs auteurs, l’intelligence générale et les traits de personnalité sont des construits fondamentaux nécessaires à l’adaptation psychosociale des individus. Bien que plusieurs études menées à partir d’échantillons d’adultes aient démontré des liens significatifs entre ces deux construits, peu d’entre elles ont tenté de vérifier si ces relations pouvaient être observées aussi chez les adolescents. De plus, un nombre très restreint d’études ont étudié la question de savoir si les relations entre l’intelligence générale et les traits de personnalité étaient significatives de façon prospective avec un intervalle de temps entre les évaluations. Enfin, les études disponibles ne permettent pas de déterminer si les relations entre l’intelligence générale et les traits de personnalité sont différentes selon le sexe. La présente étude visait à combler ces vides. Les objectifs étaient, d’une part, de déterminer s’il existe des relations prédictives concurrentes et prospectives entre l’intelligence générale et les traits de personnalité chez les adolescents et, d’autre part, de vérifier si ces relations sont différentes entre les garçons et les filles. Les données utilisées proviennent de l’étude longitudinale de la Stratégie d’intervention agir autrement (SIAA). Un large échantillon d’adolescents évalués une première fois en secondaire un et réévalués à nouveau quatre ans plus tard en secondaire cinq a été employé. À la première vague de collecte de données, seule l’intelligence générale a été évaluée, tandis qu’à la deuxième vague, autant l’intelligence générale que les traits de personnalité l’ont été. La modélisation par équations structurales sur des variables latentes a été utilisée pour tester les différentes hypothèses de recherche. Les résultats ont démontré que, sur le plan concurrent, l’intelligence générale et tous les traits de personnalité considérés sont reliés significativement de façon positive, ce qui va partiellement à l’encontre des données obtenues à partir des échantillons d’adultes. Sur le plan prospectif, les résultats ont confirmé que les corrélations diminuent avec le temps, et ce, pour presque tous les traits étudiés. Finalement, les modèles d’équations structurales multi-groupes ont confirmé la présence de différences significatives entre les garçons et les filles pour certains traits de personnalité. Dans l’ensemble, bien que plusieurs résultats de la présente étude obtenus à partir d’un échantillon d’adolescents soient conformes à ceux observés auprès d’échantillons d’adultes, certaines différences intéressantes sont observées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif: Ce mémoire avait pour objectif d’examiner le contenu cognitif du discours d’agresseurs sexuels d’enfants dans un échantillon d’hommes francophones afin de déterminer s’il est possible de reproduire les catégories de théories implicites telles que proposées par Ward et Keenan (1999). Le but était également d’investiguer la possibilité de retrouver de nouvelles théories implicites. Méthode: 20 entrevues semi-structurées ont été réalisées auprès d’un échantillon d’agresseurs sexuels d’enfants judiciarisés (Centre hospitalier Robert-Giffard, Établissement Montée St-François). À partir de ces entrevues, 2 juges indépendants ont sélectionné le contenu cognitif du discours des agresseurs sexuels. Ce contenu a ensuite été classé thématiquement. Chacun des thèmes émergents a fait l’objet d’une analyse indépendante afin de déterminer si les catégories permettaient une classification optimale des distorsions cognitives. Les juges ont donc repris 3 entrevues et ont recodifié les données afin de comparer la codification. Les données ont été analysées à l’aide de NVivo, un logiciel d’analyse de données qualitatives. Les résultats ont été discutés et comparés aux résultats de Ward et Keenan (1999). Résultats: Les analyses ont permis de trouver 6 théories implicites. Les théories Le droit d’agir à sa guise, Le monde est incontrôlable et L’agression ne cause pas de tort aux enfants étaient identiques à leur version originale. La théorie Le monde est dangereux variait de sa version originale car aucun lien causal n’a été trouvé entre la perception des adultes et des enfants. Deux visions uniques et indépendantes l’une de l’autre ont plutôt été observées. Aussi, les résultats ont montré que les agresseurs partageaient une image dichotomique de la femme. D’ailleurs, ce résultat est consistant avec la théorie implicite Les femmes sont dangereuses de Polaschek et Ward (2004). La théorie Les enfants sont des êtres sexuels variait de sa version originale quant à sa conceptualisation. Les enfants sont des partenaires de vie est une nouvelle théorie implicite n’ayant pas été discutée par Ward et Keenan. Ce résultat est consistant avec les recherches de Wilson (1999) sur la congruence émotionnelle envers les enfants des agresseurs sexuels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les commotions cérébrales d’origine sportive sont fréquentes chez les athlètes professionnels et semblent l’être tout autant chez les jeunes sportifs. Chez l’adulte, les symptômes se résorbent dans la majorité des cas assez rapidement (7-10 jours), mais la récupération peut s’avérer différente chez les jeunes. Plusieurs études utilisant les potentiels évoqués cognitifs ont découvert des anomalies cérébrales en l’absence de symptômes cliniques observables chez l'adulte. Toutefois, peu de données scientifiques sont disponibles sur les répercussions d’un tel impact sur le cerveau en développement. Le but de l’étude était de déterminer s’il existe une relation entre l’âge de survenue au moment de la commotion et la gravité des déficits. Cette étude transversale a évalué le fonctionnement cognitif de sportifs par des tests neuropsychologiques ainsi que les mécanismes neuronaux de l’orientation de l’attention (P3a) et de mise à jour de l’information en mémoire de travail (P3b) à l’aide de potentiels évoqués cognitifs. Les athlètes étaient répartis selon trois groupes d’âge [9-12 ans (n=32); 13-16 ans (n=34); adultes (n=30)], la moitié ayant subi une commotion dans la dernière année. Les comparaisons entre les groupes ont été effectuées par une série d’ANOVAs. Comparativement au groupe contrôle, les adolescents commotionnés présentaient des déficits de mémoire de travail. Les athlètes commotionnés démontraient une réduction de l’amplitude de la P3b comparativement aux non-commotionnés. Les résultats illustrent la présence de déficits neurophysiologiques persistants et ce, au moins six mois suivant l’impact. Les enfants semblent aussi sensibles que les adultes aux effets délétères d’une commotion cérébrale et les conséquences s’avèrent plus sévères chez l’adolescent.