990 resultados para Troisième cinéma


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le but d’examiner les mécanismes qui sous-tendent le développement de la sécurité d’attachement chez l’enfant, Grossmann et al. (1999; 2008) proposent une perspective plus vaste de l’étude de l’attachement chez l’enfant, examinant les comportements parentaux pertinents aux deux côtés de l’équilibre entre le système d’attachement et le système d’exploration. La thèse se base sur cette approche pour explorer la relation entre la sécurité d’attachement chez l’enfant et deux comportements maternels, soit la sensibilité maternelle et le soutien à l’autonomie maternel, de même que la relation entre ces deux comportements et l’état d’esprit maternel face à l’attachement. Le premier article propose que la théorie de l’autodétermination, avec ses études empiriques portant sur les comportements parentaux liés à l’exploration, offre une perspective utile pour l’étude des comportements d’exploration dans le cadre de l’équilibre attachement/exploration. L’article présente une revue théorique et empirique des domaines de l’attachement et de la théorie de l’autodétermination et souligne des analogies conceptuelles et empiriques entre les deux domaines, en plus de décrire la façon dont ils se complètent et se complémentent. Le deuxième article étudie les liens entre la sensibilité maternelle, le soutien à l’autonomie maternel et la sécurité d’attachement chez l’enfant. Soixante et onze dyades ont participé à deux visites à domicile. La sensibilité maternelle a été évaluée lorsque les enfants étaient âgés de 12 mois, alors que le soutien à l’autonomie maternel et la sécurité d’attachement chez l’enfant l’ont été lorsque les enfants avaient atteint l’âge de 15 mois. Les résultats indiquent que le soutien à l’autonomie maternel explique une portion significative de la variance de la sécurité d’attachement, et ce, après avoir contrôlé pour la sensibilité maternelle et le statut socio-économique. Le troisième article examine les relations entre deux dimensions de l’état d’esprit maternel face à l’attachement (esquivant et préoccupé/non-résolu), la sensibilité maternelle et le soutien à l’autonomie maternel. Soixante et onze dyades ont participé à trois visites à domicile. L’Entrevue d’Attachement Adulte (EAA) a été administrée lorsque les enfants étaient âgés de 8 mois, la sensibilité maternelle a été évaluée alors qu’ils avaient atteint l’âge de 12 mois et le soutien à l’autonomie maternel, lorsqu’ils avaient 15 mois. Les résultats révèlent qu’après avoir contrôlé pour le statut socio-économique, la sensibilité maternelle est liée de façon négative à la dimension « esquivant » de l’EAA, alors que le soutien à l’autonomie maternel est lié de façon négative à la dimension « préoccupé/non-résolu ». Les résultats présentés dans le deuxième et le troisième article sont discutés, de même que de leurs répercussions théoriques et cliniques. Des questions susceptibles de guider des recherches futures sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La présente thèse doctorale vise à déterminer sous quelles conditions la garde non-maternelle est associée (positivement/négativement) au niveau de stress et au développement cognitif des enfants. Elle comporte une recension des écrits et trois articles empiriques. Le premier article présente une recension des écrits (de type méta-analytique) qui synthétise les études portant sur le stress des enfants en services de garde et ayant utilisé le niveau de cortisol comme indicateur. Les résultats montrent que la garde non-maternelle est associée au niveau de stress des enfants, se reflétant dans des concentrations de cortisol élevées. Les niveaux de stress élevés s’observent particulièrement chez les enfants qui au départ ont tendance à être retirés, anxieux ou qui sont gardés dans un milieu de faible qualité. Cependant, certains éléments indiquent que les élévations de cortisol à la garderie sont temporaires et qu’elles disparaissent au fur et à mesure que l’enfant s’adapte à son milieu. Le deuxième article de thèse, réalisé dans le contexte de l’Échantillon longitudinal national des enfants et des jeunes [ELNEJ] (n = 3093), vise à déterminer dans quelle mesure l’association entre la fréquentation des services de garde et l’acquisition du vocabulaire réceptif au préscolaire dépend du milieu familial de l’enfant. Les résultats indiquent qu’à l’intérieur du groupe d’enfants défavorisés, ceux ayant été gardés à temps plein dans la première année de vie obtiennent des scores supérieurs sur une mesure de vocabulaire réceptif administrée à 4 ½ ans, comparativement aux enfants restés à la maison avec la mère (d=0.58). Le troisième article, réalisé dans le contexte de l’Étude longitudinale des enfants du Québec [ELDEQ]; (n=2,120), vise à documenter les bénéfices à long terme de la fréquentation des services de garde par les enfants issus de milieux désavantagés sur la préparation scolaire et les compétences académiques. Les résultats révèlent que les enfants dont la mère n’a pas terminé ses études secondaires obtiennent de meilleurs résultats sur une mesure de préparation scolaire cognitive (d=0.56) et de vocabulaire réceptif (d=0.30) en maternelle, et de connaissance des nombres (d=0.43) en première année, s’ils ont fréquenté un service de garde sur une base régulière. Par ailleurs, la garde non-parentale n’est pas associée aux compétences cognitives des enfants de milieux sociaux favorisés. L’objectif du quatrième article est d’examiner les facteurs de sélection quant à l’utilisation des services de garde dans le contexte de l’ELDEQ. Les résultats montrent que l’absence d’emploi de la mère pendant la grossesse, le faible niveau d’éducation de la mère; le revenu insuffisant de la famille, avoir plus de 2 frères et sœurs, la surprotection maternelle, et le faible niveau de stimulation cognitive sont associés à une faible utilisation des services de garde (30.7% de l’échantillon québécois). En d’autres termes, les enfants qui sont les plus susceptibles de retirer des avantages des services de garde sur le plan du développement, en raison de la présence de facteurs de risque dans leur milieu familial, sont aussi ceux qui utilisent le moins les services de garde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse aborde la question de la valeur de la littérature contemporaine, en posant la question de la puissance de la création langagière. Dans la mesure où l’humanisme tombe en désuétude avec la fin de l’hégémonie médiatique de l’imprimerie, et où le capitalisme contemporain assigne à la culture un rôle économique et récréatif, la « littérature » se retrouve sans « critère final » pour penser sa puissance non économique. En d’autres termes, quels sont les effets intermédiaux de la création langagière livresque qui survivent à l’humanisme tout en résistant à la communication récréative? Il en va bien sûr de la nature même de la « création littéraire ». Le premier chapitre explore les liens entre l’humanisme et l’imprimerie à partir d’un concept de fongibilité, et introduit un ensemble de concepts clé. Le deuxième chapitre présente un autre ensemble de concepts (dont le geste vertical), cette fois pour penser le langage en termes de pouvoir et de puissance. Le troisième chapitre aborde le « capitalisme civilisationnel » en termes intermédiaux. On y réfléchit sur la saturation, la séparation et la fenestration, notamment à partir d’une éthique du jeu. Le quatrième chapitre traite de la question de la plasticité. Enfin, les cinquième et sixième chapitres forment deux exemples – des exemples de puissance – à partir des oeuvres de Valère Novarina (Lumières du corps) et de David Foster Wallace (Infinite Jest). Le corpus théorique se compose d’éléments puisés d’une part dans l’oeuvre de Walter Benjamin et de Giorgio Agamben, selon un matérialisme messianique, et d’autre part dans celle de Gilles Deleuze. Certaines considérations sont également tenues sous l’influence de Michel Foucault et de Ludwig Wittgenstein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse propose une approche du mémoriel qui interroge la production de la mémoire dans son caractère processuel. Elle comporte trois caractéristiques principales. D’abord, elle met l’accent sur une pluralité des temps qui participe de la production de la mémoire (mais aussi de l’instauration de collectivités et de la production de leurs continuités). Elle place aussi les processus de représentation au cœur de ses questionnements – notamment, elle met l’accent sur les manières par lesquelles la mémoire est constituée par la représentation (au lieu d’examiner les manières par lesquelles la mémoire est représentée). Enfin, elle interroge les manières par lesquelles la production de la mémoire concourt à délimiter, entretenir et faire être des collectivités, et quelles formes de collectivisation sont à cet égard réalisées. Le premier chapitre expose cette approche de la mémoire en constraste avec une présentation de trois grandes familles d’approches – les approches de la mémoire collective, celles de la mémoire culturelle et les approches présentistes – qui appréhendent la mémoire comme un construit. Il explique aussi comment je mets le mémoriel à profit dans une analyse de surface qui appréhende la constitution des représentations par lesquelles l’ex-hockeyeur Maurice Richard et l’ex-animatrice et auteure Janette Bertrand sont établis comme personnalités publiques, par le biais de technologies et de figures d’individualité publique qui les font être de manières singulières. Dans cette optique, je réalise, dans le deuxième chapitre, une analyse de la constitution de Maurice Richard comme héros, et dans le troisième, un examen de la constitution de Janette Bertrand comme pionnière. Dans le quatrième et dernier chapitre, je constate notamment les effectivités respectives des technologies et des procédés de représentation par lesquels des personnalités publiques sont instaurées. Je mets aussi en lumière que ces technologies et les éléments qu’elles produisent, traversent et mettent en relation, s’appréhendent à chaque fois dans la singularité de leurs rencontres. Je conclus ensuite en mettant en lumière les manières par lesquelles mon approche du mémoriel contribue aux études de la mémoire, lesquelles sont l’objet d’une disciplinarisation croissante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans les neurones et les cellules vasculaires cérébrales, les dérivés réactifs de l’oxygène jouent un double rôle puisqu’ils peuvent avoir à la fois des effets bénéfiques, à faibles concentrations, et des effets délétères, à des concentrations élevées. Chez la souris, la circulation cérébrale se distingue des autres lits vasculaires puisque le peroxyde d’hydrogène (H2O2) est le principal médiateur endothélial relaxant endogène. L’objectif de notre première étude a été de caractériser l’implication physiologique du H2O2 dérivé de la eNOS dans la fonction endothéliale cérébrale de la souris. Nous avons voulu identifier les mécanismes impliqués dans la dilatation induite par l’augmentation de débit intra-luminal (flow-mediated dilation, FMD). La FMD est la réponse à un stimulus physiologique endothélial la plus représentative de la situation in vivo. Nous avons démontré que le H2O2, et non le monoxyde d’azote (NO), dérivant de l’activation de la eNOS cérébrale, est le principal médiateur de la FMD. Cependant, nous connaissons très peu de données sur l’évolution de la voie du H2O2 au cours du vieillissement qu’il soit associé ou non aux facteurs de risque pour les maladies cardiovasculaires. Au cours du vieillissement, au niveau périphérique, les facteurs endothéliaux constricteurs ou dilatateurs évoluent en fonction de l’augmentation de stress oxydant. La présence de facteurs de risque pour les maladies cardiovasculaires, telle que l’hypercholestérolémie, pourrait accentuer l’augmentation du stress oxydant et ainsi accélérer la dysfonction endothéliale. Au niveau cérébral, très peu de données sont disponibles. Dans le cadre de notre deuxième étude, nous avons émis l’hypothèse qu’un débalancement des facteurs endothéliaux pourrait être à l’origine (1) de la dysfonction endothéliale cérébrale observée au cours du vieillissement et (2) de la dysfonction endothéliale précoce qui apparaît en présence d’athérosclérose. Nos résultats ont montré que l’augmentation de stress oxydant associée au vieillissement conduit à une libération endogène accrue de TXA2 qui diminue la voie du H2O2 au niveau cérébral et, par conséquent, réduit la dilatation dépendante de l’endothélium. De plus, la présence d’athérosclérose accélère l’apparition de la dysfonction endothéliale cérébrale. Le rôle clé joué par le stress oxydant a été confirmé par un traitement préventif avec l’antioxydant catéchine qui a permis de renverser tous les effets délétères de l’athérosclérose sur les fonctions endothéliales cérébrales. Finalement, la dysfonction endothéliale cérébrale précoce, associée avec l’athérosclérose, pourrait non seulement augmenter l’incidence de développer des accidents vasculaires cérébraux (AVC) mais aussi induire une diminution du débit sanguin cérébral et, ultimement, affecter les fonctions neuronales. Dans le cadre de notre troisième étude, nous avons émis l’hypothèse que l’augmentation de stress oxydant est associée avec une diminution du débit sanguin cérébral et un déclin subséquent des fonctions cognitives. Nous avons utilisé des souris athérosclérotiques âgées de 3 mois que nous avons soumises, ou pas, à un traitement chronique à la catéchine. Nos travaux montrent qu’un traitement préventif avec la catéchine peut prévenir les effets néfastes de l’athérosclérose sur la FMD, le débit sanguin et le déclin des fonctions cognitives qui est normalement associé au vieillissement. Nos résultats ont permis de distinguer l’effet du vieillissement des effets de l’athérosclérose sur les fonctions vasculaires cérébrales. Le traitement préventif avec la catéchine a eu des effets bénéfiques marqués sur la fonction endothéliale cérébrale, le débit sanguin cérébral et les fonctions cognitives, démontrant le rôle clé de l’environnement redox dans la régulation des fonctions cérébrales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La téléréadaptation, tout comme d’autres champs en télésanté, est de plus en plus interpelée pour la prestation de services. Le but de ce projet de thèse est d’enrichir l’évaluation de la téléréadaptation afin que les connaissances qui en découlent puissent venir soutenir la prise de décision d’acteurs impliqués à différents niveaux en téléréadaptation. Le premier article présente une revue systématique dont l’objectif était de faire synthèse critique des études en téléréadaptation. La revue rassemble 28 études en téléréadaptation, qui confirment l’efficacité de la téléréadaptation pour diverses clientèles dans différents milieux. Certaines des études suggèrent également des bénéfices en termes de coûts, mais ces résultats demeurent préliminaires. Cette synthèse critique est utile pour soutenir la décision d’introduire la téléréadaptation pour combler un besoin. Par contre, les décideurs bénéficieraient aussi de connaissances par rapport aux changements cliniques et organisationnels qui sont associés à la téléréadaptation lorsqu’elle est introduite en milieu clinique. Les deux autres articles traitent d’une étude de cas unique qui a examiné un projet clinique de téléréadaptation dans l’est de la province de Québec, au Canada. Le cadre conceptuel qui sous-tend l’étude de cas découle de la théorie de structuration de Giddens et des modèles de structuration de la technologie, en particulier de l’interaction entre la structure, l’agent et la technologie. Les données ont été recueillies à partir de plusieurs sources (groupes de discussion, entrevues individuelles, documents officiels et observation d’enregistrements) suivi d’une analyse qualitative. Le deuxième article de la thèse porte sur le lien entre la structure, l’agent et la culture organisationnelle dans l’utilisation de la téléréadaptation. Les résultats indiquent que les différences de culture organisationnelle entre les milieux sont plus évidentes avec l’utilisation de la téléréadaptation, entraînant des situations de conflits ainsi que des occasions de changement. De plus, la culture organisationnelle joue un rôle au niveau des croyances liées à la technologie. Les résultats indiquent aussi que la téléréadaptation pourrait contribuer à changer les cultures organisationnelles. Le troisième article examine l’intégration de la téléréadaptation dans les pratiques cliniques existantes, ainsi que les nouvelles routines cliniques qu’elle permet de soutenir et la pérennisation de la téléréadaptation. Les résultats indiquent qu’il y a effectivement certaines activités de téléréadaptation qui se sont intégrées aux routines des intervenants, principalement pour les plans d’intervention interdisciplinaire, tandis que pour les consultations et le suivi des patients, l’utilisation de la téléréadaptation n’a pas été intégrée aux routines. Plusieurs facteurs en lien avec la structure et l’agent ont contraint et facilité l’intégration aux routines cliniques, dont les croyances partagées, la visibilité de la téléréadaptation, le leadership clinique et organisationnel, la disponibilité des ressources, et l’existence de liens de collaboration. La pérennité de la téléréadaptation a aussi pu être observée à partir de la généralisation des activités et le développement de nouvelles applications et collaborations en téléréadaptation, et ce, uniquement pour les activités qui s’étaient intégrées aux routines des intervenants. Les résultats démontrent donc que lorsque la téléréadaptation n’est pas intégrée aux routines cliniques, elle n’est pas utilisée. Par contre, la téléréadaptation peut démontrée certains signes de pérennité lorsque les activités, qui sont reproduites, deviennent intégrées aux routines quotidiennes des utilisateurs. Ensemble, ces études font ressortir des résultats utiles pour la mise en place de la téléréadaptation et permettent de dégager des pistes pour enrichir le champ de l’évaluation de la téléréadaptation, afin que celui-ci devienne plus pertinent et complet, et puisse mieux soutenir les prises de décision d’acteurs impliqués à différents niveaux en téléréadaptation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire portera sur un aspect négligé de la querelle analogie-anomalie, la position des soi-disant anomalistes. On s'appliquera en effet à confronter le portrait de l'anomaliste présenté par Varron dans son De Lingua Latina, qui passe souvent pour être Cratès de Mallos, à ce que nous connaissons du grammairien à travers les scholies homériques. En un premier temps seront résumés et analysés les livres 8 à 10 du De Lingua Latina, seul témoignage positif au sujet de la querelle. Au deuxième chapitre seront examinés puis rejetées les sources grecques que la critique moderne a jugées perninentes à la reconstruction de la querelle. Une attention particulière sera accordée à l'école empiriste, à laquelle on a voulu associer la supposée école anomaliste. L'attaque de la grammaire par Sextus Empiricus (Adversus Mathematicos I) sera aussi abordée en détail et ce traité antigrammatical sera mis en parallèle avec le livre 8 du De Lingua Latina. Au troisième chapitre la querelle sera enfin remise dans son contexte original, celui des éditions alexandrines et pergaméennes des auteurs classiques, en particulier Homère. Après une historique du développement de la diorthose (correction des manuscrits d'Homère) de Zénodote à Aristarque, un survol des leçons qui sont attribuées à Cratès montrera le désaccord entre les deux protagonistes de la querelle sur la pratique de l'analogie dans l'édition d'un nouveau texte de la poésie homérique. L'apparition d'anomalies grammaticales dans les leçons de Cratès s'explique par la théorie littéraire euphoniste dont il était partisan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer de la prostate est le cancer le plus fréquemment diagnostiqué chez les hommes canadiens et la troisième cause de décès relié au cancer. Lorsque diagnostiqué à un stade précoce de la maladie, le cancer de la prostate est traité de manière curative par chirurgie et radiothérapie. Par contre, les thérapies actuelles ne peuvent éradiquer la maladie lorsqu’elle progresse à des stades avancés. Ces thérapies, comme la chimiothérapie et l’hormonothérapie, demeurent donc palliatives. Il est primordial d’optimiser de nouvelles thérapies visant l’élimination des cellules cancéreuses chez les patients atteints des stades avancés de la maladie. Une de ces nouvelles options thérapeutiques est l’immunothérapie. L’immunothérapie du cancer a fait des progrès considérables durant les dernières années. Cependant, les avancements encourageants obtenus lors d’essais précliniques ne se sont pas encore traduits en des résultats cliniques significatifs. En ce qui concerne le cancer de la prostate, les résultats négligeables suivants des interventions immunothérapeutiques peuvent être causés par le fait que la plupart des études sur le microenvironnement immunologique furent effectuées chez des modèles animaux. De plus la majorité des études sur l’immunologie tumorale humaine furent effectuées chez des patients atteints d’autres cancers, tels que le mélanome, et non chez les patients atteints du cancer de la prostate. Donc, le but central de cette thèse de doctorat est d’étudier le microenvironnement immunologique chez les patients atteints du cancer de la prostate afin de mieux définir les impacts de la tumeur sur le développement de la réponse immunitaire antitumorale. Pour réaliser ce projet, nous avons établi deux principaux objectifs de travail : (i) la caractérisation précise des populations des cellules immunitaires infiltrant la tumeur primaire et les ganglions métastatiques chez les patients atteints du cancer de la prostate; (ii) l’identification et l’étude des mécanismes immunosuppressifs exprimés par les cellules cancéreuses de la prostate. Les résultats présentés dans cette thèse démontrent que la progression du cancer de la prostate est associée au développement d’un microenvironnement immunosuppressif qui, en partie, est régulé par la présence des androgènes. L’étude initiale avait comme but la caractérisation du microenvironnement immunologique des ganglions drainant la tumeur chez des patients du cancer de la prostate. Les résultats présentés dans le chapitre III nous a permis de démontrer que les ganglions métastatiques comportent des signes cellulaires et histopathologiques associés à une faible réactivité immunologique. Cette immunosuppression ganglionnaire semble dépendre de la présence des cellules métastatiques puisque des différences immunologiques notables existent entre les ganglions non-métastatiques et métastatiques chez un même patient. La progression du cancer de la prostate semble donc associée au développement d’une immunosuppression affectant les ganglions drainant la tumeur primaire. Par la suite, nous nous sommes intéressés à l’impact de la thérapie par déplétion des androgènes (TDA) sur le microenvironnement immunologique de la tumeur primaire. La TDA est associée à une augmentation marquée de l’inflammation prostatique. De plus, les protocoles d’immunothérapies pour le cancer de la prostate actuellement évalués en phase clinique sont dirigés aux patients hormonoréfractaires ayant subi et échoué la thérapie. Cependant, peu d’information existe sur la nature de l’infiltrat de cellules immunes chez les patients castrés. Il est donc essentiel de connaître la nature de cet infiltrat afin de savoir si celui-ci peut répondre de manière favorable à une intervention immunothérapeutique. Dans le chapitre IV, je présente les résultats sur l’abondance des cellules immunes infiltrant la tumeur primaire suivant la TDA. Chez les patients castrés, les densités de lymphocytes T CD3+ et CD8+ ainsi que des macrophages CD68+ sont plus importantes que chez les patients contrôles. Nous avons également observé une corrélation entre la densité de cellules NK et une diminution du risque de progression de la maladie (rechute biochimique). Inversement, une forte infiltration de macrophages est associée à un plus haut risque de progression. Conjointement, durant cette étude, nous avons développé une nouvelle approche informatisée permettant la standardisation de la quantification de l’infiltrat de cellules immunes dans les échantillons pathologiques. Cette approche facilitera la comparaison d’études indépendantes sur la densité de l’infiltrat immun. Ces résultats nous ont donc permis de confirmer que les effets pro-inflammatoires de la TDA chez les patients du cancer de la prostate ciblaient spécifiquement les lymphocytes T et les macrophages. L’hypothèse intéressante découlant de cette étude est que les androgènes pourraient réguler l’expression de mécanismes immunosuppressifs dans la tumeur primaire. Dans le chapitre V, nous avons donc étudié l’expression de mécanismes immunosuppressifs par les cellules cancéreuses du cancer de la prostate ainsi que leur régulation par les androgènes. Notre analyse démontre que les androgènes augmentent l’expression de molécules à propriétés immunosuppressives telles que l’arginase I et l’arginase II. Cette surexpression dépend de l’activité du récepteur aux androgènes. Chez les patients castrés, l’expression de l’arginase II était diminuée suggérant une régulation androgénique in vivo. Nous avons observé que l’arginase I et l’arginase II participent à la prolifération des cellules du cancer de la prostate ainsi qu’à leur potentiel immunosuppressif. Finalement, nous avons découvert que l’expression de l’interleukin-8 était aussi régulée par les androgènes. De plus, l’interleukin-8, indépendamment des androgènes, augmente l’expression de l’arginase II. Ces résultats confirment que les androgènes participent au développement d’une microenvironnement immunosuppressif dans le cancer de la prostate en régulant l’expression de l’arginase I, l’arginase II et l’interleukin-8. En conclusion, les résultats présentés dans cette thèse témoignent du caractère unique du microenvironnement immunologique chez les patients atteints du cancer de la prostate. Nos travaux ont également permis d’établir de nouvelles techniques basées sur des logiciels d’analyse d’image afin de mieux comprendre le dialogue entre la tumeur et le système immunitaire chez les patients. Approfondir les connaissances sur les mécanismes de régulation du microenvironnement immunologique chez les patients atteint du cancer de la prostate permettra d’optimiser des immunothérapies mieux adaptées à éradiquer cette maladie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les naines brunes sont des astres incapables de déclencher et soutenir des réactions nucléaires dans leur cœur. En l’absence de cette source d’énergie, leur luminosité diminue avec le temps jusqu’à leur extinction complète. Leur flux aux longueurs d’onde de 0,8 à 2,35 μm est particulièrement altéré par l’humidité contenue dans l’atmosphère terrestre, ce qui complique l’étude de ces astres. Le but de la présente recherche est de vérifier si la division par un spectre d’étoile A0 est un moyen de corriger l’altération causée par l’atmosphère terrestre sur cette partie de leur spectre. Tout d’abord, des notions, pertinentes à la compréhension de ce travail, sont abordées. L’introduction présente quelques notions sur les naines brunes et sur l’atmosphère terrestre. Le deuxième chapitre concerne le traitement des données. Il traite de la calibration, de la mise en évidence du problème de non-répétabilité de la position de la fente du spectromètre SIMON ainsi que de ses causes. Il porte aussi sur l’uniformisation de la réponse des pixels et de la soustraction du ciel pour extraire les spectres. La méthode employée pour étudier l’effet de l’atmosphère terrestre sur les spectres de naines brunes y est présentée. Le troisième chapitre analyse les résultats obtenus par l’utilisation de l’étoile de référence de type A0 comme calibration pour corriger le spectre de naine brune, en assumant un même effet de l’atmosphère terrestre sur les deux types d’astres. Nous ne pouvons conclure, avec certitude, que l’absorption tellurique affecte de la même façon les deux spectres ni de quelle façon exactement ils sont affectés. Une recherche supplémentaire nécessitant de nouvelles prises de données à des masses d’air et à des taux d’humidité variés est requise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Ruah YHWH joue un rôle important dans la transformation créative de l’univers et des entités actuelles; cependant, une réflexion concernant les modalités de ce rôle reste à développer. La théologie processuelle offre une plateforme à partir de laquelle sont examinées diverses facettes des rôles que peut jouer la Ruah YHWH dans un monde où le chaos semble dominer. L’objectif de ce mémoire est justement d’explorer la Ruah YHWH dans son rôle de transformation créative au service, ultimement de l’ordre, de la paix et de l’harmonie dans le monde, les communautés, la vie des entités actuelles, etc. Le Chapitre 1 passe en revue des notions clés de la théologie processuelle. Le concept des “entités actuelles” est d’abord défini. Sont ensuite examinées les différentes phases du devenir d’une entité actuelle. Finalement, les concepts de “créativité” et de “transformation”, dans une perspective de la Ruah YHWH font l’objet d’observations attentives avant d’aborder « trois natures » de Dieu, à savoir primordiale, conséquente, et superjective. Le Chapitre 2 s’intéresse à la péricope centrale de ce mémoire : Juges 13:24-14:20. Le découpage de la structure de cette péricope est basé sur des critères de critique textuelle et d’analyse syntaxique. La première analyse s’attarde aux difficultés que le texte hébreu présente, alors que la deuxième met l’accent sur l’organisation structurelle des propositions grammaticales des versets. Les deux analyses me permettent ensuite de proposer une traduction du péricope. Le Chapitre 3 se veut une application de ce qui a été élaboré au Chapitre 1 sur la péricope analysée au Chapitre 2. Ce troisième chapitre permet de mettre en pratique une approche processuelle originale développée par Robert David dans son livre Déli_l’ ÉCRITURE. Dans la foulée des chapitres qui le précèdent, le Chapitre 4 propose quelques principes herméneutiques contemporains pouvant éclairer le rôle de la Ruah YHWH dans l’avancée créative du monde : vie, amour, et paix.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon sujet de recherche traite sur la prononciation de l'espagnol comme langue étrangère chez les élèves québécois, sur leurs difficultés concrètes et lignes de correction qui peuvent leur être attribuées. Dans une première partie plus générale, nous traiterons sur l'enseignement de la prononciation, de la place qu'elle occupe dans l'enseignement d'une langue étrangère. Nous croyons que la prononciation est un aspect de la langue qui a été mis de côté pour mettre en valeur la communication. Si une "mauvaise" prononciation n'entrave pas à la compréhension ou à la communication, elle n'est pas corrigée ni travaillée. Nous pouvons donc nous retrouver avec des étudiants ayant un haut niveau d'espagnol mais dont la prononciation connaît certaines lacunes. Nous déterminerons également ce que nous entendons par "meilleure" ou "mauvaise" prononciation, nous nous interrogerons également sur la pertinence de l'enseignement de la phonétique. Nous nous poserons aussi la question sur la place de la prononciation selon la méthodologie didactique utilisée, et analyserons la quantité et qualité des exercices de prononciation présents ou pas dans les manuels scolaires, et s'ils correspondent aux exigences des documents officiels tels le Cadre commun européenne de référence, ou le Plan curricular de l'institut Cervantès. Dans une deuxième partie nous nous questionnons sur les facteurs qui conditionnent l'apprentissage d'une langue et le perfectionnement de la prononciation dans une langue étrangère, car nous croyons que peut importe l'âge de l'étudiant, il y a toujours place à l'amélioration dans la prononciation. Nous nous interrogeons ensuite sur les tendances générales des francophones lors de leur prononciation de l'espagnol, nous ferons une étude contrastive des phonèmes espagnols et français, puis nous étudierons plus en détail les tendances des élèves québécois, car nous croyons que ces derniers sont dotés de certains atouts en comparaison à d'autres francophones. Dans une troisième partie, nous proposons des exercices visant à améliorer la prononciation chez nos élèves, et afin de vérifier l'efficacité de ces exercices, nous enregistrerons des étudiants ayant bénéficié de ces exercices, et d'autres qui n'y auront pas eu droit. Cette étude comparative cherche à prouver que ces exercices aident réellement et qu'ils, ou d'autres exercices de ce genre, devraient être inclus dans l'enseignement. Le questionnaire dont il s'agit s'attarde principalement au phénomène du [r], que nous croyons être un, ou le son le plus difficile à prononcer en espagnol (autant la vibrante simple comme multiple). Bien entendu, une partie de ce chapitre sera consacrée à l'analyse de résultats.