565 resultados para Régions de confiance
Resumo:
Introduction : Une augmentation de la plasticité cérébrale est susceptible d’être impliquée dans la réallocation des régions corticales et dans les nombreuses altérations microstructurelles observées en autisme. Considérant les nombreux résultats démontrant un surfonctionnement perceptif et un fonctionnement moteur atypique en autisme, l’augmentation de la plasticité cérébrale suggère une plus grande variabilité individuelle de l’allocation fonctionnelle chez cette population, plus spécifiquement dans les régions perceptives et motrices. Méthode : Afin de tester cette hypothèse, 23 participants autistes de haut-niveau et 22 non-autistes appariés pour l’âge, le quotient intellectuel, les résultats au test des Matrices de Raven et la latéralité, ont réalisé une tâche d’imitation visuo-motrice dans un appareil d’imagerie par résonnance magnétique fonctionnelle (IRMf). Pour chaque participant, les coordonnées du pic d’activation le plus élevé ont été extraites des aires motrices primaires (Aire de Brodmann 4 (BA4)) et supplémentaires (BA6), du cortex visuo-moteur pariétal supérieur (BA7) ainsi que des aires visuelles primaires (BA17) et associatives (BA18+19) des deux hémisphères. L’étendue des activations, mesurée en fonction du nombre de voxels activés, et la différence d’intensité des activations, calculée en fonction du changement moyen d’intensité du signal ont également été considérées. Pour chaque région d’intérêt et hémisphère, la distance entre la localisation de l’activation maximale de chaque participant par rapport à celle de la moyenne de son groupe a servi de variable d’intérêt. Les moyennes de ces distances individuelles obtenues pour chaque groupe et chacune des régions d’intérêt ont ensuite été soumises à une ANOVA à mesures répétées afin de déterminer s’il existait des différences de variabilité dans la localisation des activations entre les groupes. Enfin, l’activation fonctionnelle générale à l’intérieur de chaque groupe et entre les groupes a également été étudiée. Résultats : Les résultats démontrent qu’une augmentation de la variabilité individuelle en terme de localisation des activations s’est produite à l’intérieur des deux groupes dans les aires associatives motrices et visuelles comparativement aux aires primaires associées. Néanmoins, malgré le fait que cette augmentation de variabilité dans les aires associatives soit partagée, une comparaison directe de celle-ci entre les groupes a démontré que les autistes présentaient une plus grande variabilité de la localisation des activations fonctionnelles dans le cortex visuo-moteur pariétal supérieur (BA7) et les aires associatives visuelles (BA18+19) de l’hémisphère gauche. Conclusion : Des stratégies différentes et possiblement uniques pour chaque individu semblent être observées en autisme. L’augmentation de la variabilité individuelle de la localisation des activations fonctionnelles retrouvée chez les autistes dans les aires associatives, où l’on observe également davantage de variabilité chez les non-autistes, suggère qu’une augmentation et/ou une altération des mécanismes de plasticité est impliquée dans l’autisme.
Resumo:
Commentaire / Commentary
Resumo:
Certaines études ont démontrés que les connexions entre l’aire prémotrice ventrale (PMv) et la région de la main du cortex moteur primaire (M1) sont distribuées non-uniformément, ciblant des sous-régions spécifiques dans M1. Dans la présente étude nous avons voulu développer ces résultats en étudiant la distribution au sein de M1 des projections corticales issues de PMv, l’aire prémotrice dorsale (PMd), l’aire motrice supplémentaire (SMA) et les aires pariétales 1, 2 et 5. Pour se faire, nous avons combiné des approches électrophysiologiques et anatomiques chez trois singes naïfs du Nouveau Monde (Cebus apella) pour examiner l’organisation et la spécificité topographique des projections corticales dans M1. Nos résultats indiquent que quatre sous-régions à l’intérieur de la région dédiée à la main reçoivent des inputs prédominants de différentes aires sensorimotrices. Ces résultats suggèrent que des sous-régions de M1 puissent avoir des fonctions spécifiques pour le contrôle moteur de la main et des doigts.
Étude du rôle des régions variables 4 et 5 dans les changements de conformation de la gp120 du VIH-1
Resumo:
Le VIH infecte les cellules par fusion de sa membrane avec la membrane de la cellule cible. Cette fusion est effectuée par les glycoprotéines de l'enveloppe (Env) qui sont synthétisées en tant que précurseur, gp160, qui est ensuite clivé en gp120 et gp41. La protéine gp41 est la partie transmembranaire du complexe de l'enveloppe et l’ancre à la particule virale alors que la gp120 assure la liaison au récepteur cellulaire CD4 et corécepteur CCR5 ou CXCR4. Ces interactions successives induisent des changements de conformation d’Env qui alimentent le processus d'entrée du virus conduisant finalement à l'insertion du peptide de fusion de la gp41 dans la membrane de la cellule cible. La sous-unité extérieure gp120 contient cinq régions variables (V1 à V5), dont trois (V1, V2 et V3) étant capables d’empêcher l’adoption spontanée de la conformation liée à CD4. Cependant, le rôle de régions variables V4 et V5 vis-à-vis de ces changements de conformation reste inconnu. Pour étudier leur effet, des mutants de l'isolat primaire de clade B YU2, comprenant une délétion de la V5 ou une mutation au niveau de tous les sites potentiels de N-glycosylation de la V4 (PNGS), ont été générés. L'effet des mutations sur la conformation des glycoprotéines d'enveloppe a été analysé par immunoprécipitation et résonance de plasmon de surface avec des anticorps dont la liaison dépend de la conformation adopté par la gp120. Ni le retrait des PNGS de la V4 ni la délétion de V5 n’a affecté les changements conformationnels d’Env tels que mesurés par ces techniques, ce qui suggère que les régions variables V1, V2 et V3 sont les principaux acteurs dans la prévention de l’adoption de la conformation lié de CD4 d’Env.
Resumo:
Dans quelle mesure la montée de la reddition de comptes et de l’évaluation en éducation est-elle significative d’un déclin de la confiance de l’Etat, des administrateurs scolaires et des usagers dans la capacité des organisations scolaires à remplir correctement leurs missions ? N’est-elle pas également symptômatique d’une perte de confiance à l’égard des enseignants et de leur professionnalisme? Nous traiterons ces questions en proposant une réflexion à partir des théories de la confiance en sciences sociales. Nous distinguerons en particulier les théories qui s’interrogent sur les conditions de confiance dans les transactions économiques et celles qui raisonnent la confiance « politique » dans les institutions. Nous argumentons que les dispositifs d’accountability tendent surtout à réduire l’incertitude des clients/managers quant aux risques d’opportunisme et d’opacité des opérateurs scolaires. Il s’agit de favoriser la bonne marche « du marché » ou de « l’organisation productive » scolaire, au risque d’une perte d’autonomie professionnelle des enseignants et sans pour autant que l’Ecole ne redevienne une institution politique «digne de confiance ».
Resumo:
Ce cahier est basé sur la réflexion autobiographique de deux chercheuses ayant effectué des recherches qualitatives et ethnographiques, de 2008 à 2014, en Asie centrale et du Sud-‐Est. Les expériences sur le terrain constituent des moyens de comparaisons dans le présent document. En mettant l’accent sur le positionnement sur le terrain, l’étude montre que, d’abord, il est essentiel de détenir une poste intermédiaire et de parler une langue locale afin de garantir un accès et de mener des activités de recherche sur le terrain. Deuxièmement, différentes régions prédéterminent des contextes culturels et politiques ponctuels qui, à leur tour, façonneraient la recherche en sciences sociales. Troisièmement, le fait d’être une femme présente à la fois des avantages et des inconvénients. Enfin, en termes de méthodologie, les stages et les entrevues se sont avérés des méthodes fiables pour la collecte des données empiriques sur les régions ci-‐dessus mentionnées, sans pour autant permettre de bâtir la confiance.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Dans ce texte, nous analysons les développements récents de l’économétrie à la lumière de la théorie des tests statistiques. Nous revoyons d’abord quelques principes fondamentaux de philosophie des sciences et de théorie statistique, en mettant l’accent sur la parcimonie et la falsifiabilité comme critères d’évaluation des modèles, sur le rôle de la théorie des tests comme formalisation du principe de falsification de modèles probabilistes, ainsi que sur la justification logique des notions de base de la théorie des tests (tel le niveau d’un test). Nous montrons ensuite que certaines des méthodes statistiques et économétriques les plus utilisées sont fondamentalement inappropriées pour les problèmes et modèles considérés, tandis que de nombreuses hypothèses, pour lesquelles des procédures de test sont communément proposées, ne sont en fait pas du tout testables. De telles situations conduisent à des problèmes statistiques mal posés. Nous analysons quelques cas particuliers de tels problèmes : (1) la construction d’intervalles de confiance dans le cadre de modèles structurels qui posent des problèmes d’identification; (2) la construction de tests pour des hypothèses non paramétriques, incluant la construction de procédures robustes à l’hétéroscédasticité, à la non-normalité ou à la spécification dynamique. Nous indiquons que ces difficultés proviennent souvent de l’ambition d’affaiblir les conditions de régularité nécessaires à toute analyse statistique ainsi que d’une utilisation inappropriée de résultats de théorie distributionnelle asymptotique. Enfin, nous soulignons l’importance de formuler des hypothèses et modèles testables, et de proposer des techniques économétriques dont les propriétés sont démontrables dans les échantillons finis.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.
Resumo:
Conditional heteroskedasticity is an important feature of many macroeconomic and financial time series. Standard residual-based bootstrap procedures for dynamic regression models treat the regression error as i.i.d. These procedures are invalid in the presence of conditional heteroskedasticity. We establish the asymptotic validity of three easy-to-implement alternative bootstrap proposals for stationary autoregressive processes with m.d.s. errors subject to possible conditional heteroskedasticity of unknown form. These proposals are the fixed-design wild bootstrap, the recursive-design wild bootstrap and the pairwise bootstrap. In a simulation study all three procedures tend to be more accurate in small samples than the conventional large-sample approximation based on robust standard errors. In contrast, standard residual-based bootstrap methods for models with i.i.d. errors may be very inaccurate if the i.i.d. assumption is violated. We conclude that in many empirical applications the proposed robust bootstrap procedures should routinely replace conventional bootstrap procedures for autoregressions based on the i.i.d. error assumption.
Resumo:
RÉSUMÉ L‘hébergement en centre de soins de longue durée d'un parent âgé atteint de démence marque une transition pour les personnes qui occupent un rôle d’aidant familial principal. Ces personnes, principalement des femmes, poursuivent leur engagement après l’hébergement et souhaitent être impliquées dans les décisions concernant les soins offerts à leur parent. Souvent l'hébergement survient au moment où la personne âgée n'est plus en mesure, compte tenu de ses déficiences cognitives, d'exprimer clairement ses besoins; les aidantes accordent alors une place centrale au rôle de représentante de leur proche hébergé. Cette étude avait pour but d’expliquer la transformation du rôle de représentante chez des aidantes familiales dont le parent atteint de démence vit dans un centre d’hébergement et de soins de longue durée (CHSLD). La méthode qualitative de la théorisation ancrée a été retenue pour expliquer ce processus social. Les résultats obtenus reposent sur 14 entrevues en profondeur réalisées auprès de filles dont le parent atteint de démence était hébergé depuis plus de six mois dans un CHSLD. Ces aidantes ont été sélectionnées selon une procédure d’échantillonnage théorique et l’analyse des données a été réalisée à partir de la transcription intégrale des entrevues en suivant trois niveaux d'analyse, soit la codification ouverte, axiale et sélective. Une proposition théorique, générée par voie inductive, met en lumière trois processus intermédiaires interreliés expliquant la transformation du rôle de représentante pendant l’hébergement du proche : 1) l’intégration dans le milieu ; 2) l’évaluation de la qualité des soins et 3) le développement de la confiance envers le milieu d’hébergement. Plus précisément, les aidantes déploient différentes stratégies d’intégration dans le milieu d’hébergement, soit l’établissement de relations de réciprocité et d’une collaboration avec le personnel soignant, ainsi que l’utilisation d’un style de communication diplomatique. Parallèlement, elles évaluent la qualité des soins en trois étapes : jugement, pondération et action. Finalement, une relation de confiance avec les membres du personnel de l’établissement se développe en lien avec cinq facteurs spécifiques, soit les premières impressions, la comparaison avec d’autres CHSLD, l’intérêt démontré par le personnel envers le proche, le fait d’être entendue et prise au sérieux et la transparence du milieu d’hébergement. Ces trois processus contribuent au bien-être du parent hébergé et à celui de l’aidante. Le développement de la confiance étant associé aux deux autres processus intermédiaires ainsi qu’au bien-être de l’aidante, il est le processus central de la théorie contextuelle qui émerge de cette recherche. Cette étude contribue au développement des connaissances, notamment en fournissant plusieurs éléments inédits de compréhension du processus de transformation du rôle de représentante des aidantes familiales, de même que des pistes pour soutenir ces aidantes dont le parent, souffrant de démence, n’est plus en mesure de prendre des décisions. La théorie contextuelle proposée dans le cadre de cette étude constitue les prémices d’une théorie de niveau intermédiaire portant sur le rôle de représentant des aidants familiaux dans le contexte plus général du système de santé. Des études réalisées dans d’autres contextes de soins et auprès d’aidants de proches vulnérables ayant d’autres types d’affections sont ainsi recommandées.
Resumo:
L’introduction éventuelle, au Québec, de la force exécutoire pour les actes notariés soulève, du point de vue économique, deux questions. La première porte sur les effets prévisibles de cette mesure, notamment sur le marché des services juridiques de rédaction d’actes. Du côté de l’offre, il convient de distinguer selon que l’acte notarié est obligatoire ou facultatif. Du côté de la demande, le changement tendrait à diminuer le coût de réalisation d’un droit. Le gain qui en résulte peut profiter, en partie, aux notaires. L’ampleur de l’effet dépend de la probabilité qu’il faille recourir à l’exécution forcée. L’effet irait dans le sens de réduire le coût du crédit et d’augmenter sa disponibilité. Pour le débiteur, l’engagement deviendrait plus risqué, mais du même coup, lui permettrait de signaler sa « crédibilité ». Les chiffres fournis dans une étude réalisée par le groupe Secor en 1995 font voir une économie plutôt modeste de ces mesures. Pour évaluer l’ampleur du désengorgement prévisible des tribunaux, il faudrait connaître l’importance des procédures essentiellement engagées pour la perception de créances. Au-delà des effets immédiats, les enjeux de cette mesure sont de deux ordres. D’abord, ils soulèvent la question de la justification d’accorder l’avantage comparatif de la force exécutoire aux actes notariés et à eux seuls. Cette question nous conduit à celle du statut d’officier public des notaires, plus précisément aux caractéristiques qui doivent être jugées essentielles pour ce statut. Car si l’on ne peut prêter au notaire une aussi grande confiance qu’au juge, il convient de s’interroger, aux fins de l’exécution forcée, sur les limites à imposer au contenu des actes ayant force exécutoire. Les réponses à ces questions présupposent des données qu’on peut difficilement obtenir autrement que par l’expérience prudente. Les chiffres disponibles permettent de prévoir des économies modestes. L’introduction de la force exécutoire doit s’accompagner de mesures de stricte surveillance, notamment en matière de conflits d’intérêt potentiels.
Resumo:
Un résumé en anglais est également disponible