121 resultados para Spectre conditionnel
em Université de Montréal, Canada
Resumo:
Rapport de recherche
Resumo:
Thèse réalisée en cotutelle avec l'Université Catholique de Louvain (Belgique)
Resumo:
Nous rapportons les résultats d'une étude des désintégrations semileptoniques non-charmées B^+--> êta^(') l^+v et B^0--> pi^- l^+v, mesurés par le détecteur BABAR avec une production d'environ 464 millions de paires de mésons BBbar issues des collisions e^+e^- à la résonance Upsilon(4S). L'analyse reconstruit les événements avec une technique relâchée des neutrinos. Nous obtenons les rapports d'embranchement partiels pour les désintégrations B^+--> êta l^+v et B^0--> pi^- l^+v en trois et douze intervalles de q^2, respectivement, à partir desquels nous extrayons les facteurs de forme f_+(q^2) et les rapports d'embranchement totaux B(B^+--> êta l^+v) = (3.39 +/- 0.46_stat +/- 0.47_syst) x 10^-5 et B(B^0--> pi^- l^+v) = (1.42 +/- 0.05_stat +/- 0.08_syst) x 10^-4. Nous mesurons aussi B(B^+--> êta' l^+v) = (2.43 +/- 0.80_stat +/- 0.34_syst) x 10^-5. Nous obtenons les valeurs de la norme de l'élément |V_ub| de la matrice CKM en utilisant trois calculs différents de la CDQ.
Resumo:
L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Pour la plupart des gens, la lecture est une activité automatique, inhérente à leur vie quotidienne et ne demandant que peu d’effort. Chez les individus souffrant d’épilepsie réflexe à la lecture, le simple fait de lire déclenche des crises épileptiques et les personnes doivent alors renoncer à la lecture. Les facteurs responsables du déclenchement de l’activité épileptique dans l’épilepsie réflexe à la lecture demeurent encore mal définis. Certains auteurs suggèrent que le nombre ainsi que la localisation des pointes épileptiques seraient en lien avec la voie de lecture impliquée. Des études en imagerie cérébrale, menées auprès de populations sans trouble neurologique, ont dévoilé que la lecture active un réseau étendu incluant les cortex frontaux, temporo-pariétaux et occipito-temporaux bilatéralement avec des différences dans les patrons d’activation pour les voies de lecture lexicale et phonologique. La majorité des études ont eu recours à des tâches de lecture silencieuse qui ne permettent pas d'évaluer la performance des participants. Dans la première étude de cette thèse, qui porte sur une étude de cas d'un patient avec épilepsie réflexe à la lecture, nous avons déterminé les tâches langagières et les caractéristiques des stimuli qui influencent l'activité épileptique. Les résultats ont confirmé que la lecture était la principale tâche responsable du déclenchement de l’activité épileptique chez ce patient. En particulier, la fréquence des pointes épileptiques était significativement plus élevée lorsque le patient avait recours au processus de conversion grapho-phonémique. Les enregistrements électroencéphalographiques (EEG) ont révélé que les pointes épileptiques étaient localisées dans le gyrus précentral gauche, indépendamment de la voie de lecture. La seconde étude avait comme objectif de valider un protocole de lecture à voix haute ayant recours à la spectroscopie près du spectre de l’infrarouge (SPIR) pour investiguer les circuits neuronaux qui sous-tendent la lecture chez les normo-lecteurs. Douze participants neurologiquement sains ont lu à voix haute des mots irréguliers et des non-mots lors d’enregistrements en SPIR. Les résultats ont montré que la lecture des deux types de stimuli impliquait des régions cérébrales bilatérales communes incluant le gyrus frontal inférieur, le gyrus prémoteur et moteur, le cortex somatosensoriel associatif, le gyrus temporal moyen et supérieur, le gyrus supramarginal, le gyrus angulaire et le cortex visuel. Les concentrations totales d’hémoglobine (HbT) dans les gyri frontaux inférieurs bilatéraux étaient plus élevées dans la lecture des non-mots que dans celle des mots irréguliers. Ce résultat suggère que le gyrus frontal inférieur joue un rôle dans la conversion grapho-phonémique, qui caractérise la voie de lecture phonologique. Cette étude a confirmé le potentiel de la SPIR pour l’investigation des corrélats neuronaux des deux voies de lecture. Une des retombées importantes de cette thèse consiste en l’utilisation du protocole de lecture en SPIR pour investiguer les troubles de la lecture. Ces investigations pourraient aider à mieux établir les liens entre le fonctionnement cérébral et la lecture dans les dyslexies développementales et acquises.
Resumo:
1)Soraya Mamoun: soraya.mamoun@umontreal.ca 3)Sabine Saade, psychoéducatrice en troubles du spectre autistique Mark Chebli, neuropsychologue
Resumo:
Les enfants atteints d’un trouble du spectre de l’autisme (TSA) présentent souvent des difficultés à généraliser leurs apprentissages à des nouveaux stimuli, contextes et individus (Brown & Bebko, 2012; Happé & Frith, 2006; Lovaas, Koegel, Simmons, & Long, 1973; Plaisted, O'Riordan, & Baron-Cohen, 1998). Pour cette raison, il est important d’utiliser des techniques promouvant la généralisation au sein des programmes d’intervention leur étant destinés. Cette recherche visait à évaluer l’efficacité de deux des techniques les plus fréquemment utilisées dans les programmes d’intervention comportementale intensive (ICI), soit l’enseignement séquentiel et l’enseignement simultané, afin de déterminer si l’une d’elles était systématiquement plus efficace que l’autre pour promouvoir la généralisation des concepts chez les enfants ayant un TSA. Des devis expérimentaux à cas unique ont été utilisés pour évaluer les effets des deux techniques sur la généralisation de quatre enfants ayant un diagnostic de TSA et recevant des services d’ICI en clinique privée. Pour deux participants, la méthode enseignement simultané a démontré une plus grande efficacité quant à la généralisation des concepts enseignés. Pour les deux autres, les deux techniques se sont avérées aussi efficaces. Bien que préliminaires, les résultats suggèrent qu’il serait préférable d’appliquer la méthode enseignement simultané lors de l’enseignement de concepts chez les enfants ayant un TSA en contexte d’ICI.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Il est maintenant bien établi que le cerveau humain est doté d’un système de neurones qui s’active tant à la perception qu’à l’exécution d’une action. Les neurones miroirs, ainsi que le système qu’ils forment avec des structures adjacentes appelées système neurones miroirs (SNM), ont été relié à la compréhension d’action et pourrait être impliqué dans les fonctions sociales de haut niveau tel que l’empathie et l’imitation. Dans la foulée spéculative reliant le SNM à la sphère sociale, le dysfonctionnement de ce système a rapidement gagné intérêt dans la genèse des anomalies du domaine social chez les personnes présentant le Trouble du spectre de l’autisme (TSA). Néanmoins, l’hypothèse voulant que le dysfonctionnement social des TSA repose sur une atteinte du SNM est controversée. En effet, les études soutenant cette hypothèse nécessitent des fonctions cognitives et sociales qui peuvent contribuer à l’obtention de résultats atypiques, telles que la compréhension des consignes, l’attention sur des stimuli sociaux ou la réalisation d’acte moteur. Récemment, un protocole auditif de négativité de discordance (MMN) utilisant des stimuli reliés à l’action humaine a été utilisé pour mesurer l’activité du SNM. Cette technique semble prometteuse dans la mesure où elle ne nécessite pas de capacités attentionnelles ou langagières, elle est brève et demande un montage minimal d’électrodes. Le premier article avait comme objectif principal de mesurer la validité de convergence du protocole MMN relié à l’action avec celui du rythme mu, le protocole le plus utilisé pour enregistrer l’activité miroir à l’aide de l’électroencéphalographie (EEG). Les modes de stimulation ont été délivrées en bloc successif à un groupe de 12 adultes en santé. Alors que les deux techniques ont modulé efficacement les régions fronto-centrales et centrales respectivement, mais ne sont pas corrélées, nous avons conclu qu’il est possible 2 qu’elles mesurent des aspects différents du SNM. Le deuxième article avait comme objectif principal de mesurer l’activité du SNM à l’aide du protocole MMN relié à l’action chez 10 enfants présentant un TSA ainsi que chez 12 enfants neurotypiques dans la même tranche d’âge (5-7ans). Chez les enfants TSA, nous avons montré un patron de latence inversée, comparativement aux enfants du groupe contrôle; ils traitaient plus rapidement les sons contrôles que les sons reliés à l’action humaine, alors que la tendance inverse était observée chez les contrôles. De plus, bien que les deux groupes différaient quant aux sons d’action, ils ne différaient pas quant aux sons contrôles. Quant à l’amplitude, les enfants TSA se distinguaient du groupe contrôle par une amplitude restreinte du son d’action provenant de la bouche. Par ailleurs, les mesures neurophysiologiques et neuropsychologiques n’étaient pas corrélées. En sommes, basé sur la prémisse que ce protocole MMN pourrait mesurer l’activité du SNM, cette thèse a comme but d’améliorer les connaissances quant à son utilisation chez l’adulte et l’enfant neurotypique ainsi que chez l’enfant TSA. Celui-ci pourrait ultimement être utilisé comme un biomarqueur potentiel du TSA.
Resumo:
Article
Resumo:
Notre système visuel extrait d'ordinaire l'information en basses fréquences spatiales (FS) avant celles en hautes FS. L'information globale extraite tôt peut ainsi activer des hypothèses sur l'identité de l'objet et guider l'extraction d'information plus fine spécifique par la suite. Dans les troubles du spectre autistique (TSA), toutefois, la perception des FS est atypique. De plus, la perception des individus atteints de TSA semble être moins influencée par leurs a priori et connaissances antérieures. Dans l'étude décrite dans le corps de ce mémoire, nous avions pour but de vérifier si l'a priori de traiter l'information des basses aux hautes FS était présent chez les individus atteints de TSA. Nous avons comparé le décours temporel de l'utilisation des FS chez des sujets neurotypiques et atteints de TSA en échantillonnant aléatoirement et exhaustivement l'espace temps x FS. Les sujets neurotypiques extrayaient les basses FS avant les plus hautes: nous avons ainsi pu répliquer le résultat de plusieurs études antérieures, tout en le caractérisant avec plus de précision que jamais auparavant. Les sujets atteints de TSA, quant à eux, extrayaient toutes les FS utiles, basses et hautes, dès le début, indiquant qu'ils ne possédaient pas l'a priori présent chez les neurotypiques. Il semblerait ainsi que les individus atteints de TSA extraient les FS de manière purement ascendante, l'extraction n'étant pas guidée par l'activation d'hypothèses.
Resumo:
L’objectif de ce papier est de déterminer les facteurs susceptibles d’expliquer les faillites bancaires au sein de l’Union économique et monétaire ouest-africaine (UEMOA) entre 1980 et 1995. Utilisant le modèle logit conditionnel sur des données en panel, nos résultats montrent que les variables qui affectent positivement la probabilité de faire faillite des banques sont : i) le niveau d’endettement auprès de la banque centrale; ii) un faible niveau de comptes disponibles et à vue; iii) les portefeuilles d’effets commerciaux par rapport au total des crédits; iv) le faible montant des dépôts à terme de plus de 2 ans à 10 ans par rapport aux actifs totaux; et v) le ratio actifs liquides sur actifs totaux. En revanche, les variables qui contribuent positivement sur la vraisemblance de survie des banques sont les suivantes : i) le ratio capital sur actifs totaux; ii) les bénéfices nets par rapport aux actifs totaux; iii) le ratio crédit total sur actifs totaux; iv) les dépôts à terme à 2 ans par rapport aux actifs totaux; et v) le niveau des engagements sous forme de cautions et avals par rapport aux actifs totaux. Les ratios portefeuilles d’effets commerciaux et actifs liquides par rapport aux actifs totaux sont les variables qui expliquent la faillite des banques commerciales, alors que ce sont les dépôts à terme de plus de 2 ans à 10 ans qui sont à l’origine des faillites des banques de développement. Ces faillites ont été considérablement réduites par la création en 1989 de la commission de réglementation bancaire régionale. Dans l’UEMOA, seule la variable affectée au Sénégal semble contribuer positivement sur la probabilité de faire faillite.
Resumo:
In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the 1976-1992 period. We also test a conditional APT model by using the difference between the 30-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. The conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from a total of 25 securities exchanged on the Brazilian markets. The inclusion of this second factor proves to be crucial for the appropriate pricing of the portfolios.
Resumo:
We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.