946 resultados para second-order inelastic analysis
Resumo:
Les personnes atteintes de schizophrénie peuvent présenter un sommeil anormal même lorsqu’elles sont stables cliniquement sous traitements pharmacologiques. Les études présentées dans cette thèse ont pour but de mesurer le sommeil afin de mieux comprendre les dysfonctions des mécanismes cérébraux pouvant être impliqués dans la physiopathologie de la schizophrénie. Les trois études présentées dans cette thèse rapportent des résultats sur le sommeil dans la schizophrénie à trois niveaux d’analyse chez trois groupes différents de patients. Le premier niveau est subjectif et décrit le sommeil à l’aide d’un questionnaire administré chez des personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques. Le deuxième niveau est objectif et évalue le sommeil par une méta-analyse des études polysomnographiques chez des patients atteints de schizophrénie ne recevant pas de traitement pharmacologique. Le troisième niveau est micro-structurel et utilise l’analyse spectrale de l’électroencéphalogramme (EEG) afin de caractériser le sommeil paradoxal de patients en premier épisode aigu de schizophrénie avant le début du traitement pharmacologique. La première étude montre que, lorsqu’évaluées par un questionnaire de sommeil, les personnes atteintes de schizophrénie cliniquement stables sous traitements pharmacologiques rapportent prendre plus de temps à s’endormir, se coucher plus tôt et se lever plus tard, passer plus de temps au lit et faire plus de siestes comparativement aux participants sains. Aussi, tout comme les participants sains, les personnes atteintes de schizophrénie rapportent un nombre normal d’éveils nocturnes, se disent normalement satisfaites de leur sommeil et se sentent normalement reposées au réveil. La deuxième étude révèle qu’objectivement, lorsque les études polysomnographiques effectuées chez des patients non traités sont soumises à une méta-analyse, les personnes atteintes de schizophrénie montrent une augmentation du délai d’endormissement, une diminution du temps total en sommeil, une diminution de l’efficacité du sommeil et une augmentation de la durée des éveils nocturnes comparativement aux participants sains. Les patients en arrêt aigu de traitement ont des désordres plus sévères au niveau de ces variables que les patients jamais traités. Seulement les patients jamais traités ont une diminution du pourcentage de stade 2 comparativement aux participants sains. La méta-analyse ne révèle pas de différence significative entre les groupes en ce qui concerne le sommeil lent profond et le sommeil paradoxal. La troisième étude, portant sur l’analyse spectrale de l’EEG en sommeil paradoxal, montre une diminution de l’amplitude relative de la bande de fréquence alpha dans les régions frontales, centrales et temporales et montre une augmentation de l’amplitude relative de la bande de fréquence bêta2 dans la région occipitale chez les personnes en premier épisode de schizophrénie jamais traitées comparativement aux participants sains. L’activité alpha absolue est positivement corrélée aux symptômes négatifs dans les régions frontales, centrales et temporales et négativement corrélée aux symptômes positifs dans la région occipitale. L’activité beta2 absolue ne montre pas de corrélation significative avec les symptômes positifs et négatifs de la schizophrénie. Ces résultats sont discutés suivant la possibilité que des dysfonctions au niveau des mécanismes de la vigilance seraient impliquées dans la physiopathologie de la schizophrénie.
Resumo:
L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.
Resumo:
L’objectif de ce mémoire est de décrire et expliquer le traitement des jeunes filles traduites devant la Cour des jeunes délinquants de Montréal durant toute la période de son existence, soit de 1912 à 1950. Une analyse statistique a tout d’abord été utilisée sur un échantillon de 1 465 jeunes filles pour lesquelles nous avions des données quantitatives provenant du plumitif de la cour. Une analyse documentaire a ensuite été utilisée sur un sous-échantillon de 126 mineures pour lesquelles nous avions accès aux divers documents contenus dans leur dossier judiciaire. L’analyse met particulièrement en évidence la différence d’application de la loi en fonction du sexe des mineurs traduits devant la cour. Les jeunes filles sont poursuivies pour des motifs différents de ceux pour lesquels on poursuit les garçons : elles sont particulièrement poursuivies pour des infractions spécifiques aux mineurs telles que l’incorrigibilité, les infractions à caractère sexuel, la désertion ou la protection. Les garçons, quant à eux, sont davantage poursuivis pour des infractions prévues au Code criminel (notamment le vol). Les mineures sont plus souvent amenées devant la cour par leurs parents plutôt que par les officiers de la cour et se voient imposer des mesures différentes de celles qu’on impose aux garçons pour une même infraction. Le placement est ainsi plus fréquemment utilisé chez les filles que chez les garçons et la probation plus fréquemment utilisée chez ces derniers. La définition de ce qui pose problème chez ces mineures et les solutions souhaitables pour y remédier varient en fonction des différents acteurs (les agents de probation, les officiers de la cour, les parents et les mineures elles-mêmes).
Resumo:
Cette thèse propose une approche du mémoriel qui interroge la production de la mémoire dans son caractère processuel. Elle comporte trois caractéristiques principales. D’abord, elle met l’accent sur une pluralité des temps qui participe de la production de la mémoire (mais aussi de l’instauration de collectivités et de la production de leurs continuités). Elle place aussi les processus de représentation au cœur de ses questionnements – notamment, elle met l’accent sur les manières par lesquelles la mémoire est constituée par la représentation (au lieu d’examiner les manières par lesquelles la mémoire est représentée). Enfin, elle interroge les manières par lesquelles la production de la mémoire concourt à délimiter, entretenir et faire être des collectivités, et quelles formes de collectivisation sont à cet égard réalisées. Le premier chapitre expose cette approche de la mémoire en constraste avec une présentation de trois grandes familles d’approches – les approches de la mémoire collective, celles de la mémoire culturelle et les approches présentistes – qui appréhendent la mémoire comme un construit. Il explique aussi comment je mets le mémoriel à profit dans une analyse de surface qui appréhende la constitution des représentations par lesquelles l’ex-hockeyeur Maurice Richard et l’ex-animatrice et auteure Janette Bertrand sont établis comme personnalités publiques, par le biais de technologies et de figures d’individualité publique qui les font être de manières singulières. Dans cette optique, je réalise, dans le deuxième chapitre, une analyse de la constitution de Maurice Richard comme héros, et dans le troisième, un examen de la constitution de Janette Bertrand comme pionnière. Dans le quatrième et dernier chapitre, je constate notamment les effectivités respectives des technologies et des procédés de représentation par lesquels des personnalités publiques sont instaurées. Je mets aussi en lumière que ces technologies et les éléments qu’elles produisent, traversent et mettent en relation, s’appréhendent à chaque fois dans la singularité de leurs rencontres. Je conclus ensuite en mettant en lumière les manières par lesquelles mon approche du mémoriel contribue aux études de la mémoire, lesquelles sont l’objet d’une disciplinarisation croissante.
Resumo:
Dans cette thèse, nous proposons de nouveaux résultats de systèmes superintégrables séparables en coordonnées polaires. Dans un premier temps, nous présentons une classification complète de tous les systèmes superintégrables séparables en coordonnées polaires qui admettent une intégrale du mouvement d'ordre trois. Des potentiels s'exprimant en terme de la sixième transcendante de Painlevé et de la fonction elliptique de Weierstrass sont présentés. Ensuite, nous introduisons une famille infinie de systèmes classiques et quantiques intégrables et exactement résolubles en coordonnées polaires. Cette famille s'exprime en terme d'un paramètre k. Le spectre d'énergie et les fonctions d'onde des systèmes quantiques sont présentés. Une conjecture postulant la superintégrabilité de ces systèmes est formulée et est vérifiée pour k=1,2,3,4. L'ordre des intégrales du mouvement proposées est 2k où k ∈ ℕ. La structure algébrique de la famille de systèmes quantiques est formulée en terme d'une algèbre cachée où le nombre de générateurs dépend du paramètre k. Une généralisation quasi-exactement résoluble et intégrable de la famille de potentiels est proposée. Finalement, les trajectoires classiques de la famille de systèmes sont calculées pour tous les cas rationnels k ∈ ℚ. Celles-ci s'expriment en terme des polynômes de Chebyshev. Les courbes associées aux trajectoires sont présentées pour les premiers cas k=1, 2, 3, 4, 1/2, 1/3 et 3/2 et les trajectoires bornées sont fermées et périodiques dans l'espace des phases. Ainsi, les résultats obtenus viennent renforcer la possible véracité de la conjecture.
Resumo:
Même si la coopération policière transnationale est l’objet ces dernières années d’un engouement souvent attribué à des vertus d’efficacité, il reste que relativement peu d’informations sont disponibles sur le processus en lui-même. L’objectif général de la thèse était de fournir une analyse englobant à la fois les préoccupations des autorités politiques et celles des acteurs judiciaires et policiers. Ces acteurs occupent tous des rôles nécessaires dans le système de la coopération policière transnationale, mais outre cette constatation, les études à leur sujet ne se recoupent pas véritablement. C’est donc dire que, d’une part, les études sur les acteurs politiques se concentrent sur les décisions prises par ceux-ci, sur l’élaboration de concepts et sur la signature de conventions. D’autre part, les études sur les acteurs policiers et judiciaires mettent l’accent sur le déroulement quotidien des activités policières transnationales et sur ce qui s’ensuit, c’est-à-dire les procédures judiciaires. À l’aide de concepts tels que la discrétion et la souplesse, la familiarité, la confiance, la méfiance, le scepticisme et l’évitement, nous tentons de rallier les récents concepts de reconnaissance mutuelle et de confiance mutuelle avec ce qui se passe effectivement dans le monde opérationnel. La thèse, qui s’intéresse principalement à la coopération policière transnationale en matière de trafic de drogues, s’appuie sur deux types de données. Tout d’abord, des entrevues qualitatives semi-dirigées ont été menées auprès de 21 policiers et procureurs. Ensuite, une analyse documentaire a été effectuée sur des documents canadiens, soit les sept jurisprudences sur l’extranéité et un guide rédigé par un procureur à l’intention des enquêteurs œuvrant dans les enquêtes. Nous allons présenter rapidement les résultats les plus importants de la thèse. Dans le premier chapitre, il a été question de deux niveaux de structures de pouvoir, qui n’évoluent pas en vases clos, mais qui s’influencent mutuellement. C’est dire que le levier d’influence des acteurs étatiques sur les acteurs du policing transnational peut être relativement puissant, mais que des parades peuvent toujours être utilisées par les policiers dans des cas spécifiques. Nadelmann (1993) avait raison lorsqu’il a soutenu qu’une norme adoptée au niveau transnational n’est pas nécessairement utile à la réalisation des objectifs communs des États, c’est-à-dire l’immobilisation des criminels. La norme est le produit d’une négociation politique et d’un jeu de pouvoir. Au final, elle n’influe pas énormément sur les décisions prises par les policiers dans les enquêtes à composantes transnationales. Au mieux, elle est un guide de règles à ne pas violer ouvertement et impunément. De plus, alors que les pays et les organisations utilisent un système de récompense, d’incitatifs ou de menace de sanctions pour favoriser la coopération policière transnationale en vu d’une participation à une enquête à composantes transnationales, les individus qui travaillent dans les enquêtes à composantes transnationales utilisent la familiarité et valorisent la confiance comme moyen pour établir et maintenir des liens. Ces individus ne peuvent pas s’obliger entre eux, alors qu’il existe la possibilité d’imposer des sanctions réelles entre acteurs étatiques. Il s’agit donc de deux niveaux d’analyse, dans lesquelles la configuration des relations est différente. Dans le deuxième chapitre d’analyse, nous avons examiné les jurisprudences canadiennes et le guide d’un procureur à l’intention des policiers, ce qui nous a amené à constater la discrétion laissée par les agents judiciaires aux policiers travaillant au sein d’enquêtes à composantes transnationales. En fait, nous avons trouvé que les agents judiciaires sont conscients des difficultés des enquêtes à composantes transnationales et qu’ils sont plus flexibles dans ces cas que dans les enquêtes nationales. Le troisième chapitre d’analyse a montré que de nombreux moyens sont à la disposition des agents de l’enquête, et qu’une certaine logique sous-tendait les choix des policiers. Plus particulièrement, c’est la gestion des incertitudes, la nature de l’information et son utilisation envisagée qui importe pour les agents de l’enquête à composantes transnationale. Finalement, le dernier chapitre d’analyse illustre les différents types de relations entretenues entre agents de l’enquête. Nous avons trouvé que le scepticisme est prépondérant mais que la coopération demeure le plus souvent possible, lorsque les acteurs ont des intérêts en commun. Une certaine familiarité entre les acteurs est nécessaire, mais la confiance n’est pas toujours essentielle à la mise en œuvre des activités policières transnationales. En fait, cela dépend du niveau d’échanges nécessaires et du contexte. Gambetta (1988) avait d’ailleurs montré qu’une structure sociale relativement stable puisse se maintenir dans un contexte généralisé de méfiance.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Ce mémoire est une partie d’un programme de recherche qui étudie la superintégrabilité des systèmes avec spin. Plus particulièrement, nous nous intéressons à un hamiltonien avec interaction spin-orbite en trois dimensions admettant une intégrale du mouvement qui est un polynôme matriciel d’ordre deux dans l’impulsion. Puisque nous considérons un hamiltonien invariant sous rotation et sous parité, nous classifions les intégrales du mouvement selon des multiplets irréductibles de O(3). Nous calculons le commutateur entre l’hamiltonien et un opérateur général d’ordre deux dans l’impulsion scalaire, pseudoscalaire, vecteur et pseudovecteur. Nous donnons la classification complète des systèmes admettant des intégrales du mouvement scalaire et vectorielle. Nous trouvons une condition nécessaire à remplir pour le potentiel sous forme d’une équation différentielle pour les cas pseudo-scalaire et pseudo-vectoriel. Nous utilisons la réduction par symétrie pour obtenir des solutions particulières de ces équations.
Resumo:
La présente recherche porte sur le dieu de la guerre des Grecs anciens, Arès. La communauté historienne s’entend pour affirmer qu’Arès était un dieu de second ordre et un dieu mal aimé par les Grecs de l’époque. Les investigations des historiens du XXe siècle sont axées sur les documents littéraires et elles ne font que reformuler, dans la majorité des cas, le contenu de ceux-ci. Alors, afin de bénéficier d’un regard nouveau sur le dieu, on a étudié Arès au travers les documents épigraphiques pour corroborer ou non nos présentes connaissances. Le dieu de la guerre tel que présenté dans les écrits littéraires est-il le même que celui qui est véhiculé dans l’épigraphie de l’époque? La réponse à cette question nous permettra d’établir si nos connaissances actuelles sont valables et elle les complètera. La recherche épigraphique s’effectue en cinq étapes. D’abord, on voit si le côté militaire d’Arès était également prédominant au sein des inscriptions. Ensuite, on porte une attention particulière aux documents épigraphiques pouvant démontrer un Arès mal aimé. Le tout se poursuit avec la mise en relation du dieu et des anciens serments. Enfin, on termine avec une approche plus géographique qui nous permet de définir deux foyers importants du dieu de la guerre, soit la cité de Métropolis et l’île de Crète. À la suite de ce parcours on a déterminé que l’appréciation et l’importance que les Grecs accordaient à ce dieu n’était pas unanime. Le ressentiment des Grecs variaient selon les individus et les lieux. On a aussi été capable d’établir des faits au sujet d’Arès : son domaine d’action prédominant restait le militaire dans les inscriptions; il était un réel dieu, présent, respecté et loué; il possédait d’importants lieux de culte à Lato et Métropolis. Compte tenu d’une redéfinition notable du profil d’Arès, une révision des sources littéraires propres à Arès s’impose ainsi qu’une évaluation complète de toutes les autres sources (iconographique, archéologique, numismatique, épigraphique, etc.).
Resumo:
Ce mémoire porte sur l’étude des maxima de champs gaussiens. Plus précisément, l’étude portera sur la convergence en loi, la convergence du premier ordre et la convergence du deuxième ordre du maximum d’une collection de variables aléatoires gaussiennes. Les modèles de champs gaussiens présentés sont le modèle i.i.d., le modèle hiérarchique et le champ libre gaussien. Ces champs gaussiens diffèrent par le degré de corrélation entre les variables aléatoires. Le résultat principal de ce mémoire sera que la convergence en probabilité du premier ordre du maximum est la même pour les trois modèles. Quelques résultats de simulations seront présentés afin de corroborer les résultats théoriques obtenus.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Les personnes ayant un trouble du spectre autistique (TSA) manifestent des particularités perceptives. En vision, des travaux influents chez les adultes ont mené à l’élaboration d’un modèle explicatif du fonctionnement perceptif autistique qui suggère que l’efficacité du traitement visuel varie en fonction de la complexité des réseaux neuronaux impliqués (Hypothèse spécifique à la complexité). Ainsi, lorsque plusieurs aires corticales sont recrutées pour traiter un stimulus complexe (e.g., modulations de texture; attributs de deuxième ordre), les adultes autistes démontrent une sensibilité diminuée. À l’inverse, lorsque le traitement repose principalement sur le cortex visuel primaire V1 (e.g., modulations locales de luminance; attributs de premier ordre), leur sensibilité est augmentée (matériel statique) ou intacte (matériel dynamique). Cette dissociation de performance est spécifique aux TSA et peut s’expliquer, entre autre, par une connectivité atypique au sein de leur cortex visuel. Les mécanismes neuronaux précis demeurent néanmoins méconnus. De plus, on ignore si cette signature perceptuelle est présente à l’enfance, information cruciale pour les théories perceptives de l’autisme. Le premier volet de cette thèse cherche à vérifier, à l’aide de la psychophysique et l’électrophysiologie, si la double dissociation de performance entre les attributs statiques de premier et deuxième ordre se retrouve également chez les enfants autistes d’âge scolaire. Le second volet vise à évaluer chez les enfants autistes l’intégrité des connexions visuelles descendantes impliquées dans le traitement des textures. À cet effet, une composante électrophysiologique reflétant principalement des processus de rétroaction corticale a été obtenue lors d’une tâche de ségrégation des textures. Les résultats comportementaux obtenus à l’étude 1 révèlent des seuils sensoriels similaires entre les enfants typiques et autistes à l’égard des stimuli définis par des variations de luminance et de texture. Quant aux données électrophysiologiques, il n’y a pas de différence de groupe en ce qui concerne le traitement cérébral associé aux stimuli définis par des variations de luminance. Cependant, contrairement aux enfants typiques, les enfants autistes ne démontrent pas une augmentation systématique d’activité cérébrale en réponse aux stimuli définis par des variations de texture pendant les fenêtres temporelles préférentiellement associées au traitement de deuxième ordre. Ces différences d’activation émergent après 200 ms et engagent les aires visuelles extrastriées des régions occipito-temporales et pariétales. Concernant la connectivité cérébrale, l’étude 2 indique que les connexions visuelles descendantes sont fortement asymétriques chez les enfants autistes, en défaveur de la région occipito-temporale droite. Ceci diffère des enfants typiques pour qui le signal électrophysiologique reflétant l’intégration visuo-corticale est similaire entre l’hémisphère gauche et droit du cerveau. En somme, en accord avec l’hypothèse spécifique à la complexité, la représentation corticale du traitement de deuxième ordre (texture) est atypiquement diminuée chez les enfants autistes, et un des mécanismes cérébraux impliqués est une altération des processus de rétroaction visuelle entre les aires visuelles de haut et bas niveau. En revanche, contrairement aux résultats obtenus chez les adultes, il n’y a aucun indice qui laisse suggérer la présence de mécanismes supérieurs pour le traitement de premier ordre (luminance) chez les enfants autistes.
Resumo:
Dans ce mémoire, je cherche à déterminer pourquoi les animaux non humains ne sont pas considérés comme étant autonomes dans les théories libérales contemporaines. Pour ce faire, j’analyse deux conceptions traditionnelles de l’autonomie, soit l’autonomie en tant qu’agentivité morale et l’autonomie hiérarchique (en tant que capacité à agir selon ses désirs de second ordre), et je soutiens que ces deux conceptions ne réussissent pas à bien justifier le respect des choix personnels même chez les agents humains. J’avance que ces deux conceptions de l’autonomie mènent à des conclusions perfectionnistes et paternalistes à certains égards, ce qui est pourtant contraire à leur fonction. J’analyse ensuite quelques versions alternatives de l’autonomie qui ne reposent pas sur la possession de facultés morales ou rationnelles, avant de proposer une nouvelle conception de l’autonomie qui pourrait répondre aux problèmes soulevés et potentiellement reconnaître l’autonomie des animaux non humains.
Resumo:
Ce projet de recherche est consacré à l’analyse des politiques sociales qui entourent les violences sexuelles envers les femmes. La visibilité de la violence sexuelle est récente. En dénonçant à la fin des années 1960, les violences sexuelles comme symbole de l'oppression des femmes, le mouvement féministe a été à l'origine de la reconnaissance par les politiques de ce « phénomène » comme une problématique sociale importante et d’intérêt public. L'étude est centrée sur le cas de la France depuis les années 1960 ; de l’émergence du problème social de la violence sexuelle à la formulation des plans gouvernementaux depuis 2005. Il s'agit d'analyser l'évolution du discours public sur les violences sexuelles au fil du temps et les réponses sociales offertes. Cette étude s’articule autour de deux préoccupations : la première est de comprendre comment s’est construite la question de la violence sexuelle, la seconde concerne l’analyse des politiques actuelles qui émanent de cette évolution. Pour comprendre ces questionnements, nous avons utilisé une méthode qualitative s’inspirant principalement de la méthode d’analyse documentaire. Nous avons procédé à l’analyse des différents plans d’actions gouvernementaux mis en place depuis 2005 et des écrits ministériels et scientifiques portant sur la problématique des violences sexuelles. Partant de ce matériel, d’autres documents sont utilisés afin de cerner le contexte historique et actuel. On retrouve par exemple les auteurs qui ont retracés l’histoire de cette problématique à travers les siècles mais aussi les enquêtes sociologiques, qui ont contribué à évaluer l’ampleur du phénomène, ou la revue de presse, qui aide à mieux comprendre les enjeux d’aujourd’hui. Cette recherche s’inscrit principalement dans le courant théorique constructiviste développé par Spector et Kitsuse (1977), repris et explicité par Loseke dans son livre Thinking about social problem (2003). Enfin, un recours à la comparaison internationale par l’exemple du Québec nous a permis d’éclairer certaines particularités françaises.