999 resultados para Statistique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Plusieurs indices de qualité alimentaire globale ont été élaborés en misant sur la consommation de certains nutriments ou aliments, ou des groupes d’aliments. Les indices de la qualité alimentaire globale sont en mesure d’évaluer de manière intégrée les aspects recherchés d’une bonne alimentation. C’est dans ce cadre que le Canadian Healthy Eating Index (C-HEI) a été développé pour évaluer le degré auquel les apports alimentaires des individus rencontrent les consignes du guide alimentaire canadien et les Recommandations nutritionnelles canadiennes. Objectif: Evaluer les liens entre l’indice de la qualité alimentaire globale C-HEI calculé à partir de la moyenne de trois rappels alimentaires de 24 heures et des paramètres nutritionnels, anthropométriques et des indicateurs de santé au recrutement (T1) dans l’étude longitudinale québécoise sur la nutrition et le vieillissement réussi (NuAge). Méthodologie: Des analyses bivariées (coefficients de corrélation, tableaux croisés et la statistique khi deux) ont été réalisées afin de déterminer les associations entre le score total C-HEI et certaines variables nutritionnelles, anthropométriques et le nombre de maladies chroniques. Résultats et discussion: Les participants ont rencontré ou dépassé la plupart de leurs apports nutritionnels de référence. Le C-HEI n’a pas été fortement corrélé aux nutriments individuels (rs= 0,14-0,52, p<0,01). Le C-HEI total était significativement associé aux recommandations canadiennes pour l’apport en fibres (rs= 0,51), le % d’énergie provenant des lipides (rs=-0,60) et des acides gras saturés (rs= -0,59), p<0,01. De plus, la suffisance en protéines et en énergie est augmentée lorsqu’on passait du Q1 (plus faible) à Q4 (plus élevé) du C-HEI (p<0,05). De même, les proportions des sujets ayant des mesures anthropométriques associées aux risques accrus pour la santé sont diminuées en passant du Q1 au Q4 (p<0,05), témoignant ainsi des liens entre une alimentation de bonne qualité et la protection des risques de santé associés à l’embonpoint et à l’obésité. Conclusion : Les résultats de cette recherche ont fourni des preuves additionnelles sur le lien entre le score C-HEI et certains paramètres nutritionnels et anthropométriques d’intérêt, et ce, provenant des données alimentaires quantitatives colligées au sein d’une population âgée vivant dans la communauté.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la cytokinèse, le génome dédoublé est compartimentalisé en deux cellules filles. L’anneau contractile, une structure dynamique, est constitué d’actine, myosine (NMY-II) et d’autres protéines accessoires. NMY-2 est le seul moteur protéique impliqué dans la contraction de l’anneau durant la cytokinèse. Depuis longtemps, il a été considéré que celle-ci glissait le long des filaments d’actine grâce à sa capacité de traction. Récemment, plusieurs études ont découvert que son activité réticulante joue un rôle en cytokinèse et il est connu que la NMY-2 peut s’assembler en filaments bipolaires à partir de dimères. Ainsi, nous postulons que leur dimension (nombre de moteurs ATPasiques) pourrait dicter leur contribution en activité motrice et réticulante. Afin de déterminer la composition des filaments corticaux de NMY-2, nous avons utilisé une technique d'imagerie de molécules individuelles à l’aide de la microscopie TIRF. J’ai trouvé à travers l’analyse statistique de la distribution des NMY-2 mesurés que les filaments sont assemblés à deux dimensions constantes: Des filaments composés de 20 dimères et 30 dimères. La kinase Rho est une activatrice de NMY-2 nécessaire pour les niveaux physiologiques de NMY-2 sur l’anneau contractile, pour des cinétiques et fermeture concentrique de l’anneau. La déplétion de RhoK augmente l’abondance relative des filaments de 20 dimères. Ainsi, RhoK pourrait réguler le recrutement de la NMY et aussi l’assemblage des filaments corticaux de NMY-2. De plus, à l’aide de la microscopie confocale à temps réel, j’ai trouvé que lors de la déplétion de RhoK, il se produit une réduction du recrutement et du délai d’initiation du sillon, une fermeture lente et une augmentation significative de la concentricité de l’anneau. De plus, j’ai mesuré des défauts dans l’organisation corticale de l’anneau contractile en patch. La déplétion de MRCK-1 n’affecte pas l’initiation du sillon, les cinétiques de fermeture, ou la fermeture concentrique de l’anneau. Paradoxalement, la déplétion de MRCK-1 augmente le recrutement cortical de NMY-2, mais quand depleté simultanément avec Rho-K il diminue NMY-2 à l’équateur comparé à la déplétion seule de Rho-K. De plus, la double déplétion, conduit à un phénotype de concentricité de l’anneau, suivie d’un recentrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hypertension artérielle essentielle (HTA) est une pathologie complexe, multifactorielle et à forte composante génétique. L’impact de la variabilité dans le nombre de copies sur l’HTA est encore peu connu. Nous envisagions que des variants dans le nombre de copies (CNVs) communs pourraient augmenter ou diminuer le risque pour l’HTA. Nous avons exploré cette hypothèse en réalisant des associations pangénomiques de CNVs avec l’HTA et avec l’HTA et le diabète de type 2 (DT2), chez 21 familles du Saguenay-Lac-St-Jean (SLSJ) caractérisées par un développement précoce de l’HTA et de la dyslipidémie. Pour la réplication, nous disposions, d’une part, de 3349 sujets diabétiques de la cohorte ADVANCE sélectionnés pour des complications vasculaires. D’autre part, de 187 sujets de la cohorte Tchèque Post-MONICA (CTPM), choisis selon la présence/absence d’albuminurie et/ou de syndrome métabolique. Finalement, 134 sujets de la cohorte CARTaGENE ont été analysés pour la validation fonctionnelle. Nous avons détecté deux nouveaux loci, régions de CNVs (CNVRs) à effets quantitatifs sur 17q21.31, associés à l’hypertension et au DT2 chez les sujets SLSJ et associés à l’hypertension chez les diabétiques ADVANCE. Un modèle statistique incluant les deux variants a permis de souligner le rôle essentiel du locus CNVR1 sur l’insulino-résistance, la précocité et la durée du diabète, ainsi que sur le risque cardiovasculaire. CNVR1 régule l’expression du pseudogène LOC644172 dont le dosage est associé à la prévalence de l’HTA, du DT2 et plus particulièrement au risque cardiovasculaire et à l’âge vasculaire (P<2×10-16). Nos résultats suggèrent que les porteurs de la duplication au locus CNVR1 développent précocement une anomalie de la fonction bêta pancréatique et de l’insulino-résistance, dues à un dosage élevé de LOC644172 qui perturberait, en retour, la régulation du gène paralogue fonctionnel, MAPK8IP1. Nous avons également avons identifié six CNVRs hautement hérités et associés à l'HTA chez les sujets SLSJ. Le score des effets combinés de ces CNVRs est apparu positivement et étroitement relié à la prévalence de l’HTA (P=2×10-10) et à l’âge de diagnostic de l’HTA. Dans la population SLSJ, le score des effets combinés présente une statistique C, pour l’HTA, de 0.71 et apparaît aussi performant que le score de risque Framingham pour la prédiction de l’HTA chez les moins de 25 ans. Un seul nouveau locus de CNVR sur 19q13.12, où la délétion est associée à un risque pour l’HTA, a été confirmé chez les Caucasiens CTPM. Ce CNVR englobe le gène FFAR3. Chez la souris, il a été démontré que l’action hypotensive du propionate est en partie médiée par Ffar3, à travers une interférence entre la flore intestinale et les systèmes cardiovasculaire et rénal. Les CNVRs identifiées dans cette étude, affectent des gènes ou sont localisées dans des QTLs reliés majoritairement aux réponses inflammatoires et immunitaires, au système rénal ainsi qu’aux lésions/réparations rénales ou à la spéciation. Cette étude suggère que l’étiologie de l’HTA ou de l’HTA associée au DT2 est affectée par des effets additifs ou interactifs de CNVRs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La démocratisation scolaire va de pair avec l’enjeu contemporain de l’adaptation scolaire. Une catégorie d’élèves handicapés en difficulté d’apprentissage ou d’adaptation (EHDAA) classifiés par le MELS demeure plus problématique que les autres. Il s’agit des élèves présentant des troubles de comportements extériorisés. Ces élèves sont plus susceptibles que les autres de ne pas suivre le cheminement régulier, de décrocher et de connaître des difficultés d’intégration professionnelle. Comment expliquer alors qu’une minorité d’entre eux, contre toute probabilité statistique, parvient à graduer et à s’insérer dans une carrière stimulante ? Comment peuvent s’atténuer les troubles de comportement à l’âge adulte? Ce mémoire a pour ambition d’apporter un éclairage sur ces questionnements et propose une analyse sociologique des facteurs de persévérance scolaire et d’insertion professionnelle d’adultes ayant présenté des troubles de comportements extériorisés durant leurs études secondaires. Il repose sur l’analyse d’entretiens biographiques de deux individus répondant à ces critères. L’analyse de leur trajectoire démontre que leur insertion sociale s’est formée grâce à l’ « interconnaissance » et l’ « interreconnaissance » de différents types de capital tel qu’entendu par Pierre Bourdieu. En se basant également sur la méthode d’analyse des récits d’insertion proposée par Demazière et Dubar, quatre tendances furent dégagées quant à la manière dont les ressources des enquêtés furent mobilisées. Bien que le matériau soit modeste, ce mémoire jette un regard inédit sur plusieurs facettes du phénomène qui espérons-le, retiendra l’attention d’autres chercheurs qui approfondiront les pistes mises au jour dans ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à l'école de Criminologie de la Faculté des arts et sciences en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie option analyse criminologique