999 resultados para Statistique Bayésienne


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les processus Markoviens continus en temps sont largement utilisés pour tenter d’expliquer l’évolution des séquences protéiques et nucléotidiques le long des phylogénies. Des modèles probabilistes reposant sur de telles hypothèses sont conçus pour satisfaire la non-homogénéité spatiale des contraintes fonctionnelles et environnementales agissant sur celles-ci. Récemment, des modèles Markov-modulés ont été introduits pour décrire les changements temporels dans les taux d’évolution site-spécifiques (hétérotachie). Des études ont d’autre part démontré que non seulement la force mais également la nature de la contrainte sélective agissant sur un site peut varier à travers le temps. Ici nous proposons de prendre en charge cette réalité évolutive avec un modèle Markov-modulé pour les protéines sous lequel les sites sont autorisés à modifier leurs préférences en acides aminés au cours du temps. L’estimation a posteriori des différents paramètres modulants du noyau stochastique avec les méthodes de Monte Carlo est un défi de taille que nous avons su relever partiellement grâce à la programmation parallèle. Des réglages computationnels sont par ailleurs envisagés pour accélérer la convergence vers l’optimum global de ce paysage multidimensionnel relativement complexe. Qualitativement, notre modèle semble être capable de saisir des signaux d’hétérogénéité temporelle à partir d’un jeu de données dont l’histoire évolutive est reconnue pour être riche en changements de régimes substitutionnels. Des tests de performance suggèrent de plus qu’il serait mieux ajusté aux données qu’un modèle équivalent homogène en temps. Néanmoins, les histoires substitutionnelles tirées de la distribution postérieure sont bruitées et restent difficilement interprétables du point de vue biologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la cytokinèse, le génome dédoublé est compartimentalisé en deux cellules filles. L’anneau contractile, une structure dynamique, est constitué d’actine, myosine (NMY-II) et d’autres protéines accessoires. NMY-2 est le seul moteur protéique impliqué dans la contraction de l’anneau durant la cytokinèse. Depuis longtemps, il a été considéré que celle-ci glissait le long des filaments d’actine grâce à sa capacité de traction. Récemment, plusieurs études ont découvert que son activité réticulante joue un rôle en cytokinèse et il est connu que la NMY-2 peut s’assembler en filaments bipolaires à partir de dimères. Ainsi, nous postulons que leur dimension (nombre de moteurs ATPasiques) pourrait dicter leur contribution en activité motrice et réticulante. Afin de déterminer la composition des filaments corticaux de NMY-2, nous avons utilisé une technique d'imagerie de molécules individuelles à l’aide de la microscopie TIRF. J’ai trouvé à travers l’analyse statistique de la distribution des NMY-2 mesurés que les filaments sont assemblés à deux dimensions constantes: Des filaments composés de 20 dimères et 30 dimères. La kinase Rho est une activatrice de NMY-2 nécessaire pour les niveaux physiologiques de NMY-2 sur l’anneau contractile, pour des cinétiques et fermeture concentrique de l’anneau. La déplétion de RhoK augmente l’abondance relative des filaments de 20 dimères. Ainsi, RhoK pourrait réguler le recrutement de la NMY et aussi l’assemblage des filaments corticaux de NMY-2. De plus, à l’aide de la microscopie confocale à temps réel, j’ai trouvé que lors de la déplétion de RhoK, il se produit une réduction du recrutement et du délai d’initiation du sillon, une fermeture lente et une augmentation significative de la concentricité de l’anneau. De plus, j’ai mesuré des défauts dans l’organisation corticale de l’anneau contractile en patch. La déplétion de MRCK-1 n’affecte pas l’initiation du sillon, les cinétiques de fermeture, ou la fermeture concentrique de l’anneau. Paradoxalement, la déplétion de MRCK-1 augmente le recrutement cortical de NMY-2, mais quand depleté simultanément avec Rho-K il diminue NMY-2 à l’équateur comparé à la déplétion seule de Rho-K. De plus, la double déplétion, conduit à un phénotype de concentricité de l’anneau, suivie d’un recentrage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet s’intéresse aux représentations que fait le cinéma des territoires et à la manière dont ces représentations reflètent des grands enjeux socio-spatiaux. L’espace cinématographique devient une clé d’entrée pour l’analyse géographique. Cette analyse porte plus particulièrement sur les représentations que fait le cinéma québécois contemporain des espaces urbains, ruraux et périurbains. Les récits et les représentations spatiales qui les composent se positionnent souvent sur les enjeux socio-spatiaux, produits par l’histoire nationale et les processus socioéconomiques. La proposition d’analyser les représentations cinématographiques en lien avec le contexte socioéconomique vise deux principaux objectifs conceptuels. D’une part, elle s’intéresse à une meilleure compréhension du façonnement des discours sur l’espace, en ce qui a trait à leur émergence et leur négociation. D’autre part, l’analyse vise une définition élargie des espaces ruraux, urbains et périurbains contemporains, en révélant la complexité et simultanément, la simplification dont ils font l’objet, ainsi que les enjeux qui leurs sont associés. Il s’agit d’exploiter la cinématographie québécoise comme un outil d’analyse qui permet de dévoiler la diversité des discours socio-spatiaux. Des approches quantitatives et qualitatives d’interprétation des discours sont jumelées pour réaliser une analyse complète. La méthode retenue est l’analyse critique du discours (ACD), qui tient compte des rapports idéologiques et vise à la dénaturalisation du discours. En quelques mots, l’analyse consiste en l’identification de relations entre les représentations spatiales et le contexte socioéconomique duquel elles ont émergé. Le cadre opérationnel est constitué d’un corpus de 50 films québécois réalisés entre 1980-2008, « lus » à l’aide d’une grille de lecture originale et analysés avec des méthodes d’analyse spatiale et statistique, combinées à une interprétation qualitative. L’analyse quantitative révèle que le monde urbain et le monde rural sont souvent mis en opposition. Les films font de Montréal le principal pôle urbain, tandis que le reste du Québec est associé au milieu rural. Influencées par les flux culturels et économiques globaux, les représentations montréalaises suggèrent une ville fragmentée et continuellement en mouvement. En opposition à ces représentations urbaines, les cinéastes envisagent l’espace rural comme étant exempt de travail, axé sur le chez-soi et doté d’un esprit communautaire. Il est suggéré que la ville, toujours en croissance, restreint les possibilités d’un développement communautaire fort. Face à une ville transformée par la globalisation et en perte d’authenticité, une forme de régionalisme est observée. Ce dernier associe un ensemble de valeurs à une communauté ou à un territoire, afin de se distinguer devant des forces globalisantes qui semblent homogénéiser les valeurs. Pourtant, l’analyse quantitative laisse voir des contradictions au sein de chaque entité géographique ou milieu. L’analyse qualitative permet d’approfondir l’interprétation et révèle sept grands discours sur les espaces urbains et ruraux. Sont notamment identifiés des discours sur la contestation de la modernité urbaine, sur la réappropriation du milieu de vie par les citoyens et sur un espace rural parfois brutal. Cette analyse amène à conclure que la diversité des discours s’explique par l’hétérogénéité des pratiques socio-spatiales, qui remettent en question l’idée d’un discours national homogène. Cela témoigne de l’évolution et la négociation des regards que nous posons sur nos espaces. Au final, cette thèse contribue à une meilleure utilisation du matériel cinématographique comme support d’étude géographique en proposant une approche méthodologique claire et originale. Sur un plan conceptuel, elle rappelle la complexité et le dynamisme des représentations territoriales québécoises, ainsi que les stratégies de négociation des cinéastes face aux enjeux socio-spatiaux vécus dans la province.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’hypertension artérielle essentielle (HTA) est une pathologie complexe, multifactorielle et à forte composante génétique. L’impact de la variabilité dans le nombre de copies sur l’HTA est encore peu connu. Nous envisagions que des variants dans le nombre de copies (CNVs) communs pourraient augmenter ou diminuer le risque pour l’HTA. Nous avons exploré cette hypothèse en réalisant des associations pangénomiques de CNVs avec l’HTA et avec l’HTA et le diabète de type 2 (DT2), chez 21 familles du Saguenay-Lac-St-Jean (SLSJ) caractérisées par un développement précoce de l’HTA et de la dyslipidémie. Pour la réplication, nous disposions, d’une part, de 3349 sujets diabétiques de la cohorte ADVANCE sélectionnés pour des complications vasculaires. D’autre part, de 187 sujets de la cohorte Tchèque Post-MONICA (CTPM), choisis selon la présence/absence d’albuminurie et/ou de syndrome métabolique. Finalement, 134 sujets de la cohorte CARTaGENE ont été analysés pour la validation fonctionnelle. Nous avons détecté deux nouveaux loci, régions de CNVs (CNVRs) à effets quantitatifs sur 17q21.31, associés à l’hypertension et au DT2 chez les sujets SLSJ et associés à l’hypertension chez les diabétiques ADVANCE. Un modèle statistique incluant les deux variants a permis de souligner le rôle essentiel du locus CNVR1 sur l’insulino-résistance, la précocité et la durée du diabète, ainsi que sur le risque cardiovasculaire. CNVR1 régule l’expression du pseudogène LOC644172 dont le dosage est associé à la prévalence de l’HTA, du DT2 et plus particulièrement au risque cardiovasculaire et à l’âge vasculaire (P<2×10-16). Nos résultats suggèrent que les porteurs de la duplication au locus CNVR1 développent précocement une anomalie de la fonction bêta pancréatique et de l’insulino-résistance, dues à un dosage élevé de LOC644172 qui perturberait, en retour, la régulation du gène paralogue fonctionnel, MAPK8IP1. Nous avons également avons identifié six CNVRs hautement hérités et associés à l'HTA chez les sujets SLSJ. Le score des effets combinés de ces CNVRs est apparu positivement et étroitement relié à la prévalence de l’HTA (P=2×10-10) et à l’âge de diagnostic de l’HTA. Dans la population SLSJ, le score des effets combinés présente une statistique C, pour l’HTA, de 0.71 et apparaît aussi performant que le score de risque Framingham pour la prédiction de l’HTA chez les moins de 25 ans. Un seul nouveau locus de CNVR sur 19q13.12, où la délétion est associée à un risque pour l’HTA, a été confirmé chez les Caucasiens CTPM. Ce CNVR englobe le gène FFAR3. Chez la souris, il a été démontré que l’action hypotensive du propionate est en partie médiée par Ffar3, à travers une interférence entre la flore intestinale et les systèmes cardiovasculaire et rénal. Les CNVRs identifiées dans cette étude, affectent des gènes ou sont localisées dans des QTLs reliés majoritairement aux réponses inflammatoires et immunitaires, au système rénal ainsi qu’aux lésions/réparations rénales ou à la spéciation. Cette étude suggère que l’étiologie de l’HTA ou de l’HTA associée au DT2 est affectée par des effets additifs ou interactifs de CNVRs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La démocratisation scolaire va de pair avec l’enjeu contemporain de l’adaptation scolaire. Une catégorie d’élèves handicapés en difficulté d’apprentissage ou d’adaptation (EHDAA) classifiés par le MELS demeure plus problématique que les autres. Il s’agit des élèves présentant des troubles de comportements extériorisés. Ces élèves sont plus susceptibles que les autres de ne pas suivre le cheminement régulier, de décrocher et de connaître des difficultés d’intégration professionnelle. Comment expliquer alors qu’une minorité d’entre eux, contre toute probabilité statistique, parvient à graduer et à s’insérer dans une carrière stimulante ? Comment peuvent s’atténuer les troubles de comportement à l’âge adulte? Ce mémoire a pour ambition d’apporter un éclairage sur ces questionnements et propose une analyse sociologique des facteurs de persévérance scolaire et d’insertion professionnelle d’adultes ayant présenté des troubles de comportements extériorisés durant leurs études secondaires. Il repose sur l’analyse d’entretiens biographiques de deux individus répondant à ces critères. L’analyse de leur trajectoire démontre que leur insertion sociale s’est formée grâce à l’ « interconnaissance » et l’ « interreconnaissance » de différents types de capital tel qu’entendu par Pierre Bourdieu. En se basant également sur la méthode d’analyse des récits d’insertion proposée par Demazière et Dubar, quatre tendances furent dégagées quant à la manière dont les ressources des enquêtés furent mobilisées. Bien que le matériau soit modeste, ce mémoire jette un regard inédit sur plusieurs facettes du phénomène qui espérons-le, retiendra l’attention d’autres chercheurs qui approfondiront les pistes mises au jour dans ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à l'école de Criminologie de la Faculté des arts et sciences en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie option analyse criminologique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte de la caractérisation des tissus mammaires, on peut se demander ce que l’examen d’un attribut en échographie quantitative (« quantitative ultrasound » - QUS) d’un milieu diffusant (tel un tissu biologique mou) pendant la propagation d’une onde de cisaillement ajoute à son pouvoir discriminant. Ce travail présente une étude du comportement variable temporel de trois paramètres statistiques (l’intensité moyenne, le paramètre de structure et le paramètre de regroupement des diffuseurs) d’un modèle général pour l’enveloppe écho de l’onde ultrasonore rétrodiffusée (c.-à-d., la K-distribution homodyne) sous la propagation des ondes de cisaillement. Des ondes de cisaillement transitoires ont été générés en utilisant la mèthode d’ imagerie de cisaillement supersonique ( «supersonic shear imaging » - SSI) dans trois fantômes in-vitro macroscopiquement homogènes imitant le sein avec des propriétés mécaniques différentes, et deux fantômes ex-vivo hétérogénes avec tumeurs de souris incluses dans un milieu environnant d’agargélatine. Une comparaison de l’étendue des trois paramètres de la K-distribution homodyne avec et sans propagation d’ondes de cisaillement a montré que les paramètres étaient significativement (p < 0,001) affectès par la propagation d’ondes de cisaillement dans les expériences in-vitro et ex-vivo. Les résultats ont également démontré que la plage dynamique des paramétres statistiques au cours de la propagation des ondes de cisaillement peut aider à discriminer (avec p < 0,001) les trois fantômes homogènes in-vitro les uns des autres, ainsi que les tumeurs de souris de leur milieu environnant dans les fantômes hétérogénes ex-vivo. De plus, un modéle de régression linéaire a été appliqué pour corréler la plage de l’intensité moyenne sous la propagation des ondes de cisaillement avec l’amplitude maximale de déplacement du « speckle » ultrasonore. La régression linéaire obtenue a été significative : fantômes in vitro : R2 = 0.98, p < 0,001 ; tumeurs ex-vivo : R2 = 0,56, p = 0,013 ; milieu environnant ex-vivo : R2 = 0,59, p = 0,009. En revanche, la régression linéaire n’a pas été aussi significative entre l’intensité moyenne sans propagation d’ondes de cisaillement et les propriétés mécaniques du milieu : fantômes in vitro : R2 = 0,07, p = 0,328, tumeurs ex-vivo : R2 = 0,55, p = 0,022 ; milieu environnant ex-vivo : R2 = 0,45, p = 0,047. Cette nouvelle approche peut fournir des informations supplémentaires à l’échographie quantitative statistique traditionnellement réalisée dans un cadre statique (c.-à-d., sans propagation d’ondes de cisaillement), par exemple, dans le contexte de l’imagerie ultrasonore en vue de la classification du cancer du sein.