286 resultados para équations structurelles
Resumo:
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
Ce mémoire propose de faire l’analyse épistémologique du pouvoir créateur de la sélection naturelle. L’objectif sera de déterminer en quelle mesure il est légitime ou non de lui attribuer un tel pouvoir. Pour ce faire, il sera question de savoir si l’explication sélectionniste peut répondre à la question de l’origine des formes structurelles du vivant. Au premier chapitre, nous verrons le raisonnement qui mena Darwin à accorder un pouvoir créateur à la sélection naturelle. Nous comprendrons alors qu’un cadre exclusivement darwinien n’est peut-être pas à même de répondre au problème de la nouveauté évolutionnaire. Au deuxième chapitre, nous verrons dans une perspective darwinienne qu’il est possible de conserver l’essence de la théorie darwinienne et d’accorder à la sélection naturelle un pouvoir créateur, bien que deux des piliers darwiniens fondamentaux doivent être remis en question. Au troisième chapitre, nous verrons dans une perspective postdarwinienne que le pouvoir cumulatif de la sélection naturelle n’est peut-être pas à même d’expliquer l’adaptation sur le plan individuel, ce qui remet lourdement en question le pouvoir créateur de la sélection naturelle. Nous comprendrons alors que le débat, entre partisans d’une vision positive et partisans d’une vision négative de la sélection naturelle, dépend peut-être d’un présupposé métaphysique particulier.
Resumo:
Cette thèse porte sur les conflits entre centres et périphéries à l’intérieur des pays. Ces dernières années, de nombreux États ont vu l'émergence de régions ou territoires qui défient leurs «centres» politiques. Ces disputes peuvent atteindre divers degrés d'affrontement, en allant des simples divisions électorales à la sécession d'une périphérie rebelle. Pourquoi certaines régions défient-elles ouvertement leur centre, tandis que d'autres ne le font pas? Dans quelles conditions les différences entre le centre et les périphéries sont-elles maîtrisées et circonscrites, et quelles sont celles qui les exacerbent? La thèse cherche à répondre à ces questions en analysant les cas de la Bolivie et du Pérou. En Bolivie, pendant les années 2000, le conflit régional a donné lieu à un clivage entre centre et périphérie; au Pérou, malgré les similitudes avec la Bolivie, un clivage similaire ne s’est pas déployé. Pourquoi cette différence? La thèse répond à la question par une analyse historique comparée. Elle suggère que les conflits entre le centre et les périphéries doivent s’analyser à partir de la combinaison de deux dimensions. La première est l’absence ou la présence d’élites régionales qui, à partir d'organisations et de mises en discours qu'elles rendent légitimes, définissent et représentent les revendications de la région et négocient avec l'État central. La deuxième dimension renvoie aux conditions structurelles de la région, en particulier l'importance des ressources naturelles et la taille de sa population. La thèse développe une analyse historique de la façon dont les deux dimensions ont évolué en Bolivie et au Pérou au cours de la seconde moitié du XX siècle. Cette analyse permet d’expliquer la divergence entre les résultats dans chacun des cas, et de suggérer des réflexions plus générales sur les relations entre les centres et les périphéries.
Resumo:
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.
Resumo:
Alors que la plupart des théories libérales ont mis l’accent sur les principes de justice, et sur une conception de la justice qui nous fait penser la société et les relations individuelles de manière de plus en plus abstraite, les réflexions sur le respect de soi nous portent plutôt vers ce qui est essentiel à la valeur et l’importance de l’identité des personnes et de leurs relations sociales. Ces réflexions nous révèlent que non seulement les principes de justice ne sont pas la seule source de respect, mais que tant les cultures et les religions que les communautés morales et les groupes compréhensifs ont des rôles fondamentaux pour le niveau de respect de soi et de respect mutuel que les individus éprouvent envers eux-mêmes et envers les autres. Si les projets de vie, les valeurs et les croyances des individus sont révélés comme fondamentaux à leur autonomie et leur vie comme individu, les réflexions sur le multiculturalisme et le pluralisme révèlent les difficultés de notre temps : comment une société peut-elle promouvoir le respect de soi des individus dans un tel contexte de diversité morale, compréhensive, religieuse, etc.? Critiquant les théories de John Rawls, Will Kymlicka, ainsi que certains arguments de philosophes tels que Bhiku Parekh et David Miller, la thèse défendue dans ce mémoire prend la position très forte qu’une société doit donner beaucoup plus de moyens aux individus pour que leur respect de soi soit favorisé. La thèse centrale est que les individus ont tous le droit à un contexte de valorisation, soit un espace politique propre à une communauté ou un groupe et qui inclut les institutions et les pouvoirs nécessaires pour que le respect de soi des membres de ces groupes puisse être favorisé. C’est seulement par un tel droit et par les revendications structurelles et institutionnelles qui s’y rapportent que les groupes culturels et religieux, ainsi que les communautés morales et les groupes compréhensifs peuvent être reconnus politiquement et qu’une théorie libérale et multiculturelle des individus et des groupes puisse concilier idéal et réalité.
Resumo:
Les canaux Ca2+ activés par le voltage (CaV) sont des protéines membranaires qui génèrent des courants Ca2+ dans les cellules excitables suite à une dépolarisation membranaire. Ces complexes oligomériques sont classifiés selon les propriétés structurelles de la sous-unité principale qui forme le pore du canal, soit la sous-unité CaVα1. La sous-unité auxiliaire CaVβ module l’expression membranaire et la dépendance au voltage du « gating » de la sous-unité CaVα1 des canaux HVA (« high-voltage-activated ») CaV1 et CaV2. La sous-unité CaVβ est formée par un domaine SH3 (« Src homology-3 ») connecté à un domaine GK (« guanylate kinase-like ») par le biais d’un domaine variable HOOK. Dans le but d’identifier les résidus dans la CaVβ3 qui sont responsables de la densité membranaire du CaV2.3, nous avons produit des mutants de la sous-unité auxiliaire le long de ses domaines fonctionnels. Cela dit, la délétion complète du domaine SH3 ainsi que la délétion du domaine HOOK n’ont pas modifié la densité membranaire de CaV2.3 ni ses propriétés d’activation. Cependant, la délétion de cinq résidus dans le domaine GK interrompt l’expression membranaire et l’expression fonctionnelle de CaV2.3. La mutation de résidus identifiés précédemment comme soutenant une affinité de liaison de l’ordre du nanomolaire dans le domaine GK de CaVβ n’a pas modifié de manière significative l’adressage membranaire de CaV2.3. Toutefois, les mutations de quatre résidus leucine dans les régions α3, α6, β10 et α9 du domaine GK ont grandement réduit l’adressage membranaire du canal CaV2.3. Nos résultats confirment que le domaine GK contient les déterminants moléculaires responsables de la fonction chaperone de CaVβ. Cela dit, l’adressage membranaire induit par CaVβ semble être déterminé par des éléments structuraux qui ne sont pas strictement dépendants d’une liaison à haute affinité de CaVβ sur CaVα1.
Resumo:
Les protéines amyloïdes sont impliquées dans les maladies neurodégénératives comme Alzheimer, Parkinson et les maladies à prions et forment des structures complexes, les fibres amyloïdes. Le mécanisme de formation de ces fibres est un processus complexe qui implique plusieurs espèces d’agrégats intermédiaires. Parmi ces espèces, des petits agrégats, les oligomères, sont reconnus comme étant l’espèce amyloïde toxique, mais leur mécanisme de toxicité et d’agrégation sont mal compris. Cette thèse présente les résultats d’une étude numérique des premières étapes d’oligomérisation d’un peptide modèle GNNQQNY, issu d’une protéine prion, pour des systèmes allant du trimère au 50-mère, par le biais de simulations de dynamique moléculaire couplée au potentiel gros-grain OPEP. Nous trouvons que le mécanisme d’agrégation du peptide GNNQQNY suit un processus complexe de nucléation, tel qu’observé expérimentalement pour plusieurs protéines amyloïdes. Nous observons aussi que plusieurs chemins de formation sont accessibles à l’échelle du 20-mère et du 50-mère, ce qui confère aux structures un certain degré de polymorphisme et nous sommes capable de reproduire, dans nos simulations, des oligomères protofibrillaires qui présentent des caractéristiques structurelles observées expérimentalement chez les fibres amyloïdes.
Resumo:
Ce mémoire est une partie d’un programme de recherche qui étudie la superintégrabilité des systèmes avec spin. Plus particulièrement, nous nous intéressons à un hamiltonien avec interaction spin-orbite en trois dimensions admettant une intégrale du mouvement qui est un polynôme matriciel d’ordre deux dans l’impulsion. Puisque nous considérons un hamiltonien invariant sous rotation et sous parité, nous classifions les intégrales du mouvement selon des multiplets irréductibles de O(3). Nous calculons le commutateur entre l’hamiltonien et un opérateur général d’ordre deux dans l’impulsion scalaire, pseudoscalaire, vecteur et pseudovecteur. Nous donnons la classification complète des systèmes admettant des intégrales du mouvement scalaire et vectorielle. Nous trouvons une condition nécessaire à remplir pour le potentiel sous forme d’une équation différentielle pour les cas pseudo-scalaire et pseudo-vectoriel. Nous utilisons la réduction par symétrie pour obtenir des solutions particulières de ces équations.
Resumo:
Information recueillie sur les marchés des drogues de synthèse est beaucoup moins avancée que les études sur d'autres marchés de drogues illicites. La classification relativement récente des drogues de synthèse comme substances illicites, couplée avec ses caractéristiques distinctes qui empêchent son observation, a entravé le développement d’évaluations complètes et fiables des caractéristiques structurelles des marchés. Le but de cet article est de fournir un aperçu fiable sur la dynamique interne du marché des drogues synthétiques, en particulier sur ses caractéristiques structurelles et organisationnelles. En utilisant l'information obtenue à partir de 365 drogues de synthèse saisies par les policiers pendant un an, cette étude sera la fusion de deux techniques, soit la composition des drogues illicites et des analyses économiques, afin de tirer des évaluations fiables des caractéristiques structurelles du marché du Québec de drogues synthétiques. Les résultats concernant l'analyse de la composition des drogues indiquent que le marché des drogues synthétiques au Québec est probablement composé d'un nombre élevé de petites structures, ce qui indique un marché compétitif. L'analyse économique a également fourni des informations complémentaires sur le marché des drogues. Selon la région géographique les couts de la production et les relations entre trafiquant et consommateur influencent le prix des drogues. Les résultats de cette recherche mettent l'accent sur la nécessité de concevoir des politiques qui tient compte des différences régionales dans la production de drogue et reflète la nature compétitive de ce marché.
Resumo:
Les études antérieures ont démontré les bénéfices de la satisfaction des besoins intrinsèques et du soutien à l’autonomie dans le domaine de l’éducation. Or, l’applicabilité des tenants principaux de la Théorie de l’Auto-Détermination (TAD; Deci & Ryan, 2000) n’a pas été investiguée auprès d’une population clinique d’adolescents. L’objectif de cette thèse doctorale est de faire la lumière sur la façon dont l'adaptation scolaire et sociale peut être favorisée par les agents de socialisation dans le contexte de la réadaptation sociale. Cette thèse est composée de deux études s’intéressant à l’application des tenants clés de la TAD auprès de deux échantillons d’adolescents vivant des problèmes d’adaptation et recevant des services d’éducation spécialisée et de réadaptation sociale. Les relations entre les concepts motivationnels de base sont étudiés afin de déterminer si, comme la TAD le propose, la satisfaction des besoins intrinsèques des jeunes peut être soutenue par le style interpersonnel des agents de socialisation (c.-à-d., le soutien à l’autonomie, l’implication et la structure). Il est aussi vérifié si ces concepts motivationnels améliorent la motivation ainsi que d’autres conséquences qui résultent de leur expérience, proposées par la TAD. La première étude a évalué si le style interpersonnel des enseignants peut favoriser la satisfaction des besoins des élèves, leur style de motivationl, tout comme leur ajustement scolaire. Les élèves en difficulté d’adaptation (N = 115) inscrits aux écoles internes des Centres de Réadaptation en raison de leurs problématiques émotionnelles et comportementales ont rempli les questionnaires à deux reprises, au début et à la fin de l’année scolaire. Les analyses de modèles d’équations structurelles révèlent que l’augmentation du soutien à l’autonomie et de l’implication (mais pas de la structure) des enseignants pendant l’année est associée à une augmentation de la satisfaction des besoins des élèves qui, conséquemment, conduit à une motivation scolaire plus auto-déterminée et à une diminution d’intentions de décrochage à la fin de l’année scolaire. De plus, l’amélioration de la satisfaction des besoins mène directement à une meilleure expérience affective à l’école. La deuxième étude consiste en une recherche expérimentale conduite auprès d’adolescentes en difficulté d’adaptation (N = 29). Le devis expérimental a permis de comparer l’impact de la présence (c. absence) du soutien à l’autonomie sur l’internalisation d’une tâche et sur les conséquences motivationnelles et expérientielles des jeunes. La tâche, fastidieuse mais importante, consistait à de la résolution de problèmes interpersonnels (activité clinique). Les résultats suggèrent qu’un style interpersonnel soutenant l’autonomie a augmenté la motivation auto-déterminée, la perception de la valeur de la tâche et son appréciation, ainsi que diminué les affects négatifs comparativement à la condition sans soutien à l’autonomie. Les résultats sont discutés en lien avec les implications théoriques et pratiques d’étendre la portée de la TAD à une population clinique d’adolescents aux prises avec des difficultés d’adaptation.
Resumo:
Les mouvements nationalistes flamands et québécois divergent en concernant leur structure; par exemple le nationalisme flamand s'est développé comme un mouvement chrétien-démocrate, alors que le nationalisme québécois contemporain s’est galvanisé autour d'une idéologie laïque de gauche. Par ailleurs, il existe un contraste entre les poids sociodémographique, politique et économique portés par la région de Flandres en Belgique, et ceux portés dans la province du Québec au Canada. Cependant, malgré les influences divergentes structurelles et systémiques, les mouvements nationalistes flamand et québécois ont développé et maintenu des profils très similaires. Par exemple, les deux mouvements nationalistes se définissent par une distinction ethnolinguistique, les deux ont un discours nationaliste parallèle axé sur la nécessité de préserver et de protéger la langue et la culture de la communauté nationale, et les deux se concentrent sur l'obtention d'une redistribution des pouvoirs culturels et politiques. Dans ce mémoire, nous proposons que le profil nationaliste ressemblant du mouvement nationaliste flamand et québécois puisse être expliqué par le développement d'un « nationalisme ethnolinguistique de contestation », qui était initialement mis en place par les nationalistes flamands et québécois cherchant à corriger les effets d'une « division culturelle du travail ». Ce sentiment d’un nationalisme de contestation ethnolinguistique est instrumentalisé et perpétué par les nationalistes flamands et québécois en évoquant certains « souvenirs partagés », qui sont trouvés dans le récit historique de la communauté nationale. Ces souvenirs partagés, ainsi que leurs représentations symboliques, reflètent les sentiments de protestation, injustice et victimisation, qui sont vitaux pour les nationalistes flamands et québécois dans le maintien de leur expression parallèlement à un nationalisme de contestation ethnolinguistique en Flandres et au Québec.
Resumo:
De nos jours, l’idée selon laquelle bon nombre d’individus atteints de psychose peuvent se rétablir sensiblement au fil du temps est de plus en plus répandue. Alors que le milieu médical associe le rétablissement à la rémission symptomatique, les usagers de services en santé mentale le voient plutôt comme un processus où l’absence de symptômes n’est pas une condition sine qua non. Ne s’opposant à ni l’un ni l’autre de ces points de vue, le traitement actuel des psychoses vise le retour à un fonctionnement social approprié. Chez les jeunes atteints d’un premier épisode psychotique, une diminution marquée des symptômes après un traitement pharmacologique se traduit rarement en une amélioration significative du fonctionnement, ce qui justifie la mise en place d’interventions psychosociales. On connait aujourd’hui quelques variables associées au fonctionnement social chez cette population, mais celui-ci a peu été étudié de façon spécifique. De même, on connait mal la manière dont ces jeunes vivent leur rétablissement en tant que processus. Cette thèse porte donc sur le rétablissement et le fonctionnement social de jeunes en début de psychose. La première partie consiste en une introduction aux concepts de rétablissement et de réadaptation, et en une revue de la littérature des interventions psychosociales pouvant favoriser leurs rétablissement et fonctionnement. Plus spécifiquement, nous illustrons comment ces interventions peuvent s’appliquer aux adolescents, clientèle sur laquelle peu de littérature existe actuellement. La deuxième partie présente les résultats d’une étude sur la valeur prédictive de variables sur trois domaines du fonctionnement social de 88 jeunes adultes en début de psychose. Des équations de régression multiple ont révélé qu’un niveau plus élevé de dépression était associé à une vie sociale moins active, qu’un moins bon apprentissage verbal à court terme était associé à un plus bas fonctionnement vocationnel, que le fait d’être de sexe masculin était négativement associé aux habiletés de vie autonome, et qu’un niveau plus élevé de symptômes négatifs prédisait de moins bonnes performances dans les trois sphères du fonctionnement. Finalement, la troisième partie s’intéresse au processus de rétablissement en début de psychose par l’analyse de récits narratifs selon un modèle en cinq stades. Nous avons découvert que l’ensemble de notre échantillon de 47 participants se situaient dans les deux premiers stades de rétablissement lors du premier temps de mesure, et que le fait de se trouver au deuxième stade était associé à de meilleurs scores d’engagement social et de fonctionnement occupationnel, à un meilleur développement narratif, à moins de symptômes négatifs et positifs, et à plus d’années de scolarité. Par ailleurs, l’examen des stades à deux autres temps de mesure a révélé des profils relativement stables sur une période de neuf mois. En somme, les résultats démontrent la nécessité d’évaluer le fonctionnement social de façon plus spécifique et l’importance d’offrir des interventions psychosociales en début de psychose visant notamment le développement des relations et l’intégration scolaire/professionnelle, ou visant à améliorer le faible développement narratif. Cette thèse est, de plus, un premier pas dans l’étude du processus de rétablissement des jeunes atteints de psychose.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.