16 resultados para Propagation pattern

em Université de Montréal, Canada


Relevância:

20.00% 20.00%

Publicador:

Resumo:

La méthode de projection et l'approche variationnelle de Sasaki sont deux techniques permettant d'obtenir un champ vectoriel à divergence nulle à partir d'un champ initial quelconque. Pour une vitesse d'un vent en haute altitude, un champ de vitesse sur une grille décalée est généré au-dessus d'une topographie donnée par une fonction analytique. L'approche cartésienne nommée Embedded Boundary Method est utilisée pour résoudre une équation de Poisson découlant de la projection sur un domaine irrégulier avec des conditions aux limites mixtes. La solution obtenue permet de corriger le champ initial afin d'obtenir un champ respectant la loi de conservation de la masse et prenant également en compte les effets dûs à la géométrie du terrain. Le champ de vitesse ainsi généré permettra de propager un feu de forêt sur la topographie à l'aide de la méthode iso-niveaux. L'algorithme est décrit pour le cas en deux et trois dimensions et des tests de convergence sont effectués.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le virus du syndrome reproducteur et respiratoire porcin (SRRP) est actuellement l’une des principales menaces pour la santé des troupeaux porcins. Les multiples voies de transmission complexifient l’épidémiologie de l’infection et en font une maladie particulièrement difficile à contrôler. L’objectif général de ce projet de recherche était de déterminer les facteurs associés au statut SRRP des sites de production afin de mieux comprendre l’épidémiologie de cette maladie au sein de deux régions du Québec ayant des densités porcines différentes. Les stratégies d’introduction des cochettes de remplacement ont d’abord été examinées. Des lacunes importantes ont été identifiées représentant un risque potentiel pour l’introduction du virus ou pour la recirculation d’une souche endémique au sein d’un troupeau reproducteur. Ainsi, appliquée à titre de stratégie de contrôle, l’acclimatation s’est révélée particulièrement problématique. Les principes de base étaient peu respectés, pouvant donc avoir un impact négatif considérable sur la circulation virale au sein du troupeau et potentiellement sur le voisinage immédiat. La fréquence de plusieurs mesures de biosécurité externe a ensuite été évaluée, permettant d’identifier certains problèmes dont ceux touchant principalement les mesures d’hygiène relatives au protocole d’entrée. Des différences de fréquence entre les régions et les types de production ont également été notées, ce qui peut orienter les interventions de rehaussement. Une classification multivariée a permis de grouper les sites en différents patrons de biosécurité pour constituer par le fait même un index de biosécurité. Cette étape a permis d’évaluer l’association entre certaines caractéristiques de l’élevage et le niveau de biosécurité indiqué par l’index. La distribution géographique des patrons au sein des deux régions, couplée à la détection d’agrégats spatiaux de sites ayant un patron similaire, a également permis de cibler davantage les interventions en fonction de la localisation des sites. Suite à l’investigation du statut SRRP des sites, une prévalence apparente très élevée a été obtenue pour les deux régions, complexifiant le contrôle de la maladie. L’étude de facteurs de risque dans la région de densité modérée a mis en évidence quatre facteurs associés au statut SRRP positif des sites, soit un inventaire important, la proximité du site porcin immédiat, l’absence de douche ainsi que le libre accès au site par l’équarrisseur. Une action préventive intégrant des mesures de biosécurité spécifiques peut donc être entreprise directement à la ferme au regard des deux derniers facteurs. Le fait d’utiliser un index de biosécurité plutôt que des mesures de biosécurité spécifiques a également été évalué. Les résultats ne supportent pas l’index global dans l’évaluation de l’association entre la biosécurité et le statut SRRP des sites de production. Finalement, la corrélation entre les distances génétique, euclidienne et temporelle des souches de SRRP, considérant également l’appartenance au même ou à des propriétaires différents, a été évaluée au sein de la région de haute densité. Une corrélation positive entre la distance génétique et euclidienne observée jusqu’à 5 km a souligné l’importance de la propagation régionale impliquant les aérosols, les insectes, d’autres espèces animales ou les objets inanimés. De plus, les souches génétiquement similaires appartenaient davantage à des sites ayant le même propriétaire, ce qui sous-tend des mécanismes de transmission impliquant une source commune d’animaux, d’employés, d’équipement, voire de véhicules.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tau est une protéine associée aux microtubules enrichie dans l’axone. Dans la maladie d’Alzheimer, Tau devient anormalement hyperphosphorylée, s’accumule dans le compartiment somato-dendritique et s’agrège pour former des enchevêtrements neurofibrillaires (NFTs). Ces NFTs se propagent dans le cerveau dans un ordre bien précis. Ils apparaissent d’abord dans le cortex transenthorinal pour ensuite se propager là où ces neurones projettent, c’est-à-dire au cortex entorhinal. Les NFTs s’étendent ensuite à l’hippocampe puis à différentes régions du cortex et néocortex. De plus, des études récentes ont démontré que la protéine Tau peut être sécrétée par des lignées neuronales et que lorsqu’on injecte des agrégats de Tau dans un cerveau de souris, ceux-ci peuvent pénétrer dans les neurones et induire la pathologie de Tau dans le cerveau. Ces observations ont mené à l’hypothèse que la protéine Tau pathologique pourrait être sécrétée par les neurones, pour ensuite être endocytée par les cellules avoisinantes et ainsi propager la maladie. L’objectif de la présente étude était donc de prouver la sécrétion de la protéine Tau par les neurones et d’identifier par quelle voie elle est secrétée. Nos résultats ont permis de démontrer que la protéine Tau est sécrétée par des neurones corticaux de souris de type sauvage ainsi que dans un modèle de surexpression dans des cellules HeLa et PC12. Nos résultats indiquent que la sécrétion de Tau se ferait par les autophagosomes. Finalement, nous avons démontré que la protéine Tau sécrétée est déphosphorylée et clivée par rapport à la protéine Tau intracellulaire non sécrétée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le Québec est une immense province à l’intérieur de laquelle existe une grande diversité de conditions bioclimatiques et où les perturbations anthropiques et naturelles du couvert végétal sont nombreuses. À l’échelle provinciale, ces multiples facteurs interagissent pour sculpter la composition et la distribution des paysages. Les objectifs généraux de cette recherche visaient à explorer et comprendre la distribution spatiale des patrons des paysages du Québec, de même qu’à caractériser les patrons observés à partir d’images satellitaires. Pour ce faire, les patrons des paysages ont été quantifiés avec un ensemble complet d’indices calculés à partir d’une cartographie de la couverture végétale. Plusieurs approches ont été développées et appliquées pour interpréter les valeurs d’indices sur de vastes étendues et pour cartographier la distribution des patrons des paysages québécois. Les résultats ont révélé que les patrons de la végétation prédits par le Ministère des Ressources naturelles du Québec divergent des patrons de la couverture végétale observée. Ce mémoire dresse un portrait des paysages québécois et les synthétise de manière innovatrice, en plus de démontrer le potentiel d’utilisation des indices comme attributs biogéographiques à l’échelle nationale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mon étude vise à évaluer la propagation d’une zoonose en émergence au Québec, la maladie de Lyme, en conséquence du réchauffement climatique. Le pathogène responsable de cette infection, Borrelia burgdorferi, est transmis par l’intermédiaire d’une tique parasite, Ixodes scapularis, de plus en plus commune au Québec en raison de l’augmentation de la température moyenne du climat depuis les dernières décennies. Puisque la tique a une capacité de déplacement très restreinte, on s'attend à ce que sa dispersion soit liée à celle de son hôte primaire, soit la souris à pattes blanches (Peromyscus leucopus). Je décrirai donc d’abord les espèces impliquées, leur écologie et leur rôle dans ce système à trois niveaux (hôte/pathogène/vecteur). Puis, à l’aide de séquences d’ADN mitochondrial, je comparerai la phylogéographie des deux principales espèces de souris au Québec, la souris à pattes blanches et la souris sylvestre (P. maniculatus). Des analyses d’arbres et de réseaux d’haplotypes ont révélé des différences significatives dans la structure génétique et ainsi montré que les populations de P. leucopus seraient en expansion dans le sud du Québec. Cette étude nous a finalement permis d’émettre des hypothèses sur le patron d’établissement de la maladie de Lyme au Québec.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de la présente thèse est d’étudier les témoignages sur la doctrine de l’« Hadès ouranien » du IVe siècle avant J.-C. au VIe siècle après J.-C. et de dégager les éléments essentiels. L’« Hadès ouranien », traduction de l’expression ὁ ἐν τῷ οὐρανῷ ᾍδης, est un thème de pensée qui caractérise tout un millénaire de la philosophie et de la religion de l’Antiquité païenne. En traitant ce thème historico-religieux, on se veut le plus complet possible mais tout en étant prudent envers nos sources, qui sont fragmentaires et qui proviennent, pour la majorité, de la tradition platonico-péripatéticienne et de ses commentateurs. Aussi, s’efforce-t-on de montrer que l’Hadès ouranien est un lieu de purification pour l’âme et donc, un purgatoire. D’une manière générale, notre recherche est la première entièrement consacrée au sujet de l’Hadès ouranien et à son évolution durant l’Antiquité. Pour ce faire, sur la base d’une approche contextualisée, nous croyons devoir distinguer en réalité trois lieux où l’Hadès céleste a été situé : il y a d’un côté l’emplacement dans la Voie Lactée (Héraclide du Pont) ; il y a aussi un effort, assez divers en ses formes, de situer ce Purgatoire entre la Lune et la terre ou aux alentours de la Lune (les académiciens, les stoïciens, Cicéron, Virgile, Plutarque, les écrits hermétiques) ; finalement, Numénius et les néoplatoniciens latins l’ont situé entre la sphère des fixes et la terre. Quant à l’évolution des éléments qui constituent notre thème, la thèse montre que le platonisme et le néoplatonisme ont fourni un milieu propice pour le développement et la propagation dans l’empire gréco-romain des doctrines sur l’Hadès céleste. De plus, ces mouvements ont aidé à la spiritualisation progressive de cet espace purgatoire. Par ailleurs, on établira certaines caractéristiques de notre thème : l’échappée de l’âme hors du corps, l’allégorie physique et la division, ontologique et physique, entre les mondes sublunaire et supralunaire. Dans une première partie, on traitera de la doctrine de l’Hadès ouranien dans l’ancienne Académie platonicienne (Héraclide, Xénocrate, Philippe d’Oponte) et dans le stoïcisme. La deuxième partie est consacrée à l’analyse du Purgatoire chez Plutarque de Chéronée. La doctrine du Purgatoire selon Cicéron et Virgile et chez leurs interprètes néoplatoniciens, ainsi que dans l’hermétisme et le gnosticisme sera traitée dans la troisième partie. Dans la quatrième et dernière partie, on explorera la doctrine du Purgatoire dans le Oracles chaldaïques et dans les écrits de Proclus, particulièrement dans son Commentaire sur la République de Platon.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Traditionnellement, le construit de la phobie sociale a été défini selon une vision intrapersonnelle, en tant que trouble de l’anxiété. Une autre conception se propose de la définir d’un point de vue interpersonnel, comme un pattern global d’autoprotection. L’objectif principal de cette thèse est de tester des hypothèses tirées du modèle interpersonnel de la phobie sociale. Deux études, présentées sous forme d’articles, ont permis d’examiner si des patterns spécifiques d’autoprotection, tels que l’impuissance et la soumission, caractérisent le mode de fonctionnement des phobiques sociaux. Les études ont également évalué si l’autoprotection et l’anxiété sont interreliées. Pour la première étude, les patterns interpersonnels de 132 phobiques sociaux, évalués à l’aide d’une mesure dérivée du Circumplex interpersonnel, ont été comparés à ceux de 85 individus célibataires ayant une dysfonction sexuelle et 105 sujets normaux. La relation entre les patterns d’autoprotection, l’anxiété sociale, la détresse générale et le fonctionnement social a également été examinée chez les phobiques sociaux. La seconde étude a permis d’examiner l’évolution des patterns d’autoprotection ainsi que de l’anxiété sociale, de la détresse générale et du fonctionnement social, chez 85 phobiques sociaux à quatre moments : avant et après un traitement d’approche interpersonnelle, ainsi qu’aux relances de six mois et d’un an. L’étude a également comparé les participants en rémission et ceux satisfaisant les critères de la phobie sociale un an suivant la fin du traitement. Les résultats suggèrent que les patterns d’impuissance et de soumission sont caractéristiques de la phobie sociale. Plus précisément, ces patterns décrivent davantage les comportements des phobiques sociaux plutôt que ceux des groupes de comparaison. De plus, une réduction significative de l’autoprotection a été notée au post-traitement et maintenue jusqu’au suivi d’un an, surtout chez les participants en rémission.En outre, une relation entre l’autoprotection, l’anxiété sociale et la détresse générale a été mise en évidence chez les phobiques sociaux. Une amélioration de l’anxiété, de la détresse subjective et du fonctionnement social cohérente avec la dissolution des patterns d’autoprotection a également été obtenue au post-traitement. En conclusion, les résultats des deux études appuient une conception interpersonnelle de la phobie sociale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans le contexte de la caractérisation des tissus mammaires, on peut se demander ce que l’examen d’un attribut en échographie quantitative (« quantitative ultrasound » - QUS) d’un milieu diffusant (tel un tissu biologique mou) pendant la propagation d’une onde de cisaillement ajoute à son pouvoir discriminant. Ce travail présente une étude du comportement variable temporel de trois paramètres statistiques (l’intensité moyenne, le paramètre de structure et le paramètre de regroupement des diffuseurs) d’un modèle général pour l’enveloppe écho de l’onde ultrasonore rétrodiffusée (c.-à-d., la K-distribution homodyne) sous la propagation des ondes de cisaillement. Des ondes de cisaillement transitoires ont été générés en utilisant la mèthode d’ imagerie de cisaillement supersonique ( «supersonic shear imaging » - SSI) dans trois fantômes in-vitro macroscopiquement homogènes imitant le sein avec des propriétés mécaniques différentes, et deux fantômes ex-vivo hétérogénes avec tumeurs de souris incluses dans un milieu environnant d’agargélatine. Une comparaison de l’étendue des trois paramètres de la K-distribution homodyne avec et sans propagation d’ondes de cisaillement a montré que les paramètres étaient significativement (p < 0,001) affectès par la propagation d’ondes de cisaillement dans les expériences in-vitro et ex-vivo. Les résultats ont également démontré que la plage dynamique des paramétres statistiques au cours de la propagation des ondes de cisaillement peut aider à discriminer (avec p < 0,001) les trois fantômes homogènes in-vitro les uns des autres, ainsi que les tumeurs de souris de leur milieu environnant dans les fantômes hétérogénes ex-vivo. De plus, un modéle de régression linéaire a été appliqué pour corréler la plage de l’intensité moyenne sous la propagation des ondes de cisaillement avec l’amplitude maximale de déplacement du « speckle » ultrasonore. La régression linéaire obtenue a été significative : fantômes in vitro : R2 = 0.98, p < 0,001 ; tumeurs ex-vivo : R2 = 0,56, p = 0,013 ; milieu environnant ex-vivo : R2 = 0,59, p = 0,009. En revanche, la régression linéaire n’a pas été aussi significative entre l’intensité moyenne sans propagation d’ondes de cisaillement et les propriétés mécaniques du milieu : fantômes in vitro : R2 = 0,07, p = 0,328, tumeurs ex-vivo : R2 = 0,55, p = 0,022 ; milieu environnant ex-vivo : R2 = 0,45, p = 0,047. Cette nouvelle approche peut fournir des informations supplémentaires à l’échographie quantitative statistique traditionnellement réalisée dans un cadre statique (c.-à-d., sans propagation d’ondes de cisaillement), par exemple, dans le contexte de l’imagerie ultrasonore en vue de la classification du cancer du sein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un modèle mathématique de la propagation de la malaria en temps discret est élaboré en vue de déterminer l'influence qu'un déplacement des populations des zones rurales vers les zones urbaines aurait sur la persistance ou la diminution de l'incidence de la malaria. Ce modèle, sous la forme d'un système de quatorze équations aux différences finies, est ensuite comparé à un modèle analogue mais en temps continu, qui prend la forme d'équations différentielles ordinaires. Une étude comparative avec la littérature récente permet de déterminer les forces et les faiblesses de notre modèle.