905 resultados para Acceleration skewness
Resumo:
L'hypertension systolique isolée (HSI), amenée par une augmentation de la rigidité vasculaire, est la forme d'hypertension la plus fréquente chez les personnes âgées de plus de 60 ans. L'augmentation de la rigidité vasculaire, causée en partie par la calcification aortique médiale, est accélérée de 15 ans chez les diabétiques. Il est suggéré que la calcification aortique serait responsable de la résistance aux agents antihypertenseurs chez les patients souffrant d'HSI, d'où la nécessité de développer de nouvelles stratégies thérapeutiques ciblant la calcification artérielle. La protéine Gla de la matrice (MGP) est une protéine anti-calcifiante dépendante de la vitamine K, qui doit être γ-carboxylée pour être active. Deux enzymes sont responsables de la γ-carboxylation, soit la γ-glutamyl-carboxylase et la vitamine K époxyde réductase (VKOR). Plusieurs études récentes ont indiqué que la calcification vasculaire semblait être associée à une réduction de la γ-carboxylation de la MGP, et à un déficit en vitamine K. La modulation de l'expression et/ou de l'activité de la γ-carboxylase et de la VKOR et l'impact de cette modulation sur la γ-carboxylation de la MGP en présence de diabète n'est pas connue. L'objectif principal de cette thèse était de déterminer les mécanismes impliqués dans l'accélération de la rigidité artérielle causée par la calcification des gros troncs artériels dans le diabète. Nous avons ainsi confirmé, dans un modèle animal de rigidité artérielle en présence de diabète de type 1, que la γ-carboxylation de la MGP était bel et bien altérée au niveau aortique. En fait, nous avons démontré que la quantité de MGP active (i.e. MGP γ-carboxylée, cMGP) au sein de la paroi vasculaire est diminuée significativement. Parallèlement, l'expression de la γ-carboxylase était diminuée de façon importante, alors que ni l'expression ni l'activité de la VKOR n'étaient modifiées. La diminution de l'expression de la γ-carboxylase a pu être reproduite dans un modèle ex vivo d'hyperglycémie. À l'aide de ce modèle, nous avons démontré que la supplémentation en vitamine K dans le milieu de culture prévenait la diminution de l'expression de la γ-carboxylase, alors que les animaux diabétiques de notre modèle in vivo avaient des concentrations plasmatiques de vitamine K pratiquement triplées. D'autre part, l'étude des voies de signalisation impliquées a révélé que la voie PKCβ pourrait être responsable de l'altération de la γ-carboxylase. Ces résultats génèrent de nouvelles pistes de réflexion et de nouvelles idées de recherche. Par exemple, il serait important de vérifier l'effet de la supplémentation en vitamine K dans le modèle animal de rigidité artérielle en présence de diabète pour évaluer l'effet sur la γ-carboxylation de la MGP et par le fait même, sur la calcification vasculaire. De plus, l'évaluation de l'effet de l'administration de molécules ciblant la voie PKC chez ce même modèle animal permettrait de déterminer leur impact sur le développement de la calcification vasculaire et d'évaluer leur potentiel thérapeutique. Selon les résultats de ces études, de nouvelles options pourraient alors être à notre disposition pour prévenir ou traiter la calcification artérielle médiale associée au diabète, ce qui aurait pour effet de ralentir le développement de la rigidité artérielle et d'ainsi diminuer le risque cardiovasculaire associé à l'HSI.
Resumo:
Les leucémies myéloïdes aigües résultent d’un dérèglement du processus de l’hématopoïèse et regroupent des maladies hétérogènes qui présentent des profils cliniques et génétiques variés. La compréhension des processus cellulaires responsables de l’initiation et du maintien de ces cancers permettrait de développer des outils thérapeutiques efficaces et ciblés. Au cours des dernières années, une quantité croissante d’anomalies génétiques reliées au développement de leucémies ont été corrélées à une expression anormale des gènes HOX et de leurs cofacteurs MEIS et PBX. Des modèles expérimentaux murins ont confirmé le rôle direct joué par ces protéines dans le développement de leucémies. En effet, la protéine MEIS1 collabore avec HOXA9 dans la leucémogenèse et requiert pour ce faire trois domaines distincts. Deux de ces domaines sont conservés chez PREP1, un membre de la même classe d’homéoprotéine que MEIS1. En utilisant une approche de gain-de-fonction, j’ai confirmé l’importance du rôle joué par le domaine C-terminal de MEIS1 dans l’accélération des leucémies induites par HOXA9. J’ai également montré que l’activité de ce domaine était corrélée avec une signature transcriptionnelle associée à la prolifération cellulaire. J’ai ensuite réalisé un criblage à haut débit afin d’identifier des antagonistes de l’interaction MEIS-PBX, également essentielle à l’accélération des leucémies HOX. À cette fin, j’ai développé un essai de transfert d’énergie de résonance de bioluminescence (BRET) permettant de détecter la dimérisation MEIS-PBX dans les cellules vivantes. Plus de 115 000 composés chimiques ont été testés et suite à une confirmation par un essai orthogonal, une vingtaine de molécules ont été identifiées comme inhibiteurs potentiels. Ces composés pourront être rapidement testés sur la prolifération de cellules leucémiques primaires dans un contexte d’étude préclinique. Finalement, deux approches protéomiques complémentaires ont permis d’identifier des partenaires potentiels de MEIS1 et PREP1. La catégorisation fonctionnelle de ces candidats suggère un nouveau rôle pour ces homéoprotéines dans l’épissage de l’ARN et dans la reconnaissance de l’ADN méthylé.
Resumo:
La neurogenèse est présente, dans le cerveau adulte, dans la zone sous-ventriculaire (ZSV) encadrant les ventricules latéraux et dans le gyrus dentelé (GD) de l’hippocampe, permettant l’apprentissage, la mémoire et la fonction olfactive. Ces micro-environnements possèdent des signaux contrôlant l’auto-renouvellement des cellules souches neurales (CSN), leur prolifération, leur destin et leur différenciation. Or, lors du vieillissement, les capacités régénératives et homéostatiques et la neurogenèse déclinent. Les patients atteints de la maladie d’Alzheimer (MA), comme le modèle animal reproduisant cette maladie (3xTg-AD), montrent une accélération des phénotypes liés au vieillissement dont une diminution de la neurogenèse. Notre hypothèse est que la découverte des mécanismes affectant la neurogenèse, lors du vieillissement et de la MA, pourrait fournir de nouvelles cibles thérapeutiques pour prévenir le déclin cognitif. Les études sur l’âge d’apparition et les mécanismes altérant la neurogenèse dans la MA sont contrastées et nous ont guidé vers deux études. L’examen des changements dans les étapes de la neurogenèse lors du vieillissement et du développement de la neuropathologie. Nous avons étudié la ZSV, les bulbes olfactifs et le GD de souris femelles de 11 et 18 mois, et l’apparition des deux pathologies associées à la MA : les plaques amyloïdes et les enchevêtrements neurofibrillaires. Nous avons découvert que les souris 3xTg-AD possèdent moins de cellules en prolifération, de progéniteurs et de neuroblastes, induisant une diminution de l’intégration de nouvelles cellules dans le GD et les bulbes olfactifs. Notons que le taux de neurogenèse chez ces souris de 11 mois est similaire à celui des souris de phénotype sauvage de 18 mois, indiquant une accélération des changements liés au vieillissement dans la MA. Dans la ZSV, nous avons aussi démontré une accumulation de gouttelettes lipidiques, suggérant des changements dans l’organisation et le métabolisme de la niche. Enfin, nous avons démontré que le déficit de la neurogenèse apparait lors des premières étapes de la MA, avant l’apparition des plaques amyloïdes et des enchevêtrements neurofibrillaires. A l’examen des mécanismes inhibant la neurogenèse lors de la MA, nous voyons que chez des souris de 5 mois, le déficit de la neurogenèse dans la ZSV et le GD est corrélé avec l’accumulation de lipides, qui coïncide avec l’apparition du déclin cognitif. Nous avons aussi découvert que dans le cerveau humain de patients atteints de la MA et dans les 3xTg-AD, des gouttelettes lipidiques s’accumulaient dans les cellules épendymaires, représentant le principal soutien des CSN de la niche. Ces lipides sont des triglycérides enrichis en acide oléique qui proviennent de la niche et pas d’une défaillance du système périphérique. De plus, l’infusion locale d’acide oléique chez des souris de phénotype sauvage permet de reproduire l’accumulation de triglycérides dans les cellules épendymaires, comme dans la MA. Ces gouttelettes induisent un dérèglement de la voie de signalisation Akt-FoxO3 dans les CSN, menant à l’inhibition de leur activation in vitro et in vivo. Ces résultats permettent une meilleure compréhension de la régulation de la neurogenèse par le métabolisme lipidique. Nous avons démontré un nouveau mécanisme par lequel l’accumulation des lipides dans la ZSV induit une inhibition des capacités de prolifération et de régénération des CSN lors de la MA. Les travaux futurs permettront de comprendre comment et pourquoi le métabolisme lipidique du cerveau est altéré dans la MA, ce qui pourrait offrir de nouvelles voies thérapeutiques pour la prévention et la régénération.
Resumo:
Des évidences expérimentales récentes indiquent que les ARN changent de structures au fil du temps, parfois très rapidement, et que ces changements sont nécessaires à leurs activités biochimiques. La structure de ces ARN est donc dynamique. Ces mêmes évidences notent également que les structures clés impliquées sont prédites par le logiciel de prédiction de structure secondaire MC-Fold. En comparant les prédictions de structures du logiciel MC-Fold, nous avons constaté un lien clair entre les structures presque optimales (en termes de stabilité prédites par ce logiciel) et les variations d’activités biochimiques conséquentes à des changements ponctuels dans la séquence. Nous avons comparé les séquences d’ARN du point de vue de leurs structures dynamiques afin d’investiguer la similarité de leurs fonctions biologiques. Ceci a nécessité une accélération notable du logiciel MC-Fold. L’approche algorithmique est décrite au chapitre 1. Au chapitre 2 nous classons les impacts de légères variations de séquences des microARN sur la fonction naturelle de ceux-ci. Au chapitre 3 nous identifions des fenêtres dans de longs ARN dont les structures dynamiques occupent possiblement des rôles dans les désordres du spectre autistique et dans la polarisation des œufs de certains batraciens (Xenopus spp.).
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
Les fluctuations économiques représentent les mouvements de la croissance économique. Celle-ci peut connaître des phases d'accélération (expansion) ou de ralentissement (récession), voire même de dépression si la baisse de production est persistente. Les fluctuations économiques sont liées aux écarts entre croissance effective et croissance potentielle. Elles peuvent s'expliquer par des chocs d'offre et demande, ainsi que par le cycle du crédit. Dans le premier cas, les conditions de la production se trouvent modifiées. C'est le cas lorsque le prix des facteurs de production (salaires, prix des matières premières) ou que des facteurs externes influençant le prix des produits (taux de change) évolue. Ainsi, une hausse du prix des facteurs de production provoque un choc négatif et ralentit la croissance. Ce ralentissement peut être également dû à un choc de demande négatif provoqué par une hausse du prix des produits causée par une appréciation de la devise, engendrant une diminution des exportations. Le deuxième cas concerne les variables financières et les actifs financiers. Ainsi, en période d'expansion, les agents économiques s'endettent et ont des comportements spéculatifs en réaction à des chocs d'offre ou demande anticipés. La valeur des titres et actifs financiers augmente, provoquant une bulle qui finit par éclater et provoquer un effondrement de la valeur des biens. Dès lors, l'activité économique ne peut plus être financée. C'est ce qui génère une récession, parfois profonde, comme lors de la récente crise financière. Cette thèse inclut trois essais sur les fluctuations macroéconomiques et les cycles économiques, plus précisément sur les thèmes décrit ci-dessus. Le premier chapitre s'intéresse aux anticipations sur la politique monétaire et sur la réaction des agents écononomiques face à ces anticipations. Une emphase particulière est mise sur la consommation de biens durables et l'endettement relié à ce type de consommation. Le deuxième chapitre aborde la question de l'influence des variations du taux de change sur la demande de travail dans le secteur manufacturier canadien. Finalement, le troisième chapitre s'intéresse aux retombées économiques, parfois négatives, du marché immobilier sur la consommation des ménages et aux répercussions sur le prix des actifs immobiliers et sur l'endettement des ménages d'anticipations infondées sur la demande dans le marché immobilier. Le premier chapitre, intitulé ``Monetary Policy News Shocks and Durable Consumption'', fournit une étude sur le lien entre les dépenses en biens durables et les chocs monétaires anticipés. Nous proposons et mettons en oeuvre une nouvelle approche pour identifier les chocs anticipés (nouvelles) de politique monétaire, en les identifiant de manière récursive à partir des résidus d’une règle de Taylor estimée à l’aide de données de sondage multi-horizon. Nous utilisons ensuite les chocs anticipés inférer dans un modèle autorégressif vectoriel structurel (ARVS). L’anticipation d’une politique de resserrement monétaire mène à une augmentation de la production, de la consommation de biens non-durables et durables, ainsi qu’à une augmentation du prix réel des biens durables. Bien que les chocs anticipés expliquent une part significative des variations de la production et de la consommation, leur impact est moindre que celui des chocs non-anticipés sur les fluctuations économiques. Finalement, nous menons une analyse théorique avec un modèle d’équilibre général dynamique stochastique (EGDS) avec biens durables et rigidités nominales. Les résultats indiquent que le modèle avec les prix des biens durables rigides peut reproduire la corrélation positive entre les fonctions de réponse de la consommation de biens non-durables et durables à un choc anticipé de politique monétaire trouvées à l’aide du ARVS. Le second chapitre s'intitule ``Exchange Rate Fluctuations and Labour Market Adjustments in Canadian Manufacturing Industries''. Dans ce chapitre, nous évaluons la sensibilité de l'emploi et des heures travaillées dans les industries manufacturières canadiennes aux variations du taux de change. L’analyse est basée sur un modèle dynamique de demande de travail et utilise l’approche en deux étapes pour l'estimation des relations de cointégration en données de panel. Nos données sont prises d’un panel de 20 industries manufacturières, provenant de la base de données KLEMS de Statistique Canada, et couvrent une longue période qui inclut deux cycles complets d’appréciation-dépréciation de la valeur du dollar canadien. Les effets nets de l'appréciation du dollar canadien se sont avérés statistiquement et économiquement significatifs et négatifs pour l'emploi et les heures travaillées, et ses effets sont plus prononcés dans les industries davantage exposées au commerce international. Finalement, le dernier chapitre s'intitule ``Housing Market Dynamics and Macroprudential Policy'', dans lequel nous étudions la relation statistique suggérant un lien collatéral entre le marché immobilier and le reste de l'économique et si ce lien est davantage entraîné par des facteurs de demandes ou d'offres. Nous suivons également la littérature sur les chocs anticipés et examinons un cyle d'expansion-récession peut survenir de façon endogène la suite d'anticipations non-réalisées d'une hausse de la demande de logements. À cette fin, nous construisons un modèle néo-Keynésien au sein duquel le pouvoir d’emprunt du partie des consommateurs est limité par la valeur de leur patrimoine immobilier. Nous estimons le modèle en utilisant une méthode Bayésienne avec des données canadiennes. Nous évaluons la capacité du modèle à capter les caractéristiques principales de la consommation et du prix des maisons. Finalement, nous effectuons une analyse pour déterminer dans quelle mesure l'introduction d'un ratio prêt-à-la-valeur contracyclique peut réduire l'endettement des ménages et les fluctuations du prix des maisons comparativement à une règle de politique monétaire répondant à l'inflation du prix des maisons. Nous trouvons une relation statistique suggérant un important lien collatéral entre le marché immobilier et le reste de l'économie, et ce lien s'explique principalement par des facteurs de demande. Nous constatons également que l'introduction de chocs anticipés peut générer un cycle d'expansion-récession du marché immobilier, la récession faisant suite aux attentes non-réalisées par rapport à la demande de logements. Enfin, notre étude suggère également qu'un ratio contracyclique de prêt-à-la-valeur est une politique utile pour réduire les retombées du marché du logement sur la consommation par l'intermédiaire de la valeur garantie.
Resumo:
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.
Resumo:
The continental shelf of southwest coast of India (Kerala) is broader and . flatter compared to that of the east coast. The unique characteristic feature of the study area (innershelf between Narakkal and Purakkad) is the intermittent appearance of 'mud banks' at certain locations during southwest monsoon. The strong seasonality manifests significant changes in the wind, waves, currents, rainfall, drainage etc., along this area. Peculiar geomorphological variation with high, mid and lowlands in the narrow strip of the hinterland, the geological formations mainly consisting of rocks of metamorphic origin and the humid tropical weathering conditions play significant role in regulating the shelf sedimentation. A complementary pattern of distri bution is observed for clay that shows an abundance in the nearshore. Silt, to a major extent, depicts semblance with clay distribution . Summation of the total asymmetry of grain size distribution are inferred from the variation of skewness and kurtosis.Factor I implies a low energy regime where the transportation and deposition phases are controlled mostly by pelagic suspension process as the factor loadings are dominant on finer phi sizes. The second Factor is inferred to be the result of a high energy regime which gives higher loadings on coarser size fractions. The third Factor which might be a transition phase (medium energy regime) representing the resultant flux of coastal circulation of the re-suspension/deposition and an onshoreoffshore advection by reworking and co-deposition of relict and modern sediments. The spatial variations of the energy regime based on the three end-member factor model exhibits high energy zone in the seaward portion transcending to a low energy one towards the coast.From the combined analysis of granulometry and SEM studies, it is concluded that the sandy patches beyond 20 m depth are of relict nature. They are the resultant responses of beach activity during the lower stand of sea level in the Holocene. Re-crystallisation features on the quartz grains indicate that they were exposed to subaerial weathering process subsequent to thei r deposition
Resumo:
The thesis entitled Study on Accelerators in Rubber Vulcanization with Special Reference to the Binary Systems Containing Substituted Dithiobiurets. It includes a detailed study on the binary accelerator systems containing substituted dithiobiurets in natural rubber and NR latex and dithiobiurets in SBR and NR-SBR blends vulcanization systems. It deals with the experimental procedure adopted for the preparation of DTB-II and DTB-III; the procedure for compounding and vulcanization and determination of physical properties like modulus, tensile strength, elongation at break, hardness, compression set, heat build up etc. The results indicate that there is efficient acceleration activity of the dithiobiurets in the vulcanization of natural rubber latex containing TMT. The study of dithiobiurets in natural rubber and NR latex reveal that they are having definite accelerating effect in SBR vulcanization systems.
Resumo:
Eurocode 8 representing a new generation of structural design codes in Europe defines requirements for the design of buildings against earthquake action. In Central and Western Europe, the newly defined earthquake zones and corresponding design ground acceleration values, will lead in many cases to earthquake actions which are remarkably higher than those defined so far by the design codes used until now in Central Europe. In many cases, the weak points of masonry structures during an earthquake are the corner regions of the walls. Loading of masonry walls by earthquake action leads in most cases to high shear forces. The corresponding bending moment in such a wall typically causes a significant increase of the eccentricity of the normal force in the critical wall cross section. This in turn leads ultimately to a reduction of the size of the compression zone in unreinforced walls and a high concentration of normal stresses and shear stresses in the corner regions. Corner-Gap-Elements, consisting of a bearing beam located underneath the wall and made of a sufficiently strong material (such as reinforced concrete), reduce the effect of the eccentricity of the normal force and thus restricts the pinching effect of the compression zone. In fact, the deformation can be concentrated in the joint below the bearing beam. According to the principles of the Capacity Design philosophy, the masonry itself is protected from high stresses as a potential cause of brittle failure. Shaking table tests at the NTU Athens Earthquake Engineering Laboratory have proven the effectiveness of the Corner-Gap-Element. The following presentation will cover the evaluation of various experimental results as well as a numerical modeling of the observed phenomena.
Resumo:
In the present paper we concentrate on solving sequences of nonsymmetric linear systems with block structure arising from compressible flow problems. We attempt to improve the solution process by sharing part of the computational effort throughout the sequence. This is achieved by application of a cheap updating technique for preconditioners which we adapted in order to be used for our applications. Tested on three benchmark compressible flow problems, the strategy speeds up the entire computation with an acceleration being particularly pronounced in phases of instationary behavior.
Resumo:
The accurate transport of an ion over macroscopic distances represents a challenging control problem due to the different length and time scales that enter and the experimental limitations on the controls that need to be accounted for. Here, we investigate the performance of different control techniques for ion transport in state-of-the-art segmented miniaturized ion traps. We employ numerical optimization of classical trajectories and quantum wavepacket propagation as well as analytical solutions derived from invariant based inverse engineering and geometric optimal control. The applicability of each of the control methods depends on the length and time scales of the transport. Our comprehensive set of tools allows us make a number of observations. We find that accurate shuttling can be performed with operation times below the trap oscillation period. The maximum speed is limited by the maximum acceleration that can be exerted on the ion. When using controls obtained from classical dynamics for wavepacket propagation, wavepacket squeezing is the only quantum effect that comes into play for a large range of trapping parameters. We show that this can be corrected by a compensating force derived from invariant based inverse engineering, without a significant increase in the operation time.
Resumo:
In the theory of the Navier-Stokes equations, the proofs of some basic known results, like for example the uniqueness of solutions to the stationary Navier-Stokes equations under smallness assumptions on the data or the stability of certain time discretization schemes, actually only use a small range of properties and are therefore valid in a more general context. This observation leads us to introduce the concept of SST spaces, a generalization of the functional setting for the Navier-Stokes equations. It allows us to prove (by means of counterexamples) that several uniqueness and stability conjectures that are still open in the case of the Navier-Stokes equations have a negative answer in the larger class of SST spaces, thereby showing that proof strategies used for a number of classical results are not sufficient to affirmatively answer these open questions. More precisely, in the larger class of SST spaces, non-uniqueness phenomena can be observed for the implicit Euler scheme, for two nonlinear versions of the Crank-Nicolson scheme, for the fractional step theta scheme, and for the SST-generalized stationary Navier-Stokes equations. As far as stability is concerned, a linear version of the Euler scheme, a nonlinear version of the Crank-Nicolson scheme, and the fractional step theta scheme turn out to be non-stable in the class of SST spaces. The positive results established in this thesis include the generalization of classical uniqueness and stability results to SST spaces, the uniqueness of solutions (under smallness assumptions) to two nonlinear versions of the Euler scheme, two nonlinear versions of the Crank-Nicolson scheme, and the fractional step theta scheme for general SST spaces, the second order convergence of a version of the Crank-Nicolson scheme, and a new proof of the first order convergence of the implicit Euler scheme for the Navier-Stokes equations. For each convergence result, we provide conditions on the data that guarantee the existence of nonstationary solutions satisfying the regularity assumptions needed for the corresponding convergence theorem. In the case of the Crank-Nicolson scheme, this involves a compatibility condition at the corner of the space-time cylinder, which can be satisfied via a suitable prescription of the initial acceleration.
Resumo:
Using the MIT Serial Link Direct Drive Arm as the main experimental device, various issues in trajectory and force control of manipulators were studied in this thesis. Since accurate modeling is important for any controller, issues of estimating the dynamic model of a manipulator and its load were addressed first. Practical and effective algorithms were developed fro the Newton-Euler equations to estimate the inertial parameters of manipulator rigid-body loads and links. Load estimation was implemented both on PUMA 600 robot and on the MIT Serial Link Direct Drive Arm. With the link estimation algorithm, the inertial parameters of the direct drive arm were obtained. For both load and link estimation results, the estimated parameters are good models of the actual system for control purposes since torques and forces can be predicted accurately from these estimated parameters. The estimated model of the direct drive arm was them used to evaluate trajectory following performance by feedforward and computed torque control algorithms. The experimental evaluations showed that the dynamic compensation can greatly improve trajectory following accuracy. Various stability issues of force control were studied next. It was determined that there are two types of instability in force control. Dynamic instability, present in all of the previous force control algorithms discussed in this thesis, is caused by the interaction of a manipulator with a stiff environment. Kinematics instability is present only in the hybrid control algorithm of Raibert and Craig, and is caused by the interaction of the inertia matrix with the Jacobian inverse coordinate transformation in the feedback path. Several methods were suggested and demonstrated experimentally to solve these stability problems. The result of the stability analyses were then incorporated in implementing a stable force/position controller on the direct drive arm by the modified resolved acceleration method using both joint torque and wrist force sensor feedbacks.