951 resultados para dynamic response parameters


Relevância:

30.00% 30.00%

Publicador:

Resumo:

We report the characterisation of 27 cardiovascular-related traits in 23 inbred mouse strains. Mice were phenotyped either in response to chronic administration of a single dose of the beta-adrenergic receptor blocker atenolol or under a low and a high dose of the beta-agonist isoproterenol and compared to baseline condition. The robustness of our data is supported by high trait heritabilities (typically H(2)>0.7) and significant correlations of trait values measured in baseline condition with independent multistrain datasets of the Mouse Phenome Database. We then focused on the drug-, dose-, and strain-specific responses to beta-stimulation and beta-blockade of a selection of traits including heart rate, systolic blood pressure, cardiac weight indices, ECG parameters and body weight. Because of the wealth of data accumulated, we applied integrative analyses such as comprehensive bi-clustering to investigate the structure of the response across the different phenotypes, strains and experimental conditions. Information extracted from these analyses is discussed in terms of novelty and biological implications. For example, we observe that traits related to ventricular weight in most strains respond only to the high dose of isoproterenol, while heart rate and atrial weight are already affected by the low dose. Finally, we observe little concordance between strain similarity based on the phenotypes and genotypic relatedness computed from genomic SNP profiles. This indicates that cardiovascular phenotypes are unlikely to segregate according to global phylogeny, but rather be governed by smaller, local differences in the genetic architecture of the various strains.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In distributed energy production, permanent magnet synchronous generators (PMSG) are often connected to the grid via frequency converters, such as voltage source line converters. The price of the converter may constitute a large part of the costs of a generating set. Some of the permanent magnet synchronous generators with converters and traditional separately excited synchronous generators couldbe replaced by direct-on-line (DOL) non-controlled PMSGs. Small directly networkconnected generators are likely to have large markets in the area of distributed electric energy generation. Typical prime movers could be windmills, watermills and internal combustion engines. DOL PMSGs could also be applied in island networks, such as ships and oil platforms. Also various back-up power generating systems could be carried out with DOL PMSGs. The benefits would be a lower priceof the generating set and the robustness and easy use of the system. The performance of DOL PMSGs is analyzed. The electricity distribution companies have regulations that constrain the design of the generators being connected to the grid. The general guidelines and recommendations are applied in the analysis. By analyzing the results produced by the simulation model for the permanent magnet machine, the guidelines for efficient damper winding parameters for DOL PMSGs are presented. The simulation model is used to simulate grid connections and load transients. The damper winding parameters are calculated by the finite element method (FEM) and determined from experimental measurements. Three-dimensional finite element analysis (3D FEA) is carried out. The results from the simulation model and 3D FEA are compared with practical measurements from two prototype axial flux permanent magnet generators provided with damper windings. The dimensioning of the damper winding parameters is case specific. The damper winding should be dimensioned based on the moment of inertia of the generating set. It is shown that the damper winding has optimal values to reach synchronous operation in the shortest period of time after transient operation. With optimal dimensioning, interferenceon the grid is minimized.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

BACKGROUND: Mitogen activated protein kinases (MAPK) play an essential role in integrating extra-cellular signals and intra-cellular cues to allow cells to grow, adapt to stresses, or undergo apoptosis. Budding yeast serves as a powerful system to understand the fundamental regulatory mechanisms that allow these pathways to combine multiple signals and deliver an appropriate response. To fully comprehend the variability and dynamics of these signaling cascades, dynamic and quantitative single cell measurements are required. Microscopy is an ideal technique to obtain these data; however, novel assays have to be developed to measure the activity of these cascades. RESULTS: We have generated fluorescent biosensors that allow the real-time measurement of kinase activity at the single cell level. Here, synthetic MAPK substrates were engineered to undergo nuclear-to-cytoplasmic relocation upon phosphorylation of a nuclear localization sequence. Combination of fluorescence microscopy and automated image analysis allows the quantification of the dynamics of kinase activity in hundreds of single cells. A large heterogeneity in the dynamics of MAPK activity between individual cells was measured. The variability in the mating pathway can be accounted for by differences in cell cycle stage, while, in the cell wall integrity pathway, the response to cell wall stress is independent of cell cycle stage. CONCLUSIONS: These synthetic kinase activity relocation sensors allow the quantification of kinase activity in live single cells. The modularity of the architecture of these reporters will allow their application in many other signaling cascades. These measurements will allow to uncover new dynamic behaviour that previously could not be observed in population level measurements.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mountain regions worldwide are particularly sensitive to on-going climate change. Specifically in the Alps in Switzerland, the temperature has increased twice as fast than in the rest of the Northern hemisphere. Water temperature closely follows the annual air temperature cycle, severely impacting streams and freshwater ecosystems. In the last 20 years, brown trout (Salmo trutta L) catch has declined by approximately 40-50% in many rivers in Switzerland. Increasing water temperature has been suggested as one of the most likely cause of this decline. Temperature has a direct effect on trout population dynamics through developmental and disease control but can also indirectly impact dynamics via food-web interactions such as resource availability. We developed a spatially explicit modelling framework that allows spatial and temporal projections of trout biomass using the Aare river catchment as a model system, in order to assess the spatial and seasonal patterns of trout biomass variation. Given that biomass has a seasonal variation depending on trout life history stage, we developed seasonal biomass variation models for three periods of the year (Autumn-Winter, Spring and Summer). Because stream water temperature is a critical parameter for brown trout development, we first calibrated a model to predict water temperature as a function of air temperature to be able to further apply climate change scenarios. We then built a model of trout biomass variation by linking water temperature to trout biomass measurements collected by electro-fishing in 21 stations from 2009 to 2011. The different modelling components of our framework had overall a good predictive ability and we could show a seasonal effect of water temperature affecting trout biomass variation. Our statistical framework uses a minimum set of input variables that make it easily transferable to other study areas or fish species but could be improved by including effects of the biotic environment and the evolution of demographical parameters over time. However, our framework still remains informative to spatially highlight where potential changes of water temperature could affect trout biomass. (C) 2015 Elsevier B.V. All rights reserved.-

Relevância:

30.00% 30.00%

Publicador:

Resumo:

COD discharges out of processes have increased in line with elevating brightness demands for mechanical pulp and papers. The share of lignin-like substances in COD discharges is on average 75%. In this thesis, a plant dynamic model was created and validated as a means to predict COD loading and discharges out of a mill. The assays were carried out in one paper mill integrate producing mechanical printing papers. The objective in the modeling of plant dynamics was to predict day averages of COD load and discharges out of mills. This means that online data, like 1) the level of large storage towers of pulp and white water 2) pulp dosages, 3) production rates and 4) internal white water flows and discharges were used to create transients into the balances of solids and white water, referred to as “plant dynamics”. A conversion coefficient was verified between TOC and COD. The conversion coefficient was used for predicting the flows from TOC to COD to the waste water treatment plant. The COD load was modeled with similar uncertainty as in reference TOC sampling. The water balance of waste water treatment was validated by the reference concentration of COD. The difference of COD predictions against references was within the same deviation of TOC-predictions. The modeled yield losses and retention values of TOC in pulping and bleaching processes and the modeled fixing of colloidal TOC to solids between the pulping plant and the aeration basin in the waste water treatment plant were similar to references presented in literature. The valid water balances of the waste water treatment plant and the reduction model of lignin-like substances produced a valid prediction of COD discharges out of the mill. A 30% increase in the release of lignin-like substances in the form of production problems was observed in pulping and bleaching processes. The same increase was observed in COD discharges out of waste water treatment. In the prediction of annual COD discharge, it was noticed that the reduction of lignin has a wide deviation from year to year and from one mill to another. This made it difficult to compare the parameters of COD discharges validated in plant dynamic simulation with another mill producing mechanical printing papers. However, a trend of moving from unbleached towards high-brightness TMP in COD discharges was valid.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

With scientific consensus supporting a 4oC increase in global mean temperature over the next century and increased frequency of severe weather events, adaptation to climate change is critical. Given the dynamic and complex nature of climate change, a transdisciplinary approach toward adaptation can create an environment that supports knowledge sharing and innovation, improving existing strategies and creating new ones. The Ontario wine industry provides a case study to illustrate the benefits of this approach. We describe the formation and work of the Ontario Grape and Wine Research Network within this context, and present some preliminary results to highlight the opportunities for innovation that will drive the successful adaption of the Ontario grape and wine industry.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Population-based metaheuristics, such as particle swarm optimization (PSO), have been employed to solve many real-world optimization problems. Although it is of- ten sufficient to find a single solution to these problems, there does exist those cases where identifying multiple, diverse solutions can be beneficial or even required. Some of these problems are further complicated by a change in their objective function over time. This type of optimization is referred to as dynamic, multi-modal optimization. Algorithms which exploit multiple optima in a search space are identified as niching algorithms. Although numerous dynamic, niching algorithms have been developed, their performance is often measured solely on their ability to find a single, global optimum. Furthermore, the comparisons often use synthetic benchmarks whose landscape characteristics are generally limited and unknown. This thesis provides a landscape analysis of the dynamic benchmark functions commonly developed for multi-modal optimization. The benchmark analysis results reveal that the mechanisms responsible for dynamism in the current dynamic bench- marks do not significantly affect landscape features, thus suggesting a lack of representation for problems whose landscape features vary over time. This analysis is used in a comparison of current niching algorithms to identify the effects that specific landscape features have on niching performance. Two performance metrics are proposed to measure both the scalability and accuracy of the niching algorithms. The algorithm comparison results demonstrate the algorithms best suited for a variety of dynamic environments. This comparison also examines each of the algorithms in terms of their niching behaviours and analyzing the range and trade-off between scalability and accuracy when tuning the algorithms respective parameters. These results contribute to the understanding of current niching techniques as well as the problem features that ultimately dictate their success.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, we characterize the asymmetries of the smile through multiple leverage effects in a stochastic dynamic asset pricing framework. The dependence between price movements and future volatility is introduced through a set of latent state variables. These latent variables can capture not only the volatility risk and the interest rate risk which potentially affect option prices, but also any kind of correlation risk and jump risk. The standard financial leverage effect is produced by a cross-correlation effect between the state variables which enter into the stochastic volatility process of the stock price and the stock price process itself. However, we provide a more general framework where asymmetric implied volatility curves result from any source of instantaneous correlation between the state variables and either the return on the stock or the stochastic discount factor. In order to draw the shapes of the implied volatility curves generated by a model with latent variables, we specify an equilibrium-based stochastic discount factor with time non-separable preferences. When we calibrate this model to empirically reasonable values of the parameters, we are able to reproduce the various types of implied volatility curves inferred from option market data.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper studies a dynamic-optimizing model of a semi-small open economy with sticky nominal prices and wages. the model exhibits exchange rate overshooting in response to money supply shocks. the predicted variability of nominal and real exchange rates is roughly consistent with that of G7 effective exchange rates during the post-Bretton Woods era.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est bien connu des professionnels de la vision que l’ajustement des verres progressifs sur un patient presbyte peut induire de l’inconfort et des difficultés posturales (Timmis, Johnson, Elliott, & Buckley, 2010). Ces plaintes sont directement associées à l’information visuelle perçue à travers les verres progressifs. Le principal objectif de cette thèse est d’identifier quels sont les paramètres d’un stimulus visuel (p.ex. fréquence temporelle ou vélocité) à l’origine de la perturbation posturale et de l’inconfort. Les distorsions dynamiques perçues à travers des verres progressifs s’apparentent aux mouvements d’un bateau qui roule de droite à gauche ou qui tangue d’avant en arrière. Ce type de stimulation visuelle a été reproduit dans une voute d’immersion en réalité virtuelle avec un sol à texture de damier noir et blanc qui oscillait périodiquement de droite à gauche et d’avant en arrière à différentes fréquences et amplitudes. Les études qui portent sur ce sujet montrent que la réponse posturale induite visuellement augmente avec la vélocité de stimulation et diminue lorsque la fréquence augmente. Cette information peut paraitre contradictoire, car ces deux variables sont liées entre elles par l’amplitude et covarient dans le même sens. Le premier objectif de cette thèse était de déterminer les causes possibles de cette contradiction. En faisant varier la fréquence temporelle de stimulation visuelle, on retrouve deux domaines de réponse posturale. Le premier domaine correspond aux fréquences inférieures à 0,12 Hz. Dans ce domaine, la réponse posturale est visuodépendante et augmente avec la vélocité du stimulus. Le second domaine postural correspond aux fréquences supérieures à 0,25 Hz. Dans ce domaine, la réponse posturale sature et diminue avec l’augmentation de la fréquence. Cette saturation de la réponse posturale semble causée par des limitations biomécaniques et fréquentielles du système postural. D’autres études ont envisagé d’étudier l’inconfort subjectif induit par des stimuli visuels périodiques. Au sein de la communauté scientifique, deux théories principales se confrontent. La théorie sensorielle repose sur les conflits sensoriels induit par le stimulus visuel tandis que la théorie posturale suggère que l’inconfort est la conséquence de l’instabilité posturale. Nos résultats révèlent que l’inconfort subjectif induit par une stimulation visuelle dynamique dépend de la vélocité du stimulus plutôt que de sa fréquence. L’inconfort peut être prédit par l’instabilité naturelle des individus en l’absence de stimulus visuel comme le suggère la théorie posturale. Par contre, l’instabilité posturale induite par un stimulus visuel dynamique ne semble pas être une condition nécessaire et suffisante pour entrainer de l’inconfort. Ni la théorie sensorielle ni la théorie posturale ne permettent à elles seules d’expliquer tous les mécanismes à l’origine de l’inconfort subjectif. Ces deux théories sont complémentaires, l’une expliquant que l’instabilité intrinsèque est un élément prédictif de l’inconfort et l’autre que l’inconfort induit par un stimulus visuel dynamique résulte d’un conflit entre les entrées sensorielles et les représentations acquises par l’individu.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cette thèse nous démontrons que la paysannerie colombienne s'est constituée telle quelle, à partir de: 1) la construction et de la mise en œuvre des pratiques économiques et agro-productives compatibles avec l'environnement; 2) des habitus et des coutumes qu’elle a inventé et a récré à partir de l'interaction quotidienne avec sa famille et sa communauté et 3) de la lutte politique qu'elle a entrepris tant pour exiger à l'État sa reconnaissance sociale, territoriale et juridique, comme pour arrêter l'avance territoriale des entrepreneurs agraires. Par conséquent, la paysannerie ne peut pas être conçue comme une catégorie conceptuelle construite, a priori , définie dehors de l’histoire, comme un groupe social homogène, et avec caractéristiques égales à niveau global. La paysannerie colombienne, dans sa lutte politique pour la défense du territoire, a affronté à un entrepreneur agraire qui, orienté par une logique unidirectionnelle, élitiste et exclusive de « progrès » et du « développement », a nié à la paysannerie ses droits territoriaux, économiques, sociaux et culturels. De plus, en faisant un usage patrimonial de l’État, il l`a poursuivi, stigmatisé et expulsé de la communauté politique. La paysannerie a affronté un État et un entrepreneur agraire que, depuis l'État d’Exception et de la déclaration de la paysannerie comme “obstacle du développement” et “ennemi de la nation”, ils ont revendiqué le droit, inhérent des souverainetés classiques, de définir qui peut vivre et qui doit mourir. La dynamique historique et successive d'expropriation territoriale de la paysannerie et la mise en œuvre de ce qui est dénommé, dans cette thèse, nécro-politique agraire, ont été cachées dans le concept de “colonisation spontanée” et dans un discours qui présente au paysan comme « héros», «entrepreneur» et «constructeur de patrie», quand il a été obligé par raisons d'ordre économique, juridique et militaire, à entreprendre de nouveaux processus de colonisation forcée. La réponse de la paysannerie à cette dynamique a inclus des résistances de caractère intrasystémique et contre-systémique. Elle n'a jamais décliné à sa lutte par le droit à la terre – qui fait partie de son territoire et considère comme inaliénable - et à son droit d'avoir des droits. En étudiant le cas de la paysannerie de l'Amazonie colombienne, dans cette recherche, nous démontrons que la paysannerie a eu une grande capacité d'affronter les adversités économiques et politiques, et de s’inventer et de se refaire eux-mêmes dans nouveaux espaces. La paysannerie est un sujet social qui a refusé de façon entêtée et permanente, avec ses attitudes et ses actions, à obéir et à être domestiquée par les paramètres de la modernité. Elle s'est refusée à modifier ses dispositions internes et ses manières de voir le monde, son habitus et s’est reconstituée chaque jour dans une modernité qui menace sa subjectivité et son autonomie. La paysannerie formule des projets agro-écologiques, socioéconomiques et d'insertion politique dans un modèle du développement agraire qui insiste de le nier comme sujet avec des droits.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La méthylation de l'ADN est une marque épigénétique importante chez les mammifères. Malgré le fait que la méthylation de la cytosine en 5' (5mC) soit reconnue comme une modification épigénétique stable, il devient de plus en plus reconnu qu'elle soit un processus plus dynamique impliquant des voies de méthylation et de déméthylation actives. La dynamique de la méthylation de l'ADN est désormais bien caractérisée dans le développement et dans le fonctionnement cellulaire des mammifères. Très peu est cependant connu concernant les implications régulatrices dans les réponses immunitaires. Pour se faire, nous avons effectué des analyses du niveau de transcription des gènes ainsi que du profilage épigénétique de cellules dendritiques (DCs) humaines. Ceux-ci ont été faits avant et après infection par le pathogène Mycobacterium tuberculosis (MTB). Nos résultats fournissent le premier portrait génomique du remodelage épigénétique survenant dans les DCs en réponse à une infection bactérienne. Nous avons constaté que les changements dans la méthylation de l'ADN sont omniprésents, identifiant 3,926 régions différentiellement méthylées lors des infections par MTB (MTB-RDMs). Les MTB-RDMs montrent un chevauchement frappant avec les régions génomiques marquées par les histones associées avec des régions amplificatrices. De plus, nos analyses ont révélées que les MTB-RDMs sont activement liées par des facteurs de transcription associés à l'immunité avant même d'être infecté par MTB, suggérant ces domaines comme étant des éléments d'activation dans un état de dormance. Nos données suggèrent que les changements actifs dans la méthylation jouent un rôle essentiel pour contrôler la réponse cellulaire des DCs à l'infection bactérienne.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.