961 resultados para Out-Steady-State Analysis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les hétérojonctions formées de deux matériaux, un donneur et un accepteur (D/A), sont la base de la majorité des mélanges photovoltaïques organiques. Les mécanismes de séparation des charges dans ces systèmes représentent aujourd'hui l'un des sujets les plus chauds et les plus débattus dans ce domaine. Nous entrons au coeur de ce débat en choisissant un système D/A à base de phtalocyanine de cuivre (CuPc) et de fullerène (C60). Pour sonder les états excités de nos molécules et obtenir de l'information sur les phénomènes à l'interface D/A, nous réalisons une expérience pompe-sonde, appelée absorption photoinduite (PIA). Nous y mesurons le changement fractionnaire de transmission au travers de l'échantillon. Les mesures de PIA sont réalisées à l'état de quasi équilibre, à T=10K. Nous observons une modulation prononcée dans la région du photoblanchiment de l'état fondamental qui nous indique que la pompe induit un décalage du spectre d'absorption de l'état fondamental. Ce décalage peut être expliqué par deux processus : soit l'échantillon est chauffé par la pompe (effet thermique) ou bien des charges sont créées à l'interface entre les deux matériaux (effet Stark). La dépendance en température du spectre d'absorption entre 10K et 290K montre une signature thermique pour un changement de température de 80K. Grâce au ratio des raies Raman anti-Stokes et Stokes, nous démontrons que la pompe chauffe l'échantillon de 34 K, température insuffisante pour attribuer notre signal à un effet thermique. Nous évaporons ensuite la bicouche CuPc/C60 sur de l'ITO et du saphir, substrats qui possèdent des conductivités thermiques différentes et nous observons le même signal de PIA, excluant par le fait même l'hypothèse de l'effet thermique. Puisque notre étude est comparable à la spectroscopie à effet Stark, nous procédons à une analyse similaire en comparant notre signal de PIA au spectre de la transmittance et à ses dérivés première et seconde. Nous observons alors que notre signal reproduit presque parfaitement la dérivée seconde de la transmittance. Ces résultats sont conformes à une signature optique d'effet Stark due à la création de charges à l'interface D/A.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les canaux calciques de type L CaV1.2 sont principalement responsables de l’entrée des ions calcium pendant la phase plateau du potentiel d’action des cardiomyocytes ventriculaires. Cet influx calcique est requis pour initier la contraction du muscle cardiaque. Le canal CaV1.2 est un complexe oligomérique qui est composé de la sous-unité principale CaVα1 et des sous-unités auxiliaires CaVβ et CaVα2δ1. CaVβ joue un rôle déterminant dans l’adressage membranaire de la sous-unité CaVα1. CaVα2δ1 stabilise l’état ouvert du canal mais le mécanisme moléculaire responsable de cette modulation n’a pas été encore identifié. Nous avons récemment montré que cette modulation requiert une expression membranaire significative de CaVα2δ1 (Bourdin et al. 2015). CaVα2δ1 est une glycoprotéine qui possède 16 sites potentiels de glycosylation de type N. Nous avons donc évalué le rôle de la glycosylation de type-N dans l’adressage membranaire et la stabilité de CaVα2δ1. Nous avons d’abord confirmé que la protéine CaVα2δ1 recombinante, telle la protéine endogène, est significativement glycosylée puisque le traitement à la PNGase F se traduit par une diminution de 50 kDa de sa masse moléculaire, ce qui est compatible avec la présence de 16 sites Asn. Il s’est avéré par ailleurs que la mutation simultanée de 6/16 sites (6xNQ) est suffisante pour 1) réduire significativement la densité de surface de! CaVα2δ1 telle que mesurée par cytométrie en flux et par imagerie confocale 2) accélérer les cinétiques de dégradation telle qu’estimée après arrêt de la synthèse protéique et 3) diminuer la modulation fonctionnelle des courants générés par CaV1.2 telle qu’évaluée par la méthode du « patch-clamp ». Les effets les plus importants ont toutefois été obtenus avec les mutants N663Q, et les doubles mutants N348Q/N468Q, N348Q/N812Q, N468Q/N812Q. Ensemble, ces résultats montrent que Asn663 et à un moindre degré Asn348, Asn468 et Asn812 contribuent à la biogenèse et la stabilité de CaVα2δ1 et confirment que la glycosylation de type N de CaVα2δ1 est nécessaire à la fonction du canal calcique cardiaque de type L.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of this thesis is to study the time dependent behaviour of some complex queueing and inventory models. It contains a detailed analysis of the basic stochastic processes underlying these models. In the theory of queues, analysis of time dependent behaviour is an area.very little developed compared to steady state theory. Tine dependence seems certainly worth studying from an application point of view but unfortunately, the analytic difficulties are considerable. Glosod form solutions are complicated even for such simple models as M/M /1. Outside M/>M/1, time dependent solutions have been found only in special cases and involve most often double transforms which provide very little insight into the behaviour of the queueing systems themselves. In inventory theory also There is not much results available giving the time dependent solution of the system size probabilities. Our emphasis is on explicit results free from all types of transforms and the method used may be of special interest to a wide variety of problems having regenerative structure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Electrical gas discharges have been the subject of numerous investigations from the last century due to their growing interest in technological and fundamental applications. Absorption of electromagnetic radiation by a gas discharge result into a change in electrical impedance due to a significant perturbations in the steady state population of excited levels and the degree of ionization. This change in impedance produced by resonant absorption of radiation is known as optogalvanic COG) effect. where as that is produced by injecting electrons in to the discharge by photoelectric emission is usually known as photoemission optogalvanic (FOG) effect. With the development of lasers and sophisticated electronic equipment. these effects have established their importance in analytical and spectroscopic measurements. The present thesis deals with the work carried out by the author in the field optogalvanic effect during the past few years at the Department of Physics in Cochin University of Science| and "Fechnology. The results and the observation are summarized in nine chapters and the references to the literature is made at the end of each chapter

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The ongoing depletion of the coastal aquifer in the Gaza strip due to groundwater overexploitation has led to the process of seawater intrusion, which is continually becoming a serious problem in Gaza, as the seawater has further invaded into many sections along the coastal shoreline. As a first step to get a hold on the problem, the artificial neural network (ANN)-model has been applied as a new approach and an attractive tool to study and predict groundwater levels without applying physically based hydrologic parameters, and also for the purpose to improve the understanding of complex groundwater systems and which is able to show the effects of hydrologic, meteorological and anthropogenic impacts on the groundwater conditions. Prediction of the future behaviour of the seawater intrusion process in the Gaza aquifer is thus of crucial importance to safeguard the already scarce groundwater resources in the region. In this study the coupled three-dimensional groundwater flow and density-dependent solute transport model SEAWAT, as implemented in Visual MODFLOW, is applied to the Gaza coastal aquifer system to simulate the location and the dynamics of the saltwater–freshwater interface in the aquifer in the time period 2000-2010. A very good agreement between simulated and observed TDS salinities with a correlation coefficient of 0.902 and 0.883 for both steady-state and transient calibration is obtained. After successful calibration of the solute transport model, simulation of future management scenarios for the Gaza aquifer have been carried out, in order to get a more comprehensive view of the effects of the artificial recharge planned in the Gaza strip for some time on forestall, or even to remedy, the presently existing adverse aquifer conditions, namely, low groundwater heads and high salinity by the end of the target simulation period, year 2040. To that avail, numerous management scenarios schemes are examined to maintain the ground water system and to control the salinity distributions within the target period 2011-2040. In the first, pessimistic scenario, it is assumed that pumping from the aquifer continues to increase in the near future to meet the rising water demand, and that there is not further recharge to the aquifer than what is provided by natural precipitation. The second, optimistic scenario assumes that treated surficial wastewater can be used as a source of additional artificial recharge to the aquifer which, in principle, should not only lead to an increased sustainable yield of the latter, but could, in the best of all cases, revert even some of the adverse present-day conditions in the aquifer, i.e., seawater intrusion. This scenario has been done with three different cases which differ by the locations and the extensions of the injection-fields for the treated wastewater. The results obtained with the first (do-nothing) scenario indicate that there will be ongoing negative impacts on the aquifer, such as a higher propensity for strong seawater intrusion into the Gaza aquifer. This scenario illustrates that, compared with 2010 situation of the baseline model, at the end of simulation period, year 2040, the amount of saltwater intrusion into the coastal aquifer will be increased by about 35 %, whereas the salinity will be increased by 34 %. In contrast, all three cases of the second (artificial recharge) scenario group can partly revert the present seawater intrusion. From the water budget point of view, compared with the first (do nothing) scenario, for year 2040, the water added to the aquifer by artificial recharge will reduces the amount of water entering the aquifer by seawater intrusion by 81, 77and 72 %, for the three recharge cases, respectively. Meanwhile, the salinity in the Gaza aquifer will be decreased by 15, 32 and 26% for the three cases, respectively.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper a precorrected FFT-Fast Multipole Tree (pFFT-FMT) method for solving the potential flow around arbitrary three dimensional bodies is presented. The method takes advantage of the efficiency of the pFFT and FMT algorithms to facilitate more demanding computations such as automatic wake generation and hands-off steady and unsteady aerodynamic simulations. The velocity potential on the body surfaces and in the domain is determined using a pFFT Boundary Element Method (BEM) approach based on the Green’s Theorem Boundary Integral Equation. The vorticity trailing all lifting surfaces in the domain is represented using a Fast Multipole Tree, time advected, vortex participle method. Some simple steady state flow solutions are performed to demonstrate the basic capabilities of the solver. Although this paper focuses primarily on steady state solutions, it should be noted that this approach is designed to be a robust and efficient unsteady potential flow simulation tool, useful for rapid computational prototyping.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Existen grupos quirúrgicos específicos donde es mandatorio el uso de relajantes neuromusculares no despolarizantes, como es el caso de los pacientes llevados a procedimiento de neurocirugía; debido a sus características particulares el rocuronio es una buena alternativa para este tipo de procedimientos, ya sea en bolos o en infusión. Sin embargo la relajación residual y los efectos adversos de los medicamentos para revertir la relajación neuromuscular deben tenerse en cuenta en este grupo de pacientes en particular. El presente trabajo busca comparar la reversión de la relajación de infusiones de rocuronio, con Neostigmina mas Atropina vs la reversión con Sugammadex en pacientes llevados a manejo quirúrgico de lesiones supratentoriales por parte del servicio de neurocirugía de la Fundación Cardioinfantil, evaluando complicaciones durante la administración de los medicamentos y 24 horas posoperatorias, así como los tiempos para extubación y salida de salas de cirugía. Estudio con características de experimento prospectivo, aleatorizado, ciego, controlado. En este documento se realiza un reporte preliminar descriptivo de 14 pacientes reclutados hasta la actualidad.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introducción: La gran mayoría de las medidas de normalidad utilizadas para la interpretación de resonancia cardiaca son extrapoladas de las medidas de ecocardiografía. Los limitados registros de medidas de normalidad se encuentran ajustados en poblaciones extranjeras, no hay registros en latinoamericanos. Objetivo: Determinar las dimensiones cardiacas utilizando resonancia magnética en una población de personas sin antecedente médicos con repercusión cardiaca para lograr una muestra de valores que permitan ajustar las medidas de normalidad utilizadas por nuestro servicio. Materiales y métodos: se analizaron 45 sujetos sanos con edad comprendida entre los 21 y 45 años, las adquisiciones se realizaron utilizando un equipo de RM de 1,5 teslas, el análisis de las imágenes se realizó mediante el programa Cardiac Volume Vx. Se evaluaron múltiples parámetros morfofuncionales a través de análisis estadístico por medio del sistema SPSS versión 23. Resultados: Mediciones obtenidas de ventrículo izquierdo principales fueron volumen diastólico en mujeres de 62 ml +/- 7.1 y en hombres de 65 ml +/- 11.2 y fracción de eyección de 60 % +/- 5 en mujeres y de 62 % +/- 9 en hombres. En ventrículo derecho el volumen diastólico final se encontró 81.8 ml +/- 14.6 en mujeres y 100 ml +/- 24.8 en hombres y fracción de eyección de 53 % +/- 17 en mujeres y de 45 % +/- 12 en hombres. Volumen de fin de diástole de 50 +/- 12.7 ml en mujeres y de 49 ml +/- 19 ml en hombres y fracción de eyección de aurícula izquierda de 55 % +/- 0.08 en mujeres y de 50 % +/- 0.07 en hombres. Volumen de fin de diástole de 44.1 ml +/- 18.5 en mujeres y de 49.2 ml +/- 22.9 en hombres y fracción de eyección de aurícula derecha de 50 % +/- 11 en mujeres y de 45 % +/- 8 en hombres. Se obtuvieron otras medidas lineales y volumétricas adicionales de cavidades cardiacas y de grandes vasos supracardiacos. Conclusiones: se describen los valores de referencia de los parámetros morfofuncionales de las cavidades cardiacas y de vasos supracardiacos. El sexo fue tenido en cuenta como covariable relacionada con la modificación de los parámetros evaluados. Se sugieren variaciones en las medidas de cavidades cardiacas para la población estudiada relacionada con aclimatación crónica a la altitud de la ciudad de Bogotá.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Surface coatings are very common on mineral grains in soils but most laboratory dissolution experiments are carried out on pristine, uncoated mineral grains. An experiment designed to unambiguously isolate the effect of surface coatings on mineral dissolution from any influence of solution saturation state is reported. Two aliquots of 53 to 63 mum anorthite feldspar powder were used. One was dissolved in pH 2.6 HCl, the other in pH 2.6 FeCl3 solution, both for similar to6000 h in flow-through reactors. An amorphous Fe-rich, Al-, Ca- and Si-free orange precipitate coated the anorthite dissolved in the FeCl3 solution. BET surface area of the anorthite increased from 0.16 to 1.65 m(2) g(-1) in the HCl experiment and to 3.89 m(2) g(-1) in the FeCl3 experiment. The increase in surface area in the HCl experiment was due to the formation of etch pits on the anorthite grain surface whilst the additional increase in the FeCl3 experiment was due to the micro- and meso-porous nature of the orange precipitate. This precipitate did not inhibit or slow the dissolution of the anorthite. Steady state dissolution rates for the anorthite dissolved in the HCl and FeCl3 were similar to2.5 and 3.2 X 10(-10) mol(feldspar) m(-2) s(-1) respectively. These rates are not significantly different after the cumulative uncertainty of 17% in their value due to uncertainty in the inputs parameters used in their calculation is taken into account. Results from this experiment support previous theoretical and inference-based conclusions that porous coatings should not inhibit mineral dissolution. Copyright (C) 2003 Elsevier Ltd.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper reports an uncertainty analysis of critical loads for acid deposition for a site in southern England, using the Steady State Mass Balance Model. The uncertainty bounds, distribution type and correlation structure for each of the 18 input parameters was considered explicitly, and overall uncertainty estimated by Monte Carlo methods. Estimates of deposition uncertainty were made from measured data and an atmospheric dispersion model, and hence the uncertainty in exceedance could also be calculated. The uncertainties of the calculated critical loads were generally much lower than those of the input parameters due to a "compensation of errors" mechanism - coefficients of variation ranged from 13% for CLmaxN to 37% for CL(A). With 1990 deposition, the probability that the critical load was exceeded was > 0.99; to reduce this probability to 0.50, a 63% reduction in deposition is required; to 0.05, an 82% reduction. With 1997 deposition, which was lower than that in 1990, exceedance probabilities declined and uncertainties in exceedance narrowed as deposition uncertainty had less effect. The parameters contributing most to the uncertainty in critical loads were weathering rates, base cation uptake rates, and choice of critical chemical value, indicating possible research priorities. However, the different critical load parameters were to some extent sensitive to different input parameters. The application of such probabilistic results to environmental regulation is discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Locality to other nodes on a peer-to-peer overlay network can be established by means of a set of landmarks shared among the participating nodes. Each node independently collects a set of latency measures to landmark nodes, which are used as a multi-dimensional feature vector. Each peer node uses the feature vector to generate a unique scalar index which is correlated to its topological locality. A popular dimensionality reduction technique is the space filling Hilbert’s curve, as it possesses good locality preserving properties. However, there exists little comparison between Hilbert’s curve and other techniques for dimensionality reduction. This work carries out a quantitative analysis of their properties. Linear and non-linear techniques for scaling the landmark vectors to a single dimension are investigated. Hilbert’s curve, Sammon’s mapping and Principal Component Analysis have been used to generate a 1d space with locality preserving properties. This work provides empirical evidence to support the use of Hilbert’s curve in the context of locality preservation when generating peer identifiers by means of landmark vector analysis. A comparative analysis is carried out with an artificial 2d network model and with a realistic network topology model with a typical power-law distribution of node connectivity in the Internet. Nearest neighbour analysis confirms Hilbert’s curve to be very effective in both artificial and realistic network topologies. Nevertheless, the results in the realistic network model show that there is scope for improvements and better techniques to preserve locality information are required.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: Serial Analysis of Gene Expression (SAGE) is a powerful tool for genome-wide transcription studies. Unlike microarrays, it has the ability to detect novel forms of RNA such as alternatively spliced and antisense transcripts, without the need for prior knowledge of their existence. One limitation of using SAGE on an organism with a complex genome and lacking detailed sequence information, such as the hexaploid bread wheat Triticum aestivum, is accurate annotation of the tags generated. Without accurate annotation it is impossible to fully understand the dynamic processes involved in such complex polyploid organisms. Hence we have developed and utilised novel procedures to characterise, in detail, SAGE tags generated from the whole grain transcriptome of hexaploid wheat. RESULTS: Examination of 71,930 Long SAGE tags generated from six libraries derived from two wheat genotypes grown under two different conditions suggested that SAGE is a reliable and reproducible technique for use in studying the hexaploid wheat transcriptome. However, our results also showed that in poorly annotated and/or poorly sequenced genomes, such as hexaploid wheat, considerably more information can be extracted from SAGE data by carrying out a systematic analysis of both perfect and "fuzzy" (partially matched) tags. This detailed analysis of the SAGE data shows first that while there is evidence of alternative polyadenylation this appears to occur exclusively within the 3' untranslated regions. Secondly, we found no strong evidence for widespread alternative splicing in the developing wheat grain transcriptome. However, analysis of our SAGE data shows that antisense transcripts are probably widespread within the transcriptome and appear to be derived from numerous locations within the genome. Examination of antisense transcripts showing sequence similarity to the Puroindoline a and Puroindoline b genes suggests that such antisense transcripts might have a role in the regulation of gene expression. CONCLUSION: Our results indicate that the detailed analysis of transcriptome data, such as SAGE tags, is essential to understand fully the factors that regulate gene expression and that such analysis of the wheat grain transcriptome reveals that antisense transcripts maybe widespread and hence probably play a significant role in the regulation of gene expression during grain development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Kinetic studies on the AR (aldose reductase) protein have shown that it does not behave as a classical enzyme in relation to ring aldose sugars. As with non-enzymatic glycation reactions, there is probably a free radical element involved derived from monosaccharide autoxidation. in the case of AR, there is free radical oxidation of NADPH by autoxidizing monosaccharides, which is enhanced in the presence of the NADPH-binding protein. Thus any assay for AR based on the oxidation of NADPH in the presence of autoxidizing monosaccharides is invalid, and tissue AR measurements based on this method are also invalid, and should be reassessed. AR exhibits broad specificity for both hydrophilic and hydrophobic aldehydes that suggests that the protein may be involved in detoxification. The last thing we would want to do is to inhibit it. ARIs (AR inhibitors) have a number of actions in the cell which are not specific, and which do not involve them binding to AR. These include peroxy-radical scavenging and effects of metal ion chelation. The AR/ARI story emphasizes the importance of correct experimental design in all biocatalytic experiments. Developing the use of Bayesian utility functions, we have used a systematic method to identify the optimum experimental designs for a number of kinetic model data sets. This has led to the identification of trends between kinetic model types, sets of design rules and the key conclusion that such designs should be based on some prior knowledge of K-m and/or the kinetic model. We suggest an optimal and iterative method for selecting features of the design such as the substrate range, number of measurements and choice of intermediate points. The final design collects data suitable for accurate modelling and analysis and minimizes the error in the parameters estimated, and is suitable for simple or complex steady-state models.