898 resultados para exponential Rosenbrock-type methods
Resumo:
OBJECTIF: L’apoB plasmatique prédit le diabète de type 2 chez l’humain. Une clairance ralentie des triglycérides (TG) favorise la lipotoxicité et la résistance à l’insuline (RI). Nous avons démontré ex vivo que les LDL, forme majeure d’apoB-lipoprotéines, altèrent le stockage des gras dans le tissu adipeux blanc (TAB) humain. Nous émettons l’hypothèse que le lien reliant l’apoB plasmatique à la RI et l’hyperinsulinémie est médié par un retard de clairance des gras diététiques. MÉTHODE/RÉSULTATS: Nous avons examiné la sécrétion d’insuline (SI), puis la RI lors d’un test de tolérance au glucose intraveineux suivi d’un clamp hyperinsulinémique-euglycémique chez des sujets obèses normoglycémiques (N=29, 45%hommes, indice de masse corporelle (IMC)≥27kg/m2, 45-74ans, post-ménopausés). La clairance des TG diététiques a été mesurée suivant l’ingestion d’un repas gras marqué au 13C. La fonction d’une biopsie de TAB (à jeun) a été mesurée comme la capacité à stocker un substrat de 3H-TG. L’apoB était de 1,03±0,05g/L et corrélait avec la RI, la 2ième phase de SI, un délai de clairance des TG diététiques et une réduction de la fonction du TAB. Un retard de clairance des TG diététiques était associé à la RI et la 2ième phase de SI. Une correction pour la clairance des TG diététiques ou la fonction du TAB a éliminé l’association entre l’apoB et la RI et la 2ième phase de SI. CONCLUSION: L’association entre l’apoB plasmatique et la RI et la SI chez les sujets obèses est médiée par une clairance ralentie des gras diététiques et une dysfonction du TAB.
Resumo:
Introduction. Le VIH-1 évolue en fonction de la réponse immunitaire spécifique de l’hôte. La pression sélective exercée par la réponse immunitaire VIH-spécifique de l’hôte entraine l’évolution des gènes viraux et à terme détermine l’évolution de la maladie. Cette évolution du virus à l’échelle d’un individu façonne également l’évolution du virus à l’échelle de la population et détermine le devenir de l’épidémie. Le VIH utilise les corécepteurs d’entrée CCR5 (virus R5) et CXCR4 (virus X4) afin d’infecter la cellule cible, et l’évolution du tropisme du virus de R5 vers X4, appelé switch du tropisme, est associé à la progression de la maladie. Les virus R5 sont rencontrés en début d’infection tandis que les virus X4 apparaissent en fin de maladie chez un certain de nombre de patients et sont considérés comme plus virulents. La pression sélective immunitaire exercée sur le gène de l’enveloppe (env) peut donc entrainer l’évolution du tropisme du VIH. La grossesse est un état immunitaire particulier considéré comme étant principalement caractérisé par un biais Th2 nécessaire à l’établissement de la tolérance materno-fétale. Le switch de tropisme de R5 vers X4 en grossesse n’a jamais été documenté, de même que l’évolution des déterminants du tropisme à l’échelle de la population. Hypothèses. Les changements immunitaires associés à l’initiation et la progression de la grossesse engendrent des changements dans la pression immunitaire exercée sur l’enveloppe et peuvent favoriser le switch du tropisme. L’évolution du tropisme du VIH-1 peut être observé à l’échelle de la population au même titre que l’évolution de l’enveloppe virale. Objectifs. Analyser l’évolution du tropisme et décrire la pression sélective sur l’enveloppe des femmes enceintes infectées par le VIH-1. Analyser l’évolution des déterminants du tropisme à l’échelle de la population. Méthodes. Nous avons dans un premier temps analysé l’évolution des déterminants du tropisme et déterminé le génotype et phénotype du VIH-1 chez 19 femmes enceintes issues de la cohorte du centre maternel et infantile sur le SIDA de l’hôpital Sainte-Justine (CMIS). Nous avons ensuite caractérisé et comparé la pression sélective exercée sur env, par une méthode bayésienne, chez 31 femmes enceinte et 29 femmes non-enceintes. Enfin, nous avons analysé et comparé des déterminants du tropisme entre des séquences d’enveloppe contemporaines et anciennes, issues des bases de données du NCBI. Résultats. Nos résultats montrent la présence de virus X4 chez la moitié de notre cohorte, et un switch de tropisme de R5 vers X4 chez 5/19 sujets. Les séquences des femmes enceintes présentaient des taux de substitutions plus élevées que celles des femmes non-enceintes. La pression sélective dans la région C2 était plus faible chez les femmes enceintes que chez les femmes non-enceintes, et différait dans 4 positions entre ces 2 groupes. Cette sélection diminuait au cours de la grossesse chez les patientes traitées. Enfin, une accumulation de mutations X4 a été observée dans les séquences R5 contemporaines par rapport aux séquences R5 anciennes. Conclusion. Les changements immunitaires associés à la grossesse semblent induire des modifications subtiles dans la pression sélective exercée sur env, suffisant à influencer l’évolution du tropisme de R5 vers X4. Un switch du tropisme à l’échelle de la population impliquerait une épidémie évoluant vers une plus grande virulence du virus. Nos résultats sont d’importance en ce qui concerne la prophylaxie antirétrovirale pour la santé de la mère et la prévention de la transmission mère-enfant du VIH-1. Ils sont aussi importants concernant l’avenir de la thérapie antirétrovirale dans le contexte d’une épidémie évoluant vers une plus grande virulence
Resumo:
L’amyloïdose, une maladie progressive et incurable, implique une vaste panoplie de pathologies et de pathogénèses, qui est expliquée par la grande variabilité biologique et structurale des protéines responsables de la formation des dépôts d’amyloïde. L’amyline (polypeptide amyloïde des îlots pancréatiques, IAPP) est une protéine très susceptible de subir des changements de conformation impliquant les feuillets bêta et conférant aussi des propriétés physicochimiques distinctes. Cette protéine prend alors une forme fibrillaire et se dépose dans les îlots de Langerhans chez les humains atteints de diabète de type 2 ou d’insulinome. Ces dépôts d’amyloïde pancréatique (AIAPP) ont été décrits chez certaines espèces animales telles que les félins domestiques, les grands félins, le raton laveur et les primates non humains. La formation de dépôts d’amyloïde contribue à la pathogénèse du diabète de type 2, mais les mécanismes qui induisent la conversion de l’amyline (IAPP) en amyloïde (AIAPP) ne sont pas complètement compris. Les hypothèses du projet sont que certaines variations présentes dans les séquences peptidiques de l’IAPP provenant de différentes espèces animales jouent un rôle critique pour la formation de fibrilles et que plusieurs composés chimiques aromatiques/phénoliques sont capables d’abroger la formation de dépôts d’amyloïde. Le projet de recherche consiste donc à caractériser la propension des différentes isoformes animales d’IAPP à former de l’amyloïde in vitro afin d’identifier les acides aminés jouant un rôle clé dans cette transformation structurale et ultimement d’inhiber la formation d’amyloïde pancréatique. Le projet se divise en deux volets principaux. Le premier consiste à identifier les différentes séquences peptidiques de l’IAPP retrouvées chez les espèces animales. L’objectif est d’identifier les acides aminés jouant un rôle clé dans la formation d’amyloïde. Le gène de l’IAPP a été séquencé chez plus d’une quarantaine d’espèces. Le potentiel d’agrégation des séquences obtenues a été simulé à l’aide d’outils bioinformatique. Une librairie de 23 peptides a été commandée afin de procéder à des analyses physicochimiques in vitro permettant d’évaluer le potentiel amyloïdogénique (test fluorimétrique à la thioflavine T, essai de liaison au rouge Congo, dichroïsme circulaire, microscopie électronique à transmission) et cytotoxique (sur une lignée cellulaire provenant d’insulinome : INS-1). Les analyses effectuées à partir de la librairie constituée de 23 peptides ont permis d’identifier trois séquences ne formant pas d’amyloïde et qui proviennent des espèces animales suivantes : le tamarin lion doré (Leontopithecus rosalia), le grand dauphin (Tursiops truncatus) et l’alpaga (Vicugna pacos). Un site potentiellement critique est le segment 8-20 présentant le motif NFLVH qui ne forme plus d’amyloïde lorsqu’il est remplacé par le motif DFLGR ou KFLIR. Les acides aminés 29P, 14K et 18R sont également impliqués dans l’inhibition de la transformation structurale en fibrille. La dernière partie du projet consiste à inhiber la formation de l’amyloïde en utilisant des composés chimiques commercialisés (hypoglycémiants, anti-inflammatoires non stéroïdiens) ou nouvellement synthétisés dans notre laboratoire (les aryles éthyles urées). Un criblage d’une soixantaine de composés chimiques a été conduit dans cette étude. Leur efficacité a été testée sur l’IAPP humaine, qui possède un fort potentiel amyloïdogénique. Les techniques utilisées sont les mêmes que celles exploitées précédemment. L’essai de liaison croisée photo-induite ("photo-induced cross-linking of unmodified proteins", PICUP) a été réalisé afin d’étudier les formes intermédiaires (monomères, oligomères). Un total de 11 composés chimiques a démontré un potentiel à inhiber l’agrégation des fibrilles. Pour la classe des hypoglycémiants, le glyburide, le répaglinide et la troglitazone ont montré l’activité thérapeutique la plus élevée pour retarder et réduire la formation de fibrilles. Les anti-inflammatoires antiamyloïdogènes actifs incluaient le diclofenac, le méloxicam, le phénylbutazone, le sulindac et le ténoxicam. Les aryles étyles urées les plus intéressantes étaient la EU-362 et la EU-418. Tous ces composés ont conféré une protection cellulaire contre l’activité cytotoxique des fibrilles. Les molécules actives possèdent des éléments structuraux communs tels des substituants donneurs d’électrons (alcool, amine, halogène) sur un noyau benzène. En conclusion, ce projet de recherche a permis de caractériser l’IAPP chez diverses espèces animales, dont plusieurs chez lesquelles elle n’avait pas encore été décrite, de déterminer les sites jouant un rôle clé dans sa transformation en amyloïde et, ultimement, de tester le potentiel thérapeutique de nouveaux agents antiamyloïdogènes dans le diabète de type 2. Nous espérons que ce projet ouvrira ainsi la porte à de nouvelles stratégies de traitement.
Resumo:
Les histones sont des protéines nucléaires hautement conservées chez les cellules des eucaryotes. Elles permettent d’organiser et de compacter l’ADN sous la forme de nucléosomes, ceux-ci representant les sous unités de base de la chromatine. Les histones peuvent être modifiées par de nombreuses modifications post-traductionnelles (PTMs) telles que l’acétylation, la méthylation et la phosphorylation. Ces modifications jouent un rôle essentiel dans la réplication de l’ADN, la transcription et l’assemblage de la chromatine. L’abondance de ces modifications peut varier de facon significative lors du developpement des maladies incluant plusieurs types de cancer. Par exemple, la perte totale de la triméthylation sur H4K20 ainsi que l’acétylation sur H4K16 sont des marqueurs tumoraux spécifiques a certains types de cancer chez l’humain. Par conséquent, l’étude de ces modifications et des événements determinant la dynamique des leurs changements d’abondance sont des atouts importants pour mieux comprendre les fonctions cellulaires et moléculaires lors du développement de la maladie. De manière générale, les modifications des histones sont étudiées par des approches biochimiques telles que les immuno-buvardage de type Western ou les méthodes d’immunoprécipitation de la chromatine (ChIP). Cependant, ces approches présentent plusieurs inconvénients telles que le manque de spécificité ou la disponibilité des anticorps, leur coût ou encore la difficulté de les produire et de les valider. Au cours des dernières décennies, la spectrométrie de masse (MS) s’est avérée être une méthode performante pour la caractérisation et la quantification des modifications d’histones. La MS offre de nombreux avantages par rapport aux techniques traditionnelles. Entre autre, elle permet d’effectuer des analyses reproductibles, spécifiques et facilite l’etude d’un large spectre de PTMs en une seule analyse. Dans cette thèse, nous présenterons le développement et l’application de nouveaux outils analytiques pour l’identification et à la quantification des PTMs modifiant les histones. Dans un premier temps, une méthode a été développée pour mesurer les changements d’acétylation spécifiques à certains sites des histones. Cette méthode combine l’analyse des histones intactes et les méthodes de séquençage peptidique afin de déterminer les changements d’acétylation suite à la réaction in vitro par l’histone acétyltransférase (HAT) de levure Rtt109 en présence de ses chaperonnes (Asf1 ou Vps75). Dans un second temps, nous avons développé une méthode d’analyse des peptides isomériques des histones. Cette méthode combine la LC-MS/MS à haute résolution et un nouvel outil informatique appelé Iso-PeptidAce qui permet de déconvoluer les spectres mixtes de peptides isomériques. Nous avons évalué Iso-PeptidAce avec un mélange de peptides synthétiques isomériques. Nous avons également validé les performances de cette approche avec des histones isolées de cellules humaines érythroleucémiques (K562) traitées avec des inhibiteurs d’histones désacétylases (HDACi) utilisés en clinique, et des histones de Saccharomyces cerevisiae liées au facteur d’assemblage de la chromatine (CAF-1) purifiées par chromatographie d’affinité. Enfin, en utilisant la méthode présentée précédemment, nous avons fait une analyse approfondie de la spécificité de plusieurs HATs et HDACs chez Schizosaccharomyces pombe. Nous avons donc déterminé les niveaux d’acétylation d’histones purifiées à partir de cellules contrôles ou de souches mutantes auxquelles il manque une HAT ou HDAC. Notre analyse nous a permis de valider plusieurs cibles connues des HATs et HDACs et d’en identifier de nouvelles. Nos données ont également permis de définir le rôle des différentes HATs et HDACs dans le maintien de l’équilibre d’acétylation des histones. Dans l’ensemble, nous anticipons que les méthodes décrites dans cette thèse permettront de résoudre certains défis rencontrés dans l’étude de la chromatine. De plus, ces données apportent de nouvelles connaissances pour l’élaboration d’études génétiques et biochimiques utilisant S. pombe.
Selective N-monomethylation of aniline using Zn1-x CoxFe2O4( x=0, 0.2, 0.5, 0.8 and 1.0)type systems
Resumo:
A series of ferrites having the general formula Zn1-xCoxFe2O4 (x=0, 0.2, 0.5, 0.8 and 1.0)were prepared by soft chemical route. The materials were characterized by adopting various physico-chemical methods. The reaction of aniline with methanol was studied in a fixed-bed reactor system as a potential source for the production of various methyl anilines. It was observed that systems possessing low ‘ x’ values are highly selective and active for N-monoalkylation of aniline leading to N-methylaniline. Reaction parameters were properly varied to optimize the reaction conditions for obtaining N-methylaniline selectively and in better yield. Among the systems Zn0.8Co0.2Fe2O4 is remarkable due to its very high activity and excellent stability. Under the optimized conditions N-methylaniline selectivity exceeded 98%. Even at a methanol to aniline molar ratio of 2, the yield of N-methylaniline was nearly 50%, whereas its yield exceeded 71% at the molar ratio of 5. ZnFe2O4, though executed better conversion than Zn0.8Co0.2Fe2O4 in the initial period of the run, deactivates quickly as the reaction proceeds. The Lewis acidity of the catalysts is mainly responsible for the good performance. Cation distribution in the spinel lattice influences their acido-basic properties and, hence, these factors have been considered as helpful parameters to evaluate the activity of the systems.
Resumo:
Preparation of simple and mixed ferrospinels of nickel, cobalt and copper and their sulphated analogues by the room temperature coprecipitation method yielded fine particles with high surface areas. Study of the vapour phase decomposition of cyclohexanol at 300 °C over all the ferrospinel systems showed very good conversions yielding cyclohexene by dehydration and/or cyclohexanone by dehydrogenation, as the major products. Sulphation very much enhanced the dehydration activity over all the samples. A good correlation was obtained between the dehydration activities of the simple ferrites and their weak plus medium strength acidities (usually of the Brφnsted type) determined independently by the n-butylamine adsorption and ammonia-TPD methods. Mixed ferrites containing copper showed a general decrease in acidities and a drastic decrease in dehydration activities. There was no general correlation between the basicity parameters obtained by electron donor studies and the ratio of dehydrogenation to dehydration activities. There was a leap in the dehydrogenation activities in the case of all the ferrospinel samples containing copper. Along with the basic properties, the redox properties of copper ion have been invoked to account for this added activity.
Resumo:
Cattle feed industry is a major segment of animal feed industry. This industry is gradually evolving into an organized sector and the feed manufactures are increasingly using modern and sophisticated methods that seek to incorporate best global practices. This industry has got high potential for growth in India, given the fact that the country is the world’s leading producer of milk and its production is expected to grow at a compounded annual growth rate of 4 per cent. Besides, the concept of branded cattle feed as a packaged commodity is fast gaining popularity in rural India. There can be a positive change in the demand for cattle feed because of factors like (i) shrinkage of open land for cattle grazing, urbanization and resultant shortage of conventionally used cattle feeds, and (ii) introduction of high yield cattle requires specialized feeds. Earlier research studies done by the present authors have revealed the significant growth prospects of the branded cattle feed industry, the feed consumption pattern and the relatively high share of branded feeds, feed consumption pattern based on product types (like, pellet and mash), composition of cattle feed market and the relatively large shares of Kerala Feeds Ltd. (KFL) and Kerala Solvent Extractions Ltd. (KSE) brands, the major factors influencing the purchasing decisions etc. As a continuation of the earlier studies, this study makes a closer look into the significance of product types in the buyer behavior, level of awareness about the brand and its implications on purchasing decisions, and the brandshifting behavior and its determinants
Resumo:
Study on variable stars is an important topic of modern astrophysics. After the invention of powerful telescopes and high resolving powered CCD’s, the variable star data is accumulating in the order of peta-bytes. The huge amount of data need lot of automated methods as well as human experts. This thesis is devoted to the data analysis on variable star’s astronomical time series data and hence belong to the inter-disciplinary topic, Astrostatistics. For an observer on earth, stars that have a change in apparent brightness over time are called variable stars. The variation in brightness may be regular (periodic), quasi periodic (semi-periodic) or irregular manner (aperiodic) and are caused by various reasons. In some cases, the variation is due to some internal thermo-nuclear processes, which are generally known as intrinsic vari- ables and in some other cases, it is due to some external processes, like eclipse or rotation, which are known as extrinsic variables. Intrinsic variables can be further grouped into pulsating variables, eruptive variables and flare stars. Extrinsic variables are grouped into eclipsing binary stars and chromospheri- cal stars. Pulsating variables can again classified into Cepheid, RR Lyrae, RV Tauri, Delta Scuti, Mira etc. The eruptive or cataclysmic variables are novae, supernovae, etc., which rarely occurs and are not periodic phenomena. Most of the other variations are periodic in nature. Variable stars can be observed through many ways such as photometry, spectrophotometry and spectroscopy. The sequence of photometric observa- xiv tions on variable stars produces time series data, which contains time, magni- tude and error. The plot between variable star’s apparent magnitude and time are known as light curve. If the time series data is folded on a period, the plot between apparent magnitude and phase is known as phased light curve. The unique shape of phased light curve is a characteristic of each type of variable star. One way to identify the type of variable star and to classify them is by visually looking at the phased light curve by an expert. For last several years, automated algorithms are used to classify a group of variable stars, with the help of computers. Research on variable stars can be divided into different stages like observa- tion, data reduction, data analysis, modeling and classification. The modeling on variable stars helps to determine the short-term and long-term behaviour and to construct theoretical models (for eg:- Wilson-Devinney model for eclips- ing binaries) and to derive stellar properties like mass, radius, luminosity, tem- perature, internal and external structure, chemical composition and evolution. The classification requires the determination of the basic parameters like pe- riod, amplitude and phase and also some other derived parameters. Out of these, period is the most important parameter since the wrong periods can lead to sparse light curves and misleading information. Time series analysis is a method of applying mathematical and statistical tests to data, to quantify the variation, understand the nature of time-varying phenomena, to gain physical understanding of the system and to predict future behavior of the system. Astronomical time series usually suffer from unevenly spaced time instants, varying error conditions and possibility of big gaps. This is due to daily varying daylight and the weather conditions for ground based observations and observations from space may suffer from the impact of cosmic ray particles. Many large scale astronomical surveys such as MACHO, OGLE, EROS, xv ROTSE, PLANET, Hipparcos, MISAO, NSVS, ASAS, Pan-STARRS, Ke- pler,ESA, Gaia, LSST, CRTS provide variable star’s time series data, even though their primary intention is not variable star observation. Center for Astrostatistics, Pennsylvania State University is established to help the astro- nomical community with the aid of statistical tools for harvesting and analysing archival data. Most of these surveys releases the data to the public for further analysis. There exist many period search algorithms through astronomical time se- ries analysis, which can be classified into parametric (assume some underlying distribution for data) and non-parametric (do not assume any statistical model like Gaussian etc.,) methods. Many of the parametric methods are based on variations of discrete Fourier transforms like Generalised Lomb-Scargle peri- odogram (GLSP) by Zechmeister(2009), Significant Spectrum (SigSpec) by Reegen(2007) etc. Non-parametric methods include Phase Dispersion Minimi- sation (PDM) by Stellingwerf(1978) and Cubic spline method by Akerlof(1994) etc. Even though most of the methods can be brought under automation, any of the method stated above could not fully recover the true periods. The wrong detection of period can be due to several reasons such as power leakage to other frequencies which is due to finite total interval, finite sampling interval and finite amount of data. Another problem is aliasing, which is due to the influence of regular sampling. Also spurious periods appear due to long gaps and power flow to harmonic frequencies is an inherent problem of Fourier methods. Hence obtaining the exact period of variable star from it’s time series data is still a difficult problem, in case of huge databases, when subjected to automation. As Matthew Templeton, AAVSO, states “Variable star data analysis is not always straightforward; large-scale, automated analysis design is non-trivial”. Derekas et al. 2007, Deb et.al. 2010 states “The processing of xvi huge amount of data in these databases is quite challenging, even when looking at seemingly small issues such as period determination and classification”. It will be beneficial for the variable star astronomical community, if basic parameters, such as period, amplitude and phase are obtained more accurately, when huge time series databases are subjected to automation. In the present thesis work, the theories of four popular period search methods are studied, the strength and weakness of these methods are evaluated by applying it on two survey databases and finally a modified form of cubic spline method is intro- duced to confirm the exact period of variable star. For the classification of new variable stars discovered and entering them in the “General Catalogue of Vari- able Stars” or other databases like “Variable Star Index“, the characteristics of the variability has to be quantified in term of variable star parameters.
Resumo:
We consider a first order implicit time stepping procedure (Euler scheme) for the non-stationary Stokes equations in smoothly bounded domains of R3. Using energy estimates we can prove optimal convergence properties in the Sobolev spaces Hm(G) (m = 0;1;2) uniformly in time, provided that the solution of the Stokes equations has a certain degree of regularity. For the solution of the resulting Stokes resolvent boundary value problems we use a representation in form of hydrodynamical volume and boundary layer potentials, where the unknown source densities of the latter can be determined from uniquely solvable boundary integral equations’ systems. For the numerical computation of the potentials and the solution of the boundary integral equations a boundary element method of collocation type is used. Some simulations of a model problem are carried out and illustrate the efficiency of the method.
Resumo:
Type and rate of fertilizers influence the level of soil organic carbon (Corg) and total nitrogen (Nt) markedly, but the effect on C and N partitioning into different pools is open to question. The objectives of the present work were to: (i) quantify the impact of fertilizer type and rate on labile, intermediate and passive C and N pools by using a combination of biological, chemical and mathematical methods; (ii) explain previously reported differences in the soil organic matter (SOM) levels between soils receiving farmyard manure with or without biodynamic preparations by using Corg time series and information on SOM partitioning; and (iii) quantify the long-term and short-term dynamics of SOM in density fractions and microbial biomass as affected by fertilizer type and rate and determine the incorporation of crop residues into labile SOM fractions. Samples were taken from a sandy Cambisol from the long-term fertilization trial in Darmstadt, Germany, founded in 1980. The nine treatments (four field replicates) were: straw incorporation plus application of mineral fertilizer (MSI) and application of rotted farmyard manure with (DYN) or without (FYM) addition of biodynamic preparations, each at high (140 – 150 kg N ha-1 year-1; MSIH, DYNH, FYMH), medium (100 kg N ha-1 year-1; MSIM, DYNM, FYMM) and low (50 – 60 kg N ha-1 year-1; MSIL, DYNL, FYML) rates. The main findings were: (i) The stocks of Corg (t ha-1) were affected by fertilizer type and rate and increased in the order MSIL (23.6), MSIM (23.7), MSIH (24.2) < FYML (25.3) < FYMM (28.1), FYMH (28.1). Stocks of Nt were affected in the same way (C/N ratio: 11). Storage of C and N in the modelled labile pools (turnover times: 462 and 153 days for C and N, respectively) were not influenced by the type of fertilizer (FYM and MSI) but depended significantly (p ≤ 0.05) on the application rate and ranged from 1.8 to 3.2 t C ha 1 (7 – 13% of Corg) and from 90 to 140 kg N ha-1 (4-5% of Nt). In the calculated intermediate pool (C/N ratio 7), stocks of C were markedly higher in FYM treatments (15-18 t ha-1) compared to MSI treatments (12-14 t ha-1). This showed that differences in SOM stocks in the sandy Cambisol induced by fertilizer rate may be short-lived in case of changing management, but differences induced by fertilizer type may persist for decades. (ii) Crop yields, estimated C inputs (1.5 t ha-1 year-1) with crop residue, microbial bio¬mass C (Cmic, 118 – 150 mg kg-1), microbial biomass N (17 – 20 mg kg-1) and labile C and N pools did not differ significantly between FYM and DYN treatments. However, labile C increased linearly with application rate (R2 = 0.53) from 7 to 11% of Corg. This also applied for labile N (3.5 to 4.9% of Nt). The higher contents of Corg in DYN treatments existed since 1982, when the first sampling was conducted for all individual treatments. Contents of Corg between DYN and FYM treatments con-verged slightly since then. Furthermore, at least 30% of the difference in Corg was located in the passive pool where a treatment effect could be excluded. Therefore, the reported differences in Corg contents existed most likely since the beginning of the experiment and, as a single factor of biodynamic agriculture, application of bio-dynamic preparations had no effect on SOM stocks. (iii) Stocks of SOM, light fraction organic C (LFOC, ρ ≤ 2.0 g cm-3), light fraction organic N and Cmic decreased in the order FYMH > FYML > MSIH, MSIL for all sampling dates in 2008 (March, May, September, December). However, statistical significance of treatment effects differed between the dates, probably due to dif-ferences in the spatial variation throughout the year. The high proportion of LFOC on total Corg stocks (45 – 55%) highlighted the importance of selective preservation of OM as a stabilization mechanism in this sandy Cambisol. The apparent turnover time of LFOC was between 21 and 32 years, which agreed very well with studies with substantially longer vegetation change compared to our study. Overall, both approaches; (I) the combination of incubation, chemical fractionation and simple modelling and (II) the density fractionation; provided complementary information on the partitioning of SOM into pools of different stability. The density fractionation showed that differences in Corg stocks between FYM and MSI treatments were mainly located in the light fraction, i.e. induced by higher recalcitrance of the organic input in the FYM treatments. Moreover, the use of the combination of biological, chemical and mathematical methods indicated that effects of fertilizer rate on total Corg and Nt stocks may be short-lived, but that the effect of fertilizer type may persist for longer time spans in the sandy Cambisol.
Resumo:
We consider numerical methods for the compressible time dependent Navier-Stokes equations, discussing the spatial discretization by Finite Volume and Discontinuous Galerkin methods, the time integration by time adaptive implicit Runge-Kutta and Rosenbrock methods and the solution of the appearing nonlinear and linear equations systems by preconditioned Jacobian-Free Newton-Krylov, as well as Multigrid methods. As applications, thermal Fluid structure interaction and other unsteady flow problems are considered. The text is aimed at both mathematicians and engineers.
Resumo:
Since dwarf napiergrass (Pennisetum purpureum Schumach.) must be propagated vegetatively due to lack of viable seeds, root splitting and stem cuttings are generally used to obtain true-to-type plant populations. These ordinary methods are laborious and costly, and are the greatest barriers for expanding the cultivation area of this crop. The objectives of this research were to develop nursery production of dwarf napiergrass in cell trays and to compare the efficiency of mechanical versus manual methods for cell-tray propagation and field transplanting. After defoliation of herbage either by a sickle (manually) or hand-mowing machine, every potential aerial tiller bud was cut to a single one for transplanting into cell trays as stem cuttings and placed in a glasshouse over winter. The following June, nursery plants were trimmed to a 25–cm length and transplanted in an experimental field (sandy soil) with 20,000 plants ha^(−1) either by shovel (manually) or Welsh onion planter. Labour time was recorded for each process. The manual defoliation of plants required 44% more labour time for preparing the stem cuttings (0.73 person-min. stemcutting^(−1)) compared to using hand-mowing machinery (0.51 person-min. stem-cutting^(−1)). In contrast, labour time for transplanting required an extra 0.30 person-min. m^(−2) (14%) using the machinery compared to manual transplanting, possibly due to the limited plot size for machinery operation. The transplanting method had no significant effect on plant establishment or plant growth, except for herbage yield 110 days after planting. Defoliation of herbage by machinery, production using a cell-tray nursery and mechanical transplanting reduced the labour intensity of dwarf napiergrass propagation.
Resumo:
Functional Data Analysis (FDA) deals with samples where a whole function is observed for each individual. A particular case of FDA is when the observed functions are density functions, that are also an example of infinite dimensional compositional data. In this work we compare several methods for dimensionality reduction for this particular type of data: functional principal components analysis (PCA) with or without a previous data transformation and multidimensional scaling (MDS) for diferent inter-densities distances, one of them taking into account the compositional nature of density functions. The difeerent methods are applied to both artificial and real data (households income distributions)
Resumo:
Birds are vulnerable to collisions with human-made fixed structures. Despite ongoing development and increases in infrastructure, we have few estimates of the magnitude of collision mortality. We reviewed the existing literature on avian mortality associated with transmission lines and derived an initial estimate for Canada. Estimating mortality from collisions with power lines is challenging due to the lack of studies, especially from sites within Canada, and due to uncertainty about the magnitude of detection biases. Detection of bird collisions with transmission lines varies due to habitat type, species size, and scavenging rates. In addition, birds can be crippled by the impact and subsequently die, although crippling rates are poorly known and rarely incorporated into estimates. We used existing data to derive a range of estimates of avian mortality associated with collisions with transmission lines in Canada by incorporating detection, scavenging, and crippling biases. There are 231,966 km of transmission lines across Canada, mostly in the boreal forest. Mortality estimates ranged from 1 million to 229.5 million birds per year, depending on the bias corrections applied. We consider our most realistic estimate, taking into account variation in risk across Canada, to range from 2.5 million to 25.6 million birds killed per year. Data from multiple studies across Canada and the northern U.S. indicate that the most vulnerable bird groups are (1) waterfowl, (2) grebes, (3) shorebirds, and (4) cranes, which is consistent with other studies. Populations of several groups that are vulnerable to collisions are increasing across Canada (e.g., waterfowl, raptors), which suggests that collision mortality, at current levels, is not limiting population growth. However, there may be impacts on other declining species, such as shorebirds and some species at risk, including Alberta’s Trumpeter Swans (Cygnus buccinator) and western Canada’s endangered Whooping Cranes (Grus americana). Collisions may be more common during migration, which underscores the need to understand impacts across the annual cycle. We emphasize that these estimates are preliminary, especially considering the absence of Canadian studies.
Resumo:
For the tracking of extrema associated with weather systems to be applied to a broad range of fields it is necessary to remove a background field that represents the slowly varying, large spatial scales. The sensitivity of the tracking analysis to the form of background field removed is explored for the Northern Hemisphere winter storm tracks for three contrasting fields from an integration of the U. K. Met Office's (UKMO) Hadley Centre Climate Model (HadAM3). Several methods are explored for the removal of a background field from the simple subtraction of the climatology, to the more sophisticated removal of the planetary scales. Two temporal filters are also considered in the form of a 2-6-day Lanczos filter and a 20-day high-pass Fourier filter. The analysis indicates that the simple subtraction of the climatology tends to change the nature of the systems to the extent that there is a redistribution of the systems relative to the climatological background resulting in very similar statistical distributions for both positive and negative anomalies. The optimal planetary wave filter removes total wavenumbers less than or equal to a number in the range 5-7, resulting in distributions more easily related to particular types of weather system. For the temporal filters the 2-6-day bandpass filter is found to have a detrimental impact on the individual weather systems, resulting in the storm tracks having a weak waveguide type of behavior. The 20-day high-pass temporal filter is less aggressive than the 2-6-day filter and produces results falling between those of the climatological and 2-6-day filters.