978 resultados para Chromatographic columns
Resumo:
Urea-formaldehyde resins find numerous applications in adhesive, textile finishing and moulded plastic industries. Kinetic investigations of the reactions of urea and its related compounds with formaldehyde in aqueous acid, alkaline and neutral media have been carried out. A thin—layer chromatographic method was developed for the separation and estimation of the products of these reactions. Using this technique the various initial steps in the reactions were analysed and the rate constants have been determined.
Resumo:
Biclustering is simultaneous clustering of both rows and columns of a data matrix. A measure called Mean Squared Residue (MSR) is used to simultaneously evaluate the coherence of rows and columns within a submatrix. In this paper a novel algorithm is developed for biclustering gene expression data using the newly introduced concept of MSR difference threshold. In the first step high quality bicluster seeds are generated using K-Means clustering algorithm. Then more genes and conditions (node) are added to the bicluster. Before adding a node the MSR X of the bicluster is calculated. After adding the node again the MSR Y is calculated. The added node is deleted if Y minus X is greater than MSR difference threshold or if Y is greater than MSR threshold which depends on the dataset. The MSR difference threshold is different for gene list and condition list and it depends on the dataset also. Proper values should be identified through experimentation in order to obtain biclusters of high quality. The results obtained on bench mark dataset clearly indicate that this algorithm is better than many of the existing biclustering algorithms
Resumo:
The present paper deals with the chemistry, isolation, separation, characterisation and stabilisation of the Marigold oleoresin and its application as a natural food colorant. Marigold (Tagetes Erecta L), an ornamental plant belonging to the composite family, has a rich source of natural antioxidant-Lutein. A natural pigment, xanthophylls offer an alternative to synthetic dyes as a food colorant, due to its non-toxicity. Chromatographic separations of saponified and unsaponified oleoresin were performed and Trans-Lutein identified as the major constituent. Well-preserved flowers exhibit a high yield of Xanthophyll content (105.19 g/Kg) in contrast to the unpreserved flower sample (54.87 g/Kg), emphasizing the significance of flower preservation in the extraction of xanthophyll. The stability and amount of xanthophyll also increased from 105.19 g/Kg to 226.88 g/Kg on saponification and subsequent purification with Ethylene Dichloride
Resumo:
Cochin estuarine system is among the most productive aquatic environment along the Southwest coast of India, exhibits unique ecological features and possess greater socioeconomic relevance. Serious investigations carried out during the past decades on the hydro biogeochemical variables pointed out variations in the health and ecological functioning of this ecosystem. Characterisation of organic matter in the estuary has been attempted in many investigations. But detailed studies covering the degradation state of organic matter using molecular level approach is not attempted. The thesis entitled Provenance, Isolation and Characterisation of Organic Matter in the Cochin Estuarine Sediment-“ A Diagenetic Amino Acid Marker Scenario” is an integrated approach to evaluate the source, quantity, quality, and degradation state of the organic matter in the surface sediments of Cochin estuarine system with the combined application of bulk and molecular level tools. Sediment and water samples from nine stations situated at Cochin estuary were collected in five seasonal sampling campaigns, for the biogeochemical assessment and their distribution pattern of sedimentary organic matter. The sampling seasons were described and abbreviated as follows: April- 2009 (pre monsoon: PRM09), August-2009 (monsoon: MON09), January-2010 (post monsoon: POM09), April-2010 (pre monsoon: PRM10) and September- 2012 (monsoon: MON12). In order to evaluate the general environmental conditions of the estuary, water samples were analysed for water quality parameters, chlorophyll pigments and nutrients by standard methods. Investigations suggested the fact that hydrographical variables and nutrients in Cochin estuary supports diverse species of flora and fauna. Moreover the sedimentary variables such as pH, Eh, texture, TOC, fractions of nitrogen and phosphorous were determined to assess the general geochemical setting as well as redox status. The periodically fluctuating oxic/ anoxic conditions and texture serve as the most significant variables controlling other variables of the aquatic environment. The organic matter in estuary comprise of a complex mixture of autochthonous as well as allochthonous materials. Autochthonous input is limited or enhanced by the nutrient elements like N and P (in their various fractions), used as a tool to evaluate their bioavailability. Bulk parameter approach like biochemical composition, stoichiometric elemental ratios and stable carbon isotope ratio was also employed to assess the quality and quantity of sedimentary organic matter in the study area. Molecular level charactersation of free sugars and amino acids were carried out by liquid chromatographic techniques. Carbohydrates are the products of primary production and their occurrence in sediments as free sugars can provide information on the estuarine productivity. Amino acid biogeochemistry provided implications on the system productivity, nature of organic matter as well as degradation status of the sedimentary organic matter in the study area. The predominance of carbohydrates over protein indicated faster mineralisation of proteinaceous organic matter in sediments and the estuary behaves as a detrital trap for the accumulation of aged organic matter. The higher lipid content and LPD/CHO ratio pointed towards the better food quality that supports benthic fauna and better accumulation of lipid compounds in the sedimentary environment. Allochthonous addition of carbohydrates via terrestrial run off was responsible for the lower PRT/CHO ratio estimated in thesediments and the lower ratios also denoted a detrital heterotrophic environment. Biopolymeric carbon and the algal contribution to BPC provided important information on the better understanding the trophic state of the estuarine system and the higher values of chlorophyll-a to phaeophytin ratio indicated deposition of phytoplankton to sediment at a rapid rate. The estimated TOC/TN ratios implied the combined input of both terrestrial and autochthonous organic matter to sedimentsAmong the free sugars, depleted levels of glucose in sediments in most of the stations and abundance of mannose at station S5 was observed during the present investigation. Among aldohexoses, concentration of galactose was found to be higher in most of the stationsRelative abundance of AAs in the estuarine sediments based on seasons followed the trend: PRM09-Leucine > Phenylalanine > Argine > Lysine, MON09-Lysine > Aspartic acid > Histidine > Tyrosine > Phenylalanine, POM09-Lysine > Histadine > Phenyalanine > Leucine > Methionine > Serine > Proline > Aspartic acid, PRM10-Valine > Aspartic acid > Histidine > Phenylalanine > Serine > Proline, MON12-Lysine > Phenylalanine > Aspartic acid > Histidine > Valine > Tyrsine > MethionineThe classification of study area into three zones based on salinity was employed in the present study for the sake of simplicity and generalized interpretations. The distribution of AAs in the three zones followed the trend: Fresh water zone (S1, S2):- Phenylalanine > Lysine > Aspartic acid > Methionine > Valine ῀ Leucine > Proline > Histidine > Glycine > Serine > Glutamic acid > Tyrosine > Arginine > Alanine > Threonine > Cysteine > Isoleucine. Estuarine zone (S3, S4, S5, S6):- Lysine > Aspartic acid > Phenylalanine > Leucine > Valine > Histidine > Methionine > Tyrosine > Serine > Glutamic acid > Proline > Glycine > Arginine > Alanine > Isoleucine > Cysteine > Threonine. Riverine /Industrial zone (S7, S8, S9):- Phenylalanine > Lysine > Aspartic acid > Histidine > Serine > Arginine > Tyrosine > Leucine > Methionine > Glutamic acid > Alanine > Glycine > Cysteine > Proline > Isoleucine > Threonine > Valine. The abundance of AAs like glutamic acid, aspartic acid, isoleucine, valine, tyrosine, and phenylalanine in sediments of the study area indicated freshly derived organic matter.
Resumo:
Mobile genetische Elementen wie Transposons wurden in unbelasteten Böden nachgewiesen. Hierzu wurden unterschiedliche Ansätze gewählt: Verschiedene, unbelastete Böden wurden mittels PCR auf das Vorhandensein von Markergenen, in diesem Fall Transposasen vom Typ Tn3, Tn21 und Tn501, hin untersucht. Hierzu wurde ein System entwickelt, welches es ermöglichte die Gesamt-DNA aus verschiedensten Böden mit einem System einfach und reproduzierbar zu extrahieren und anschließend mittels PCR zu untersuchen. Die mittlere Nachweisgrenze dieses Systems lag bei 9 x 10 *3 Templates / g Boden. Ein paralleler Ansatz erfolgte, indem aus den gleichen, unbelasteten Böden Bakterien mittels Selektivmedien isoliert wurden. Diese Isolate wurden anschließend auf genetische Marker hin untersucht. Transposons, bzw. Transposasen konnten in den unbelasteten Böden in weitaus geringerer Zahl als aus belasteten Böden bekannt nachgewiesen werden. Jedoch verhielten sich die unterschiedlichen Elemente in der Verteilung wie aus belasteten Böden bekannt. Am häufigsten wurde Tn21 dann Tn501 nachgewiesen. Tn3, nach dem auch gescreent wurde, konnte nicht nachgewiesen werden. Anschließend wurden diese Böden mittels Bodensäulen unter Laborbedingungen auf die Übertragung von potentiell transponierbaren Elementen aus der autochthonen Flora hin untersucht. Mittels dieses Experimentes konnte kein transponierbares Element nachgewiesen werden. Weiterhin wurden vorhandene Boden-Bakterienkollektive auf das Vorhandensein von Transposons mittels Gensondentechnik und PCR auf Transposasen hin gescreent. Auch hier konnten wiederum Signale zu Tn21, Tn501 und in diesem Falle auch Tn3 erhalten werden. Einige dieser Isolate wurden mittels Southern-Blot und Sequenzierung näher charakterisiert. Bei den Sequenzvergleichen einer so erhaltenen 2257 bp langen Sequenz wurde diese als Transposase der Tn21-Familie mit großer Homologie zur Transposase von Tn5060 bestimmt.
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.
Resumo:
Tsunoda et al. (2001) recently studied the nature of object representation in monkey inferotemporal cortex using a combination of optical imaging and extracellular recordings. In particular, they examined IT neuron responses to complex natural objects and "simplified" versions thereof. In that study, in 42% of the cases, optical imaging revealed a decrease in the number of activation patches in IT as stimuli were "simplified". However, in 58% of the cases, "simplification" of the stimuli actually led to the appearance of additional activation patches in IT. Based on these results, the authors propose a scheme in which an object is represented by combinations of active and inactive columns coding for individual features. We examine the patterns of activation caused by the same stimuli as used by Tsunoda et al. in our model of object recognition in cortex (Riesenhuber 99). We find that object-tuned units can show a pattern of appearance and disappearance of features identical to the experiment. Thus, the data of Tsunoda et al. appear to be in quantitative agreement with a simple object-based representation in which an object's identity is coded by its similarities to reference objects. Moreover, the agreement of simulations and experiment suggests that the simplification procedure used by Tsunoda (2001) is not necessarily an accurate method to determine neuronal tuning.
Resumo:
The statistical analysis of compositional data should be treated using logratios of parts, which are difficult to use correctly in standard statistical packages. For this reason a freeware package, named CoDaPack was created. This software implements most of the basic statistical methods suitable for compositional data. In this paper we describe the new version of the package that now is called CoDaPack3D. It is developed in Visual Basic for applications (associated with Excel©), Visual Basic and Open GL, and it is oriented towards users with a minimum knowledge of computers with the aim at being simple and easy to use. This new version includes new graphical output in 2D and 3D. These outputs could be zoomed and, in 3D, rotated. Also a customization menu is included and outputs could be saved in jpeg format. Also this new version includes an interactive help and all dialog windows have been improved in order to facilitate its use. To use CoDaPack one has to access Excel© and introduce the data in a standard spreadsheet. These should be organized as a matrix where Excel© rows correspond to the observations and columns to the parts. The user executes macros that return numerical or graphical results. There are two kinds of numerical results: new variables and descriptive statistics, and both appear on the same sheet. Graphical output appears in independent windows. In the present version there are 8 menus, with a total of 38 submenus which, after some dialogue, directly call the corresponding macro. The dialogues ask the user to input variables and further parameters needed, as well as where to put these results. The web site http://ima.udg.es/CoDaPack contains this freeware package and only Microsoft Excel© under Microsoft Windows© is required to run the software. Kew words: Compositional data Analysis, Software
Resumo:
A joint distribution of two discrete random variables with finite support can be displayed as a two way table of probabilities adding to one. Assume that this table has n rows and m columns and all probabilities are non-null. This kind of table can be seen as an element in the simplex of n · m parts. In this context, the marginals are identified as compositional amalgams, conditionals (rows or columns) as subcompositions. Also, simplicial perturbation appears as Bayes theorem. However, the Euclidean elements of the Aitchison geometry of the simplex can also be translated into the table of probabilities: subspaces, orthogonal projections, distances. Two important questions are addressed: a) given a table of probabilities, which is the nearest independent table to the initial one? b) which is the largest orthogonal projection of a row onto a column? or, equivalently, which is the information in a row explained by a column, thus explaining the interaction? To answer these questions three orthogonal decompositions are presented: (1) by columns and a row-wise geometric marginal, (2) by rows and a columnwise geometric marginal, (3) by independent two-way tables and fully dependent tables representing row-column interaction. An important result is that the nearest independent table is the product of the two (row and column)-wise geometric marginal tables. A corollary is that, in an independent table, the geometric marginals conform with the traditional (arithmetic) marginals. These decompositions can be compared with standard log-linear models. Key words: balance, compositional data, simplex, Aitchison geometry, composition, orthonormal basis, arithmetic and geometric marginals, amalgam, dependence measure, contingency table
Resumo:
Factor analysis as frequent technique for multivariate data inspection is widely used also for compositional data analysis. The usual way is to use a centered logratio (clr) transformation to obtain the random vector y of dimension D. The factor model is then y = Λf + e (1) with the factors f of dimension k < D, the error term e, and the loadings matrix Λ. Using the usual model assumptions (see, e.g., Basilevsky, 1994), the factor analysis model (1) can be written as Cov(y) = ΛΛT + ψ (2) where ψ = Cov(e) has a diagonal form. The diagonal elements of ψ as well as the loadings matrix Λ are estimated from an estimation of Cov(y). Given observed clr transformed data Y as realizations of the random vector y. Outliers or deviations from the idealized model assumptions of factor analysis can severely effect the parameter estimation. As a way out, robust estimation of the covariance matrix of Y will lead to robust estimates of Λ and ψ in (2), see Pison et al. (2003). Well known robust covariance estimators with good statistical properties, like the MCD or the S-estimators (see, e.g. Maronna et al., 2006), rely on a full-rank data matrix Y which is not the case for clr transformed data (see, e.g., Aitchison, 1986). The isometric logratio (ilr) transformation (Egozcue et al., 2003) solves this singularity problem. The data matrix Y is transformed to a matrix Z by using an orthonormal basis of lower dimension. Using the ilr transformed data, a robust covariance matrix C(Z) can be estimated. The result can be back-transformed to the clr space by C(Y ) = V C(Z)V T where the matrix V with orthonormal columns comes from the relation between the clr and the ilr transformation. Now the parameters in the model (2) can be estimated (Basilevsky, 1994) and the results have a direct interpretation since the links to the original variables are still preserved. The above procedure will be applied to data from geochemistry. Our special interest is on comparing the results with those of Reimann et al. (2002) for the Kola project data
Resumo:
Aquest projecte consisteix en aplicar el càlcul no lineal en la modelització volumètrica numèrica de l’estructura del sistema de descàrrega d’una columna del claustre de la catedral de Girona mitjançant el mètode dels elements finits. A la Universitat de Girona s’ha fet diferents estudis del claustre de la catedral de Girona però sempre simulant un comportament lineal de les característiques dels materials. El programa utilitzat és la versió docent del programa ANSYS disponible al Dept. d’EMCI i l’element emprat ha sigut el SOLID65. Aquest element permet introduir característiques de no linealitat en els models i és adequat per a anàlisi no lineal d’elements com la pedra de Girona
Resumo:
Video on how to enter data into Excel. This includes setting up column headings, changing sheet names, using lists for categorical items, using validation on columns of data, plus how to check validation is operating correctly.
Resumo:
Este trabajo de grado estudia el modo como dos diarios colombianos, El Tiempo y El Espectador, presentaron la información sobre el debate de “Leyes de medios” en Ecuador y Argentina, desarrollado en los años recientes. El estudio analizó las noticias, columnas, editoriales, reportajes y entrevistas publicados desde el año 2009 (cuando se generalizó el debate) hasta 2013. La metodología facilitó el análisis comparativo de los dos periódicos y de sus posturas frente al debate de las leyes de medios. Se argumenta que los medios, como actores principales del debate, han tomado partido, en sus páginas editoriales e informativas, en contra de las políticas que buscan regular su actividad. Así, existe una persistencia en la prensa para imponer discursos con una ideología específica a través de los actores que son presentados en la construcción de los relatos, en este caso, dispuestos a contrariar la aprobación de las leyes de medios propuestas por el gobierno argentino y ecuatoriano. Se evidencia en el marco interpretativo de los textos periodísticos analizados, la guerra de poderes en países de la región latinoamericana que persiste entre los medios y los gobiernos.
Resumo:
Este trabajo de grado aborda la contribución del periodismo en la configuración del debate en Colombia sobre política de drogas, a través de un análisis de contenido a las columnas y editoriales publicadas entre 2009 y 2013 en cuatro medios de referencia del país. Se identificaron los perfiles de quienes participaron, los argumentos y las políticas defendidas que plantearon, y la manera como presentaron sus opiniones en El Espectador, El Tiempo, La Silla Vacía y Semana. El desarrollo de la discusión en los textos demuestra una evolución respecto al tema en la medida que hay una transformación del paradigma punitivo hacia un camino menos restrictivo frente a la producción, el tráfico y consumo de drogas ilícitas. Se sugiere que los hechos coyunturales motivaron en parte dicho cambio al ejercer influencia en los giros y la visibilidad que toma el debate dentro de la prensa.
Resumo:
Introducción: La Enfermedad de Fabry (EF), es una enfermedad multisistémica de almacenamiento lisosomal ligada al cromosoma X que afecta principalmente a hombres, pero también puede causar significativa morbilidad en las mujeres heterocigotas (1–5). La deficiencia de la enzyma α-galactosidaseA (α-Gal A,) provoca acumulación de glicosfingolipidos que afectan diferentes tipos celulares entre ellos el endotelio vascular en vasos de pequeño calibre, células epiteliales y Músculo liso en el sistema cardiovascular (cardiomiocitos), sistema nervioso y células epiteliales tubulares del riñón (6,7). Complicaciones como la falla renal es la causa de muerte más frecuente en la EF (7,8). La incidencia se ha calculado en 1 de cada 117.000 nacidos vivos. (9). Objetivos: Determinar la prevalencia de la Enfermedad de Fabry en pacientes con Insuficiencia renal terminal que se encuentren en lista de trasplante y Post-trasplante Renal en Fundación Cardioinfantil Bogotá. Materiales y Métodos: Se realizó un estudio observacional en donde se evaluó la prevalencia de la EF en todos los sujetos mayores de 18 años que se encuentren en lista de trasplante y post-trasplante renal. Resultados: La prevalencia de Enfermedad de Fabry en 98 pacientes con enfermedad renal crónica fue de 7.1% para la muestra general y 12.9% para la muestra con etiología idiopática Conclusiones: La Enfermedad de Fabry es una importante casusa de Enfermedad Renal Crónica Terminal principalmente en el grupo de etiología idiopática. Palabras Clave: Enfermedad de Fabry (FA)