999 resultados para Técnicas Químicas e Espectroscópicas


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES] Durante la charla se resumirán las labores de investigación llevadas a cabo por el Instituto Español de Oceanografía en colaboración con la Universidad de Las Palmas de Gran Canaria dentro de los más de 7 meses de duración del proyecto Bimbache. Este proyecto tuvo como objetivo principal el estudio de las propiedades físico-químicas sobre el volcán submarino de la isla de El Hierro y su repercusión sobre el ecosistema marino. Se explicarán con detalle los datos y muestras analizadas, las técnicas empleadas así como los resultados preliminares más relevantes publicados en revistas científicas de alto índice de impacto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudio tuvo por objetivo caracterizar la fertilidad química del suelo superficial nueve meses después de la ocurrencia de fuegos en dos tipos de formaciones del bosque andino patagónico: Nothofagus antarctica y Austrocedrus chilensis. El área de estudio se centró en un sector de suelos de ceniza volcánica que fue afectado por el incendio denominado La Colisión (Chubut, Argentina, febrero 2008) y posteriormente cubierto por ceniza volcánica proveniente del volcán Chaitén (mayo 2008). Se tomaron muestras compuestas de suelo mineral a dos profundidades (0-5 cm y 5-10 cm) en un sector de bosque de N. antarctica y un sector de bosque de A. chilensis, considerando tres niveles de afectación por fuego (control no quemado, poco quemado, muy quemado). En las muestras más superficiales (i.e., 0-5 cm) hubo aumentos significativos de pH y conductividad eléctrica, y disminución de los contenidos de materia orgánica, nitrógeno total, CIC y sodio, como consecuencia del fuego. Las muestras de 5-10 cm evidenciaron disminución de materia orgánica y nitrógeno total y aumento de azufre. El mayor contenido de azufre en los bosques quemados y el aumento observado de fósforo en suelos alofanizados con bajo grado de afectación por fuego, podrían ser beneficiosos para la recuperación de la vegetación.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract Air pollution is a big threat and a phenomenon that has a specific impact on human health, in addition, changes that occur in the chemical composition of the atmosphere can change the weather and cause acid rain or ozone destruction. Those are phenomena of global importance. The World Health Organization (WHO) considerates air pollution as one of the most important global priorities. Salamanca, Gto., Mexico has been ranked as one of the most polluted cities in this country. The industry of the area led to a major economic development and rapid population growth in the second half of the twentieth century. The impact in the air quality is important and significant efforts have been made to measure the concentrations of pollutants. The main pollution sources are locally based plants in the chemical and power generation sectors. The registered concerning pollutants are Sulphur Dioxide (SO2) and particles on the order of ∼10 micrometers or less (PM10). The prediction in the concentration of those pollutants can be a powerful tool in order to take preventive measures such as the reduction of emissions and alerting the affected population. In this PhD thesis we propose a model to predict concentrations of pollutants SO2 and PM10 for each monitoring booth in the Atmospheric Monitoring Network Salamanca (REDMAS - for its spanish acronym). The proposed models consider the use of meteorological variables as factors influencing the concentration of pollutants. The information used along this work is the current real data from REDMAS. In the proposed model, Artificial Neural Networks (ANN) combined with clustering algorithms are used. The type of ANN used is the Multilayer Perceptron with a hidden layer, using separate structures for the prediction of each pollutant. The meteorological variables used for prediction were: Wind Direction (WD), wind speed (WS), Temperature (T) and relative humidity (RH). Clustering algorithms, K-means and Fuzzy C-means, are used to find relationships between air pollutants and weather variables under consideration, which are added as input of the RNA. Those relationships provide information to the ANN in order to obtain the prediction of the pollutants. The results of the model proposed in this work are compared with the results of a multivariate linear regression and multilayer perceptron neural network. The evaluation of the prediction is calculated with the mean absolute error, the root mean square error, the correlation coefficient and the index of agreement. The results show the importance of meteorological variables in the prediction of the concentration of the pollutants SO2 and PM10 in the city of Salamanca, Gto., Mexico. The results show that the proposed model perform better than multivariate linear regression and multilayer perceptron neural network. The models implemented for each monitoring booth have the ability to make predictions of air quality that can be used in a system of real-time forecasting and human health impact analysis. Among the main results of the development of this thesis we can cite: A model based on artificial neural network combined with clustering algorithms for prediction with a hour ahead of the concentration of each pollutant (SO2 and PM10) is proposed. A different model was designed for each pollutant and for each of the three monitoring booths of the REDMAS. A model to predict the average of pollutant concentration in the next 24 hours of pollutants SO2 and PM10 is proposed, based on artificial neural network combined with clustering algorithms. Model was designed for each booth of the REDMAS and each pollutant separately. Resumen La contaminación atmosférica es una amenaza aguda, constituye un fenómeno que tiene particular incidencia sobre la salud del hombre. Los cambios que se producen en la composición química de la atmósfera pueden cambiar el clima, producir lluvia ácida o destruir el ozono, fenómenos todos ellos de una gran importancia global. La Organización Mundial de la Salud (OMS) considera la contaminación atmosférica como una de las más importantes prioridades mundiales. Salamanca, Gto., México; ha sido catalogada como una de las ciudades más contaminadas en este país. La industria de la zona propició un importante desarrollo económico y un crecimiento acelerado de la población en la segunda mitad del siglo XX. Las afectaciones en el aire son graves y se han hecho importantes esfuerzos por medir las concentraciones de los contaminantes. Las principales fuentes de contaminación son fuentes fijas como industrias químicas y de generación eléctrica. Los contaminantes que se han registrado como preocupantes son el Bióxido de Azufre (SO2) y las Partículas Menores a 10 micrómetros (PM10). La predicción de las concentraciones de estos contaminantes puede ser una potente herramienta que permita tomar medidas preventivas como reducción de emisiones a la atmósfera y alertar a la población afectada. En la presente tesis doctoral se propone un modelo de predicción de concentraci ón de los contaminantes más críticos SO2 y PM10 para cada caseta de monitorización de la Red de Monitorización Atmosférica de Salamanca (REDMAS). Los modelos propuestos plantean el uso de las variables meteorol ógicas como factores que influyen en la concentración de los contaminantes. La información utilizada durante el desarrollo de este trabajo corresponde a datos reales obtenidos de la REDMAS. En el Modelo Propuesto (MP) se aplican Redes Neuronales Artificiales (RNA) combinadas con algoritmos de agrupamiento. La RNA utilizada es el Perceptrón Multicapa con una capa oculta, utilizando estructuras independientes para la predicción de cada contaminante. Las variables meteorológicas disponibles para realizar la predicción fueron: Dirección de Viento (DV), Velocidad de Viento (VV), Temperatura (T) y Humedad Relativa (HR). Los algoritmos de agrupamiento K-means y Fuzzy C-means son utilizados para encontrar relaciones existentes entre los contaminantes atmosféricos en estudio y las variables meteorológicas. Dichas relaciones aportan información a las RNA para obtener la predicción de los contaminantes, la cual es agregada como entrada de las RNA. Los resultados del modelo propuesto en este trabajo son comparados con los resultados de una Regresión Lineal Multivariable (RLM) y un Perceptrón Multicapa (MLP). La evaluación de la predicción se realiza con el Error Medio Absoluto, la Raíz del Error Cuadrático Medio, el coeficiente de correlación y el índice de acuerdo. Los resultados obtenidos muestran la importancia de las variables meteorológicas en la predicción de la concentración de los contaminantes SO2 y PM10 en la ciudad de Salamanca, Gto., México. Los resultados muestran que el MP predice mejor la concentración de los contaminantes SO2 y PM10 que los modelos RLM y MLP. Los modelos implementados para cada caseta de monitorizaci ón tienen la capacidad para realizar predicciones de calidad del aire, estos modelos pueden ser implementados en un sistema que permita realizar la predicción en tiempo real y analizar el impacto en la salud de la población. Entre los principales resultados obtenidos del desarrollo de esta tesis podemos citar: Se propone un modelo basado en una red neuronal artificial combinado con algoritmos de agrupamiento para la predicción con una hora de anticipaci ón de la concentración de cada contaminante (SO2 y PM10). Se diseñó un modelo diferente para cada contaminante y para cada una de las tres casetas de monitorización de la REDMAS. Se propone un modelo de predicción del promedio de la concentración de las próximas 24 horas de los contaminantes SO2 y PM10, basado en una red neuronal artificial combinado con algoritmos de agrupamiento. Se diseñó un modelo para cada caseta de monitorización de la REDMAS y para cada contaminante por separado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La nanotecnología es el estudio que la mayoría de veces es tomada como una meta tecnológica que nos ayuda en el área de investigación para tratar con la manipulación y el control en forma precisa de la materia con dimensiones comprendidas entre 1 y 100 nanómetros. Recordando que el prefijo nano proviene del griego vavoc que significa enano y corresponde a un factor de 10^-9, que aplicada a las unidades de longitud corresponde a una mil millonésima parte de un metro. Ahora sabemos que esta ciencia permite trabajar con estructuras moleculares y sus átomos, obteniendo materiales que exhiben fenómenos físicos, químicos y biológicos, muy distintos a los que manifiestan los materiales usados con una longitud mayor. Por ejemplo en medicina, los compuestos manométricos y los materiales nano estructurados muchas veces ofrecen una mayor eficacia con respecto a las formulaciones químicas tradicionales, ya que muchas veces llegan a combinar los antiguos compuestos con estos nuevos para crear nuevas terapias e inclusive han llegado a reemplazarlos, revelando así nuevas propiedades diagnósticas y terapéuticas. A su vez, la complejidad de la información a nivel nano es mucho mayor que en los niveles biológicos convencionales y, por tanto, cualquier flujo de trabajo en nano medicina requiere, de forma inherente, estrategias de gestión de información avanzadas. Muchos investigadores en la nanotecnología están buscando la manera de obtener información acerca de estos materiales nanométricos, para mejorar sus estudios que muchas veces lleva a probar estos métodos o crear nuevos compuestos para ayudar a la medicina actual, contra las enfermedades más poderosas como el cáncer. Pero en estos días es muy difícil encontrar una herramienta que les brinde la información específica que buscan en los miles de ensayos clínicos que se suben diariamente en la web. Actualmente, la informática biomédica trata de proporcionar el marco de trabajo que permita lidiar con estos retos de la información a nivel nano, en este contexto, la nueva área de la nano informática pretende detectar y establecer los vínculos existentes entre la medicina, la nanotecnología y la informática, fomentando así la aplicación de métodos computacionales para resolver las cuestiones y problemas que surgen con la información en la amplia intersección entre la biomedicina y la nanotecnología. Otro caso en la actualidad es que muchos investigadores de biomedicina desean saber y comparar la información dentro de los ensayos clínicos que contiene temas de nanotecnología en las diferentes paginas en la web por todo el mundo, obteniendo en si ensayos clínicos que se han creado en Norte América, y ensayos clínicos que se han creado en Europa, y saber si en este tiempo este campo realmente está siendo explotado en los dos continentes. El problema es que no se ha creado una herramienta que estime un valor aproximado para saber los porcentajes del total de ensayos clínicos que se han creado en estas páginas web. En esta tesis de fin de máster, el autor utiliza un mejorado pre-procesamiento de texto y un algoritmo que fue determinado como el mejor procesamiento de texto en una tesis doctoral, que incluyo algunas pruebas con muchos de estos para obtener una estimación cercana que ayudaba a diferenciar cuando un ensayo clínico contiene información sobre nanotecnología y cuando no. En otras palabras aplicar un análisis de la literatura científica y de los registros de ensayos clínicos disponibles en los dos continentes para extraer información relevante sobre experimentos y resultados en nano medicina (patrones textuales, vocabulario en común, descriptores de experimentos, parámetros de caracterización, etc.), seguido el mecanismo de procesamiento para estructurar y analizar dicha información automáticamente. Este análisis concluye con la estimación antes mencionada necesaria para comparar la cantidad de estudios sobre nanotecnología en estos dos continentes. Obviamente usamos un modelo de datos de referencia (gold standard) —un conjunto de datos de entrenamiento anotados manualmente—, y el conjunto de datos para el test es toda la base de datos de estos registros de ensayos clínicos, permitiendo distinguir automáticamente los estudios centrados en nano drogas, nano dispositivos y nano métodos de aquellos enfocados a testear productos farmacéuticos tradicionales.---ABSTRACT---Nanotechnology is the scientific study that usually is seen as a technological goal that helps us in the investigation field to deal with the manipulation and precise control of the matter with dimensions that range from 1 to 100 nanometers. Remembering that the prefix nano comes from the Greek word νᾶνος, meaning dwarf and denotes a factor of 10^-9, that applyied the longitude units is equal to a billionth of a meter. Now we know that this science allows us to work with molecular structures and their atoms, obtaining material that exhibit physical, chemical and biological phenomena very different to those manifesting in materials with a bigger longitude. As an example in medicine, the nanometric compounds and the materials in nano structures are often offered with more effectiveness regarding to the traditional chemical formulas. This is due to the fact that many occasions combining these old compounds with the new ones, creates new therapies and even replaced them, reveling new diagnostic and therapeutic properties. Even though the complexity of the information at nano level is greater than that in conventional biologic level and, thus, any work flow in nano medicine requires, in an inherent way, advance information management strategies. Many researchers in nanotechnology are looking for a way to obtain information about these nanometric materials to improve their studies that leads in many occasions to prove these methods or to create a new compound that helps modern medicine against powerful diseases, such as cancer. But in these days it is difficult to find a tool that searches and provides a specific information in the thousands of clinic essays that are uploaded daily on the web. Currently, the bio medic informatics tries to provide the work frame that will allow to deal with these information challenge in nano level. In this context, the new area of nano informatics pretends to detect and establish the existing links between medicine, nanotechnology and informatics, encouraging the usage of computational methods to resolve questions and problems that surge with the wide information intersection that is between biomedicine and nanotechnology. Another present case, is that many biomedicine researchers want to know and be able to compare the information inside those clinic essays that contains subjects of nanotechnology on the different webpages across the world, obtaining the clinic essays that has been done in North America and the essays done in Europe, and thus knowing if in this time, this field is really being exploited in both continents. In this master thesis, the author will use an enhanced text pre-processor with an algorithm that was defined as the best text processor in a doctoral thesis, that included many of these tests to obtain a close estimation that helps to differentiate when a clinic essay contains information about nanotechnology and when it does not. In other words, applying an analysis to the scientific literature and clinic essay available in both continents, in order to extract relevant information about experiments and the results in nano-medicine (textual patterns, common vocabulary, experiments descriptors, characterization parameters, etc.), followed by the mechanism process to structure and analyze said information automatically. This analysis concludes with the estimation, mentioned before, needed to compare the quantity of studies about nanotechnology in these two continents. Obviously we use a data reference model (Gold standard) – a set of training data manually annotated –, and the set of data for the test conforms the entire database of these clinic essay registers, allowing to distinguish automatically the studies centered on nano drugs, nano devices and nano methods of those focus on testing traditional pharmaceutical products.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação é composta por 5 artigos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O preparo de amostra é frequentemente a fase crítica de um método multirresíduo, devido à diversidade de substâncias que podem ser extraídas e a ineficiência da extração dos analitos de interesse, aplicados em matrizes com características e composições próprias. Os agrotóxicos são moléculas de estruturas complexas, com características químicas diferentes, como polaridade e estabilidade, e muitas vezes se degradam rapidamente durante o procedimento analítico a seus metabólitos ou a outros produtos. Por estas razões, se faz necessário o desenvolvimento de métodos de preparo de amostras, cada vez mais eficientes e rápidos para determinações de analitos em matrizes complexas. A Extração Líquido-Líquido (ELL) apresenta recuperações satisfatórias para compostos apolares e de média polaridade, porém tem algumas desvantagens relevantes, como pode formar emulsões, requer grandes volumes de solventes, demanda longo tempo de extração e é de difícil automação. A Extração em Fase Sólida (EFS), uma alternativa à ELL, exige pequenos volumes de solvente e é de fácil operação e automação. Dependendo do sorvente, pode ser empregada na análise de compostos polares e apolares. O método QuEChERS apresenta como vantagens rapidez, simplicidade, baixo custo, eficiência, robustez, segurança, baixo consumo de solventes, além de cobrir uma ampla variedade de classes de agrotóxicos (com caráter ácido, básico ou polar). Neste trabalho, foi feito um estudo comparativo entre as técnicas de preparo de amostra: ELL modificada, EFS e o método QuEChERS na extração dos agrotóxicos, ciproconazol, difenoconazol, fenarimol, tebuconazol e triadimefom, aplicados em culturas de uva, para posterior determinação por Cromatografia Líquida de Alta Eficiência (CLAE).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The titanium and titanium alloys are widely used as biomaterial in biomedical device and so research have been developed aiming to improve and/or better to understand interaction biomaterial/biological environment. The process for manufacturing of this titanium implants usually involves a series of thermal and mechanical processes which have consequence on the final product. The heat treatments are usually used to obtain different properties for each application. In order to understand the influence of these treatments on the biological response of the surface, it was done, in this work, different heat treatments in titanium and analyzed their influence on the morphology, adhesion and proliferation of the pre-osteoblastic cells (MC3T3-E1). For such heat-treated titanium disks were characterized by optical microscopy, contact angle, surface energy, roughness, microhardness, X-ray diffraction and scanning through the techniques (BSE, EDS and EBSD). For the analysis of biological response were tested by MTT proliferation, adhesion by crystal violet and β1 integrin expression by flow cytometry. It was found that the presence of a microstructure very orderly, defined by a chemical attack, cells tend to stretch in the same direction of orientation of the material microstructure. When this order does not happen, the most important factor influencing cell proliferation is the residual stress, indicated by the hardness of the material. This way the disks with the highest level state of residual stress also showed increased cell proliferation

Relevância:

20.00% 20.00%

Publicador:

Resumo:

MIPs are synthetic polymers that are used as biomimetic materials simulating the mechanism verified in natural entities such as antibodies and enzymes. Although MIPs have been successfully used as an outstanding tool for enhancing the selectivity or different analytical approaches, such as separation science and electrochemical and optical sensors, several parameters must be optimized during their synthesis. Therefore, the state-of-the-art of MIP production as well as the different polymerization methods are discussed. The potential selectivity of MIPs in the extraction and separation techniques focusing mainly on environmental, clinical and pharmaceutical samples as applications for analytical purposes is presented.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Surfactin, a lipopeptide produced by strains of Bacillus subtilis, has been proved to be a suitable biosurfactant in several applications. For many years, it has been investigated mainly for oil recovery and environmental usage. Its chemical, technological and functional characteristics turn surfactin into an attractive compound for several utilizations. In this review we emphasize some aspects of surfactin as a new food ingredient and its potential pharmaceutical and health applications.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This is a contribution that presents a translation of the work Terminology for Analytical Capillary Electromigration Techniques by Riekkola and collaborators (Pure Appl. Chem., Vol. 76, No. 2, 443-451, 2004) from IUPAC© for the Portuguese Language. Additional terms that had not been defined in native Portuguese were included for the benefit of the local community. Additional notes were also included to clarify some important concepts and to highlight the differences between techniques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Descriptors in multivariate image analysis applied to quantitative structure-activity relationship (MIA-QSAR) are pixels of bidimensional images of chemical structures (drawings), which were used to model the trichomonicidal activities of a series of benzimidazole derivatives. The MIA-QSAR model showed good predictive ability, with r², q² and r val. ext.² of 0.853, 0.519 and 0.778, respectively, which are comparable to the best values obtained by CoMFA e CoMSIA for the same series. A MIA-based analysis was also performed by using images of alphabetic letters with the corresponding numeric ordering as dependent variables, but no correlation was found, supporting that MIA-QSAR is not arbitrary.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Remotely sensed imagery has been widely used for land use/cover classification thanks to the periodic data acquisition and the widespread use of digital image processing systems offering a wide range of classification algorithms. The aim of this work was to evaluate some of the most commonly used supervised and unsupervised classification algorithms under different landscape patterns found in Rondônia, including (1) areas of mid-size farms, (2) fish-bone settlements and (3) a gradient of forest and Cerrado (Brazilian savannah). Comparison with a reference map based on the kappa statistics resulted in good to superior indicators (best results - K-means: k=0.68; k=0.77; k=0.64 and MaxVer: k=0.71; k=0.89; k=0.70 respectively for three areas mentioned). Results show that choosing a specific algorithm requires to take into account both its capacity to discriminate among various spectral signatures under different landscape patterns as well as a cost/benefit analysis considering the different steps performed by the operator performing a land cover/use map. it is suggested that a more systematic assessment of several options of implementation of a specific project is needed prior to beginning a land use/cover mapping job.