908 resultados para NIR spectroscopy. Hair. Forensic analysis. PCA. Nicotine
Resumo:
Allergies and food intolerances are at the forefront of institutional interest (European Regulation No 1169/2011) for their impact on consumer health. Allergies to peanuts and other nuts and gluten intolerance, makes production processes involving mixtures of powders a great concern for the industry, given the need to indicate the existence of traces of any of them. The food industry requires non-destructive and non-invasive methods of quantification that meet sensitivity requirements but also specificity levels. Optical methods such as NIR spectrophotometry or hyper-spectral image are currently some of the technologies that show potential success. This is the context of this paper that evaluates how to use NIR spectroscopy (900-1600nm) to detect traces of 15 different kinds of nuts and 20 other flours.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.
Resumo:
Averaged event-related potential (ERP) data recorded from the human scalp reveal electroencephalographic (EEG) activity that is reliably time-locked and phase-locked to experimental events. We report here the application of a method based on information theory that decomposes one or more ERPs recorded at multiple scalp sensors into a sum of components with fixed scalp distributions and sparsely activated, maximally independent time courses. Independent component analysis (ICA) decomposes ERP data into a number of components equal to the number of sensors. The derived components have distinct but not necessarily orthogonal scalp projections. Unlike dipole-fitting methods, the algorithm does not model the locations of their generators in the head. Unlike methods that remove second-order correlations, such as principal component analysis (PCA), ICA also minimizes higher-order dependencies. Applied to detected—and undetected—target ERPs from an auditory vigilance experiment, the algorithm derived ten components that decomposed each of the major response peaks into one or more ICA components with relatively simple scalp distributions. Three of these components were active only when the subject detected the targets, three other components only when the target went undetected, and one in both cases. Three additional components accounted for the steady-state brain response to a 39-Hz background click train. Major features of the decomposition proved robust across sessions and changes in sensor number and placement. This method of ERP analysis can be used to compare responses from multiple stimuli, task conditions, and subject states.
Resumo:
A method is given for determining the time course and spatial extent of consistently and transiently task-related activations from other physiological and artifactual components that contribute to functional MRI (fMRI) recordings. Independent component analysis (ICA) was used to analyze two fMRI data sets from a subject performing 6-min trials composed of alternating 40-sec Stroop color-naming and control task blocks. Each component consisted of a fixed three-dimensional spatial distribution of brain voxel values (a “map”) and an associated time course of activation. For each trial, the algorithm detected, without a priori knowledge of their spatial or temporal structure, one consistently task-related component activated during each Stroop task block, plus several transiently task-related components activated at the onset of one or two of the Stroop task blocks only. Activation patterns occurring during only part of the fMRI trial are not observed with other techniques, because their time courses cannot easily be known in advance. Other ICA components were related to physiological pulsations, head movements, or machine noise. By using higher-order statistics to specify stricter criteria for spatial independence between component maps, ICA produced improved estimates of the temporal and spatial extent of task-related activation in our data compared with principal component analysis (PCA). ICA appears to be a promising tool for exploratory analysis of fMRI data, particularly when the time courses of activation are not known in advance.
Resumo:
We have used self-assembled purines and pyrimidines on planar gold surfaces and on gold-coated atomic force microscope (AFM) tips to directly probe intermolecular hydrogen bonds. Electron spectroscopy for chemical analysis (ESCA) and thermal programmed desorption (TPD) measurements of the molecular layers suggested monolayer coverage and a desorption energy of about 25 kcal/mol. Experiments were performed under water, with all four DNA bases immobilized on AFM tips and flat surfaces. Directional hydrogen-bonding interaction between the tip molecules and the surface molecules could be measured only when opposite base-pair coatings were used. The directional interactions were inhibited by excess nucleotide base in solution. Nondirectional van der Waals forces were present in all other cases. Forces as low as two interacting base pairs have been measured. With coated AFM tips, surface chemistry-sensitive recognition atomic force microscopy can be performed.
Resumo:
Cocrystallization of the molecule of interest could be a smart and dainty way to tune solubility properties of solid phases leaving the molecule chemically unchanged, hence it is widely investigated by companies and by solid state scientists. Despite of this extremely high interest towards cocrystallization no particular emphasis has been paid to using it as a means to stabilize liquid molecules. In this work we define a benchmark of relevant molecules for human health that have been combined with suitable partners according to crystal engineering methods in order to obtain cocrystals. Solubility properties in different solvents of cocrystals new solid phases have been tested and compared to the properties of the drugs. A further approach to deal with volatile compounds is molecular confinement inside molecular scaffold. Nowadays metal organic frameworks (MOFs) are studied in many fields ranging from catalysis to trapping or storage of gases, such as hydrogen, methane, CO2 thanks to their extremely high porosity. Our goal is to confine liquid guests of biological relevance inside MOF pores, monitoring via X-ray diffraction, spectroscopy and thermal analysis the stabilization of the molecule of interest inside the cavities.
Resumo:
A cetamina é uma droga amplamente utilizada e o seu uso inadequado tem sido associado à graves consequências para a saúde humana. Embora as propriedades farmacológicas deste agente em doses terapêuticas sejam bem conhecidas, existem poucos estudos sobre os efeitos secundários induzidos por doses não-terapêuticas, incluindo os efeitos nos estados de ansiedade e agressividade. Neste contexto, os modelos animais são uma etapa importante na investigação e elucidação do mecanismo de ação a nível comportamental. O zebrafish (Danio rerio) é um novo organismo-modelo, interessante e promissor, uma vez que apresenta alta similaridade fisiológica, genética e neuroquímica com seres humanos, respostas comportamentais bem definidas e rápida absorção de compostos de interesse em meio aquoso além de apresentar uma série de vantagens em relação aos modelos mamíferos tais como manutenção de baixo custo, prática e executável em espaços reduzidos. Nesse sentido, faz-se necessário a execução de ensaios comportamentais em conjunto com análises estatísticas robustas e rápidas tais como ANOVA e Métodos Multivariados; e também o desenvolvimento de métodos analíticos sensíveis, precisos e rápidos para determinação de compostos de interesse em matrizes biológicas provenientes do animal. Os objetivos do presente trabalho foram a investigação dos efeitos da cetamina sobre a ansiedade e a agressividade em zebrafish adulto empregando Testes de Claro-Escuro e Testes do Espelho e métodos estatísticos univariados (ANOVA) e multivariados (PCA, HCA e SIMCA) assim como o desenvolvimento de método analítico para determinação da cetamina em matriz biológica proveniente do animal, empregando Extração Líquido-Líquido e Cromatografia em Fase Gasosa acoplada ao Detector de Nitrogênio-Fósforo (GC-NPD). Os resultados comportamentais indicaram que a cetamina produziu um efeito significativo dose-dependente em zebrafish adulto na latência à área clara, no número de cruzamentos entre as áreas e no tempo de exploração da área clara. Os resultados das análises SIMCA e PCA mostraram uma maior similaridade entre o grupo controle e os grupos de tratamento expostos às doses mais baixas (5 e 20 mg L-1) e entre os grupos expostos às doses de 40 e 60 mg L-1. Na análise por PCA, dois componentes principais responderam por 88,74% de toda a informação do sistema, sendo que 62,59% da informação cumulativa do sistema foi descrito pela primeira componente principal. As classificações HCA e SIMCA seguiram uma evolução lógica na distribuição das amostras por classes. As doses mais altas de cetamina induziram uma distribuição mais homogênea das amostras enquanto as doses mais baixas e o controle resultaram em distribuições mais dispersas. No Teste do Espelho, a cetamina não induziu efeitos significativos no comportamento dos animais. Estes resultados sugerem que a cetamina é modulador de comportamentos ansiosos, sem efeitos indutores de agressividade. Os resultados da validação do método cromatográfico indicaram uma extração com valores de recuperação entre 33,65% e 70,89%. A curva de calibração foi linear com valor de R2 superior a 0,99. O limite de detecção (LOD) foi de 1 ng e o limite de quantificação (LOQ) foi de 5 ng. A exatidão do método cromatográfico manteve-se entre - 24,83% e - 1,258%, a precisão intra-ensaio entre 2,67 e 14,5% e a precisão inter-ensaio entre 1,93 e 13,9%.
Resumo:
O estudo químico das folhas e dos frutos de P. richardiaefolium resultou no isolamento de oito lignanas, sendo duas lignanas furofurânicas (sesamina e kobusina), quatro lignanas dibenzilbutirolactônicas (hinokinina, kusunokinina, arctigenina e haplomirfolina), duas lignanas dibenzilbutirolactólicas (cubebina e 3,4- dimetoxi-3,4-desmetilenodioxicubebina), dois cinamatos de bornila (ferulato de bornila e cumarato de bornila) e na identificação de duas amidas (piplartina e diidropiplartina). Das folhas de P. richardiaefolium foi extraído e analisado o óleo volátil. As estruturas das substâncias isoladas foram identificadas através de métodos espectroscópicos (RMN de 1H e de 13C e espectrometria de massas). O estudo de análise de componentes principais (PCA) das espécies Piper (P. truncatum - k 616, P. richardiaefolium - k 290, P. richardiaefolium - k 350, P. richardiaefolium - k 593, P. truncatum - k 597, P. pseudopotifolium - k 598, P. richardiaefolium - k 854, P. richardiaefolium - k 610, P. truncatum - k 112, P. pseudopotifolium - k 211 e P. cernuum - k 137) permitiu agrupar as espécies em dois grandes grupos e quatro subgrupos em relação à similaridade entre elas. Ligninas do caule de seis espécies de Piper foram extraídas utilizando o método de degradação de Klason e método de Bjorkman, e analisadas por métodos espectroscópicos (IV, RMN de 1H e de 13C). O método de degradação por oxidação por nitrobenzeno foi o escolhido para determinar a relação entre os monolignóis siringila e guaiacila. Os principais metabólitos das espécies estudadas foram comparados com os tipos de ligninas das mesmas espécies e os resultados sugeriram uma independência entre as vias biossintéticas de ligninas e lignanas.
Resumo:
O presente trabalho tem como objetivo estudar a produção e caracterização de filmes finos do tipo GeO2-Bi2O3 (BGO) produzidos por sputtering-RF com e sem nanopartículas (NPs) semicondutoras, dopados e codopados com íons de Er3+ ou Er3+/Yb3+ para a produção de amplificadores ópticos. A produção de guias de onda do tipo pedestal baseados nos filmes BGO foi realizada a partir de litografia óptica seguida por processo de corrosão por plasma e deposição física a vapor. A incorporação dos íons de terras-raras (TRs) foi verificada a partir dos espectros de emissão. Análises de espectroscopia e microscopia foram indispensáveis para otimizar os parâmetros dos processos para a construção dos guias de onda. Foi observado aumento significativo da luminescência do Er3+ (região do visível e do infravermelho), em filmes finos codopados com Er3+/Yb3+ na presença de nanopartículas de Si. As perdas por propagação mínimas observadas foram de ~1,75 dB/cm para os guias pedestal em 1068 nm. Para os guias dopados com Er3+ foi observado aumento significativo do ganho na presença de NPs de silício (1,8 dB/cm). O ganho óptico nos guias de onda amplificadores codopados com Er3+/Yb3+ e dopados com Er3+ com e sem NPs de silício também foi medido. Ganho de ~8dB/cm em 1542 nm, sob excitação em 980 nm, foi observado para os guias pedestal codopados com Er3+/Yb3+ (Er = 4,64.1019 átomos/cm3, Yb = 3,60.1020 átomos/cm3) com largura de 80 µm; para os guias codopados com concentração superior de Er3+/Yb3+ (Er = 1,34.1021 átomos/cm3, Yb = 3,90.1021 átomos/cm3) e com NPs de Si, foi observado aumento do ganho óptico de 50% para guia com largura de 100 µm. Os resultados apresentados demonstram que guias de onda baseados em germanatos, com ou sem NPs semicondutoras, são promissores para aplicações em dispositivos fotônicos.
Resumo:
A nanotecnologia tem sido aplicada para o desenvolvimento de materiais para diversas aplicações inclusive na inativação de patógenos. As nanopartículas de sílica (npSi) destacam-se pela alta área superficial, facilidade na alteração da superfície para aumento da eficiência adsortiva, penetrabilidade e toxicidade para bactérias gram-negativas sendo biocompatíveis para células de mamíferos e mais foto-estáveis que a maioria dos compostos orgânicos. Devido as suas vantagens, as npSi podem ser usadas para veicular fotossensibilizadores (FSs) uma vez que permitem sua utilização em solução aquosa em que os FSs geralmente são insolúveis. Além disso, o uso de FSs em vez de antibióticos, permite a inativação microbiológica pela Terapia Fotodinâmica sem que as bactérias adquiram resistência por mecanismos genéticos. Esse processo ocorre pela interação entre um FS, luz e oxigênio molecular produzindo oxigênio singleto que é extremamente reativo danificando estruturas celulares. O objetivo desse estudo foi otimizar a fotoinativação dinâmica de E .coli utilizando Azul de Metileno (AM) e Azul de Toluidina O (ATO) veiculados por npSi. As npSi foram preparadas pela metodologia sol-gel, caracterizadas por microscopia eletrônica de varredura (MEV) e submetidas à adsorção de AM e ATO em sua superfície. A presença de AM e ATO na superfície das npSi foram analisadas por espectroscopia no infravermelho; espectroscopia de fluorescência por raio-X e análise termogravimétrica. O planejamento experimental, iniciado pelo fatorial 23 e modelado ao composto central em busca das condições ótimas foi adotado pela primeira vez nessa aplicabilidade, visando a fotoinativação de E. coli empregando AM e ATO em solução e em seguida com npSi. AM e ATO veiculados por npSi permitem a fotoinativação em concentrações mais baixas de FS (20 e 51% respectivamente), causando desestruturação da integridade bacteriana demonstrada por MEV. Os resultados sugerem que a veiculação de AM e ATO por npSi é extremamente efetiva para a fotoinativação dinâmica de E. coli e que o planejamento composto central pode levar à completa inativação das bactérias.
Resumo:
Este trabalho tem como intuito propor um modelo de inovação para a indústria da moda feminina. O modelo visa compreender o comportamento de estilos e tendências determinados e difundidos pelas empresas. A construção deste modelo é justificada pela contribuição que um estudo sobre inovação pode proporcionar à indústria da moda, a qual enfrenta baixos padrões de competitividade no mercado externo e interno. Além disso, embora existam muitos artigos sobre o assunto, poucos foram os modelos de inovação para a indústria da moda encontrados por esta pesquisa. Uma avaliação destes modelos indicou que existe espaço para a proposta de um modelo que aborde o comportamento de estilos e tendências ao longo do tempo. A estrutura de composição do modelo é sustentada por três pilares conceituais: teoria econômica neoschumpeteriana, modelos de inovação e modelos de inovação para a indústria da moda. A característica central do modelo é avaliar se existem estilos que permanecem em moda de maneira contínua ou descontínua. Como existe similaridade conceitual entre os estilos, no que se refere à identidade de gênero (androginia e feminilidade), foi efetuada uma aglutinação de alguns estilos dentro desta denominação. Nem todos os estilos se encaixaram nesta classificação. Então, estes estilos foram denominados como neutros. Como a pesquisa tem abordagem fenomenológica, qualitativa e longitudinal, foi adotada a metodologia hipotética dedutiva para a construção do modelo. Para verificação da validade das hipóteses foi usada uma análise exploratória dos dados por meio de estatística descritiva e decomposição da estrutura de variabilidade através de uma análise de componentes principais (PCA). Ambas as análises forneceram evidências a respeito das hipóteses em questão, as quais também foram testadas através de um teste binomial e de uma análise de variância multivariada por meio de permutações. Os resultados comprovaram que existem estilos que permanecem em moda de maneira contínua e que existem períodos de polarização das aglutinações de estilo.
Resumo:
This paper deals with the stabilisation of low softening point pitch fibres obtained from petroleum pitches using HNO3 as oxidising agent. This method presents some advantages compared with conventional methods: pitches with low softening point (SP) can be used to prepare carbon fibres (CF), the stabilisation time has been reduced, the CF yields are similar to those obtained after general methods of stabilisation, and the initial treatments to increase SP when low SP pitches are used to prepare CF, are avoided. The parent pitches were characterised by different techniques such as diffuse reflectance infrared Fourier transform spectroscopy (DRIFTS), elemental analysis and solvent extraction with toluene and quinoline. The interaction between HNO3 and the pitch fibres, as well as the changes occurring during the heat treatment, have been followed by DRIFTS.
Resumo:
Colors of special-effect coatings have strong dependence on illumination/viewing geometry and an appealing appearance. An open question is to ask about the minimum number of measurement geometries required to completely characterize their observed color shift. A recently published principal components analysis (PCA)-based procedure to estimate the color of special-effect coatings at any geometry from measurements at a reduced set of geometries was tested in this work by using the measurement geometries of commercial portable multiangle spectrophotometers X-Rite MA98, Datacolor FX10, and BYK-mac as reduced sets. The performance of the proposed PCA procedure for the color-shift estimation for these commercial geometries has been examined for 15 special-effect coatings. Our results suggest that for rendering the color appearance of 3D objects covered with special-effect coatings, the color accuracy obtained with this procedure may be sufficient. This is the case especially if geometries of X-Rite MA98 or Datacolor FX10 are used.
Resumo:
The low temperature water–gas shift (WGS) reaction has been studied over carbon-supported nickel catalysts promoted by ceria. To this end, cerium oxide has been dispersed (at different loadings: 10, 20, 30 and 40 wt.%) on the activated carbon surface with the aim of obtaining small ceria particles and a highly available surface area. Furthermore, carbon- and ceria-supported nickel catalysts have also been studied as references. A combination of N2 adsorption analysis, powder X-ray diffraction, temperature-programmed reduction with H2, X-ray photoelectron spectroscopy and TEM analysis were used to characterize the Ni–CeO2 interactions and the CeO2 dispersion over the activated carbon support. Catalysts were tested in the low temperature WGS reaction with two different feed gas mixtures: the idealized one (with only CO and H2O) and a slightly harder one (with CO, CO2, H2, and H2O). The obtained results show that there is a clear effect of the ceria loading on the catalytic activity. In both cases, catalysts with 20 and 10 wt.% CeO2 were the most active materials at low temperature. On the other hand, Ni/C shows a lower activity, this assessing the determinant role of ceria in this reaction. Methane, a product of side reactions, was observed in very low amounts, when CO2 and H2 were included in the WGS feed. Nevertheless, our data indicate that the methanation process is mainly due to CO2, and no CO consumption via methanation takes place at the relevant WGS temperatures. Finally, a stability test was carried out, obtaining CO conversions greater than 40% after 150 h of reaction.
Resumo:
A new methodology is proposed to produce subsidence activity maps based on the geostatistical analysis of persistent scatterer interferometry (PSI) data. PSI displacement measurements are interpolated based on conditional Sequential Gaussian Simulation (SGS) to calculate multiple equiprobable realizations of subsidence. The result from this process is a series of interpolated subsidence values, with an estimation of the spatial variability and a confidence level on the interpolation. These maps complement the PSI displacement map, improving the identification of wide subsiding areas at a regional scale. At a local scale, they can be used to identify buildings susceptible to suffer subsidence related damages. In order to do so, it is necessary to calculate the maximum differential settlement and the maximum angular distortion for each building of the study area. Based on PSI-derived parameters those buildings in which the serviceability limit state has been exceeded, and where in situ forensic analysis should be made, can be automatically identified. This methodology has been tested in the city of Orihuela (SE Spain) for the study of historical buildings damaged during the last two decades by subsidence due to aquifer overexploitation. The qualitative evaluation of the results from the methodology carried out in buildings where damages have been reported shows a success rate of 100%.