861 resultados para ARTIFICIAL NEURAL-NETWORKS
Resumo:
In high speed manufacturing systems, continuous operation is desirable, with minimal disruption for repairs and service. An intelligent diagnostic monitoring system, designed to detect developing faults before catastrophic failure, or prior to undesirable reduction in output quality, is a good means of achieving this. Artificial neural networks have already been found to be of value in fault diagnosis of machinery. The aim here is to provide a system capable of detecting a number of faults, in order that maintenance can be scheduled in advance of sudden failure, and to reduce the necessity to replace parts at intervals based on mean time between failures. Instead, parts will need to be replaced only when necessary. Analysis of control information in the form of position error data from two servomotors is described.
Resumo:
This article presents SPARE-ICE, the Synergistic Passive Atmospheric Retrieval Experiment-ICE. SPARE-ICE is the first Ice Water Path (IWP) product combining infrared and microwave radiances. By using only passive operational sensors, the SPARE-ICE retrieval can be used to process data from at least the NOAA 15 to 19 and MetOp satellites, obtaining time series from 1998 onward. The retrieval is developed using collocations between passive operational sensors (solar, terrestrial infrared, microwave), the CloudSat radar, and the CALIPSO lidar. The collocations form a retrieval database matching measurements from passive sensors against the existing active combined radar-lidar product 2C-ICE. With this retrieval database, we train a pair of artificial neural networks to detect clouds and retrieve IWP. When considering solar, terrestrial infrared, and microwave-based measurements, we show that any combination of two techniques performs better than either single-technique retrieval. We choose not to include solar reflectances in SPARE-ICE, because the improvement is small, and so that SPARE-ICE can be retrieved both daytime and nighttime. The median fractional error between SPARE-ICE and 2C-ICE is around a factor 2, a figure similar to the random error between 2C-ICE ice water content (IWC) and in situ measurements. A comparison of SPARE-ICE with Moderate Resolution Imaging Spectroradiometer (MODIS), Pathfinder Atmospheric Extended (PATMOS-X), and Microwave Surface and Precipitation Products System (MSPPS) indicates that SPARE-ICE appears to perform well even in difficult conditions. SPARE-ICE is available for public use.
Resumo:
We explore the prospects of predicting emission-line features present in galaxy spectra given broad-band photometry alone. There is a general consent that colours, and spectral features, most notably the 4000 angstrom break, can predict many properties of galaxies, including star formation rates and hence they could infer some of the line properties. We argue that these techniques have great prospects in helping us understand line emission in extragalactic objects and might speed up future galaxy redshift surveys if they are to target emission-line objects only. We use two independent methods, Artificial Neural Networks (based on the ANNz code) and Locally Weighted Regression (LWR), to retrieve correlations present in the colour N-dimensional space and to predict the equivalent widths present in the corresponding spectra. We also investigate how well it is possible to separate galaxies with and without lines from broad-band photometry only. We find, unsurprisingly, that recombination lines can be well predicted by galaxy colours. However, among collisional lines some can and some cannot be predicted well from galaxy colours alone, without any further redshift information. We also use our techniques to estimate how much information contained in spectral diagnostic diagrams can be recovered from broad-band photometry alone. We find that it is possible to classify active galactic nuclei and star formation objects relatively well using colours only. We suggest that this technique could be used to considerably improve redshift surveys such as the upcoming Fibre Multi Object Spectrograph (FMOS) survey and the planned Wide Field Multi Object Spectrograph (WFMOS) survey.
Resumo:
We present a catalogue of galaxy photometric redshifts and k-corrections for the Sloan Digital Sky Survey Data Release 7 (SDSS-DR7), available on the World Wide Web. The photometric redshifts were estimated with an artificial neural network using five ugriz bands, concentration indices and Petrosian radii in the g and r bands. We have explored our redshift estimates with different training sets, thus concluding that the best choice for improving redshift accuracy comprises the main galaxy sample (MGS), the luminous red galaxies and the galaxies of active galactic nuclei covering the redshift range 0 < z < 0.3. For the MGS, the photometric redshift estimates agree with the spectroscopic values within rms = 0.0227. The distribution of photometric redshifts derived in the range 0 < z(phot) < 0.6 agrees well with the model predictions. k-corrections were derived by calibration of the k-correct_v4.2 code results for the MGS with the reference-frame (z = 0.1) (g - r) colours. We adopt a linear dependence of k-corrections on redshift and (g - r) colours that provide suitable distributions of luminosity and colours for galaxies up to redshift z(phot) = 0.6 comparable to the results in the literature. Thus, our k-correction estimate procedure is a powerful, low computational time algorithm capable of reproducing suitable results that can be used for testing galaxy properties at intermediate redshifts using the large SDSS data base.
Resumo:
Some sesquiterpene lactones (SLs) are the active compounds of a great number of traditionally medicinal plants from the Asteraceae family and possess considerable cytotoxic activity. Several studies in vitro have shown the inhibitory activity against cells derived from human carcinoma of the nasopharynx (KB). Chemical studies showed that the cytotoxic activity is due to the reaction of alpha,beta-unsaturated carbonyl structures of the SLs with thiols, such as cysteine. These studies support the view that SLs inhibit tumour growth by selective alkylation of growth-regulatory biological macromolecules, such as key enzymes, which control cell division, thereby inhibiting a variety of cellular functions, which directs the cells into apoptosis. In this study we investigated a set of 55 different sesquiterpene lactones, represented by 5 skeletons (22 germacranolides, 6 elemanolides, 2 eudesmanolides, 16 guaianolides and nor-derivatives and 9 pseudoguaianolides), in respect to their cytotoxic properties. The experimental results and 3D molecular descriptors were submitted to Kohonen self-organizing map (SOM) to classify (training set) and predict (test set) the cytotoxic activity. From the obtained results, it was concluded that only the geometrical descriptors showed satisfactory values. The Kohonen map obtained after training set using 25 geometrical descriptors shows a very significant match, mainly among the inactive compounds (similar to 84%). Analyzing both groups, the percentage seen is high (83%). The test set shows the highest match, where 89% of the substances had their cytotoxic activity correctly predicted. From these results, important properties for the inhibition potency are discussed for the whole dataset and for subsets of the different structural skeletons. (C) 2008 Elsevier Masson SAS. All rights reserved.
Resumo:
This work aims at combining the Chaos theory postulates and Artificial Neural Networks classification and predictive capability, in the field of financial time series prediction. Chaos theory, provides valuable qualitative and quantitative tools to decide on the predictability of a chaotic system. Quantitative measurements based on Chaos theory, are used, to decide a-priori whether a time series, or a portion of a time series is predictable, while Chaos theory based qualitative tools are used to provide further observations and analysis on the predictability, in cases where measurements provide negative answers. Phase space reconstruction is achieved by time delay embedding resulting in multiple embedded vectors. The cognitive approach suggested, is inspired by the capability of some chartists to predict the direction of an index by looking at the price time series. Thus, in this work, the calculation of the embedding dimension and the separation, in Takens‘ embedding theorem for phase space reconstruction, is not limited to False Nearest Neighbor, Differential Entropy or other specific method, rather, this work is interested in all embedding dimensions and separations that are regarded as different ways of looking at a time series by different chartists, based on their expectations. Prior to the prediction, the embedded vectors of the phase space are classified with Fuzzy-ART, then, for each class a back propagation Neural Network is trained to predict the last element of each vector, whereas all previous elements of a vector are used as features.
Resumo:
This study presents an approach to combine uncertainties of the hydrological model outputs predicted from a number of machine learning models. The machine learning based uncertainty prediction approach is very useful for estimation of hydrological models' uncertainty in particular hydro-metrological situation in real-time application [1]. In this approach the hydrological model realizations from Monte Carlo simulations are used to build different machine learning uncertainty models to predict uncertainty (quantiles of pdf) of the a deterministic output from hydrological model . Uncertainty models are trained using antecedent precipitation and streamflows as inputs. The trained models are then employed to predict the model output uncertainty which is specific for the new input data. We used three machine learning models namely artificial neural networks, model tree, locally weighted regression to predict output uncertainties. These three models produce similar verification results, which can be improved by merging their outputs dynamically. We propose an approach to form a committee of the three models to combine their outputs. The approach is applied to estimate uncertainty of streamflows simulation from a conceptual hydrological model in the Brue catchment in UK and the Bagmati catchment in Nepal. The verification results show that merged output is better than an individual model output. [1] D. L. Shrestha, N. Kayastha, and D. P. Solomatine, and R. Price. Encapsulation of parameteric uncertainty statistics by various predictive machine learning models: MLUE method, Journal of Hydroinformatic, in press, 2013.
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).
Resumo:
Em economias com regimes de metas de inflação é comum que Bancos Centrais intervenham para reduzir os níveis de volatilidade do dólar, sendo estas intervenções mais comuns em países não desenvolvidos. No caso do Brasil, estas intervenções acontecem diretamente no mercado à vista, via mercado de derivativos (através de swaps cambiais) ou ainda com operações a termo, linhas de liquidez e via empréstimos. Neste trabalho mantemos o foco nas intervenções no mercado à vista e de derivativos pois estas representam o maior volume financeiro relacionado à este tipo de atuação oficial. Existem diversos trabalhos que avaliam o impacto das intervenções e seus graus de sucesso ou fracasso mas relativamente poucos que abordam o que levaria o Banco Central do Brasil (BCB) a intervir no mercado. Tentamos preencher esta lacuna avaliando as variáveis que podem se relacionar às intervenções do BCB no mercado de câmbio e adicionalmente verificando se essas variáveis se relacionam diferentemente com as intervenções de venda e compra de dólares. Para tal, além de utilizarmos regressões logísticas, como na maioria dos trabalhos sobre o tema, empregamos também a técnica de redes neurais, até onde sabemos inédita para o assunto. O período de estudo vai de 2005 a 2012, onde o BCB interveio no mercado de câmbio sob demanda e não de forma continuada por longos períodos de tempo, como nos anos mais recentes. Os resultados indicam que algumas variáveis são mais relevantes para o processo de intervenção vendendo ou comprando dólares, com destaque para a volatilidade implícita do câmbio nas intervenções que envolvem venda de dólares, resultado este alinhado com outros trabalhos sobre o tema.