957 resultados para first-order paraconsistent logic
Resumo:
This work investigates the solar heterogeneous photocatalytic degradation of three commercial acid dyes: Blue 9 (C.I. 42090), Red 51 (C.I. 45430), and Yellow 23 (C.I. 19140). TiO(2) P25 from Degussa was used as the photocatalyst. The dyes were completely degraded within 120 min of treatment in the following increasing order of removal rate: Blue 9 < Yellow 23 < Red 51. The photocatalytic color removal process was well described by a two-first-order in-series reaction, followed by another first-order reaction. Photolytic experiments showed that this process is quite inefficient and highly selective towards Red 51 only. The dyes` solution was completely decolorized and organic matter removals up to 99% were achieved with photocatalysis. The lack of selectivity and the possibility of using solar light to excite the photocatalyst are promising results regarding the feasibility of this technology.
Resumo:
This work assesses the photocatalytic (TiO(2)/UV) degradation of a simulated reactive dye bath (Black 5, Red 239, Yellow 17, and auxiliary chemicals). Color removal was monitored by spectrophotometry. Mineralization was determined by DOC analyses. Photocatalytic, photolytic, and adsorption experiments were performed, showing that adsorption was negligible. After 30 min of irradiation, it was achieved 97% and 40% of color removal with photocatalysis and photolysis, respectively. No mineralization occurred within 30 min. A kinetic model composed of two, first-order in-series reactions was used. The first photocatalytic decolorization rate constant was k(1) = 2.6 min(-1) and the second k(2) = 0.011 min(-1). The fast decolorization of Reactive Black 5 dye is an indication that the number of azo and vinylsulfone groups in the dye molecule maybe a determining factor for the increased photolytic and photocatalytic color removal and degradation rates. (C) 2008 Elsevier B.V. All rights reserved.
Resumo:
In this project, two broad facets in the design of a methodology for performance optimization of indexable carbide inserts were examined. They were physical destructive testing and software simulation.For the physical testing, statistical research techniques were used for the design of the methodology. A five step method which began with Problem definition, through System identification, Statistical model formation, Data collection and Statistical analyses and results was indepthly elaborated upon. Set-up and execution of an experiment with a compression machine together with roadblocks and possible solution to curb road blocks to quality data collection were examined. 2k factorial design was illustrated and recommended for process improvement. Instances of first-order and second-order response surface analyses were encountered. In the case of curvature, test for curvature significance with center point analysis was recommended. Process optimization with method of steepest ascent and central composite design or process robustness studies of response surface analyses were also recommended.For the simulation test, AdvantEdge program was identified as the most used software for tool development. Challenges to the efficient application of this software were identified and possible solutions proposed. In conclusion, software simulation and physical testing were recommended to meet the objective of the project.
Resumo:
For first-order Horn clauses without equality, resolution is complete with an arbitrary selection of a single literal in each clause [dN 96]. Here we extend this result to the case of clauses with equality for superposition-based inference systems. Our result is a generalization of the result given in [BG 01]. We answer their question about the completeness of a superposition-based system for general clauses with an arbitrary selection strategy, provided there exists a refutation without applications of the factoring inference rule.
Resumo:
A sound and complete first-order goal-oriented sequent-type calculus is developed with ``large-block'' inference rules. In particular, the calculus contains formal analogues of such natural proof-search techniques as handling definitions and applying auxiliary propositions.
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.
Resumo:
Consider the demand for a good whose consumption be chosen prior to the resolution of uncertainty regarding income. How do changes in the distribution of income affect the demand for this good? In this paper we show that normality, is sufficient to guarantee that consumption increases of the Radon-Nikodym derivative of the new distribution with respect to the old is non-decreasing in the whole domain. However, if only first order stochastic dominance is assumed more structure must be imposed on preferences to guanantee the validity of the result. Finally a converse of the first result also obtains. If the change in measure is characterized by non-decreasing Radon-Nicodyn derivative, consumption of such a good will always increase if and only if the good is normal.
Resumo:
Bellman's methods for dynamic optimization constitute the present mainstream in economics. However, some results associated with optimal controI can be particularly usefuI in certain problems. The purpose of this note is presenting such an example. The value function derived in Lucas' (2000) shopping-time economy in Infiation and Welfare need not be concave, leading this author to develop numerical analyses to determine if consumer utility is in fact maximized along the balanced path constructed from the first order conditions. We use Arrow's generalization of Mangasarian's results in optimal control theory and develop sufficient conditions for the problem. The analytical conclusions and the previous numerical results are compatible .
Resumo:
This work adds to Lucas (2000) by providing analytical solutions to two problems that are solved only numerically by the author. The first part uses a theorem in control theory (Arrow' s sufficiency theorem) to provide sufficiency conditions to characterize the optimum in a shopping-time problem where the value function need not be concave. In the original paper the optimality of the first-order condition is characterized only by means of a numerical analysis. The second part of the paper provides a closed-form solution to the general-equilibrium expression of the welfare costs of inflation when the money demand is double logarithmic. This closed-form solution allows for the precise calculation of the difference between the general-equilibrium and Bailey's partial-equilibrium estimates of the welfare losses due to inflation. Again, in Lucas's original paper, the solution to the general-equilibrium-case underlying nonlinear differential equation is done only numerically, and the posterior assertion that the general-equilibrium welfare figures cannot be distinguished from those derived using Bailey's formula rely only on numerical simulations as well.
Resumo:
We establish a general Lagrangian for the moral hazard problem which generalizes the well known first order approach (FOA). It requires that besides the multiplier of the first order condition, there exist multipliers for the second order condition and for the binding actions of the incentive compatibility constraint. Some examples show that our approach can be useful to treat the finite and infinite state space cases. One of the examples is solved by the second order approach. We also compare our Lagrangian with 1\1irrlees'.
Resumo:
A contractive method for computing stationary solutions of intertemporal equilibrium models is provide. The method is is implemented using a contraction mapping derived from the first-order conditions. The deterministic dynamic programming problem is used to illustrate the method. Some numerical examples are performed.
Resumo:
Este artigo investiga versões do modelo de passeio aleatório dos preços de ativos em diversos horizontes de tempo, para carteiras diversificadas de ações no mercado brasileiro. Evidências contrárias a tal modelo são observadas nos horizontes diário e semanal, caracterizados por persistência. As evidências são mais fracas em períodos mais recentes. Encontramos também sazonalidades diárias, incluindo o efeito segunda-feira, e mensais. Adicionalmente, um padrão de assimetria de autocorrelações cruzadas de primeira ordem entre os retornos de carteiras de firmas agrupadas segundo seu tamanho também é observado, indicando no caso de retornos diários e semanais que retornos de firmas grandes ajudam a prever retornos de firmas pequenas. Evidências de não linearidades nos retornos são observadas em diversos horizontes de tempo.
Resumo:
We establish a general Lagrangian for the moral hazard problem which generalizes the well known first order approach (FOA). It requires that besides the multiplier of the first order condition, there exist multipliers for the second order condition and for the binding actions of the incentive compatibility constraint. Some examples show that our approach can be useful to treat the finite and infinite state space cases. One of the examples is solved by the second order approach. We also compare our Lagrangian with 1\1irrlees'.
Resumo:
Neste estudo são analisados, através de técnicas de dados em painel, os fatores determinantes dos níveis de ativos líquidos de empresas abertas do Brasil, Argentina, Chile, México e Peru no período de 1995 a 2009. O índice utilizado nas modelagens é denominado de ativo líquido (ou simplesmente caixa), o qual inclui os recursos disponíveis em caixa e as aplicações financeiras de curto prazo, divididos pelo total de ativos da firma. É possível identificar uma tendência crescente de acúmulo de ativos líquidos como proporção do total de ativos ao longo dos anos em praticamente todos os países. São encontradas evidências de que empresas com maiores oportunidades de crescimento, maior tamanho (medido pelo total de ativos), maior nível de pagamento de dividendos e maior nível de lucratividade, acumulam mais caixa na maior parte dos países analisados. Da mesma forma, empresas com maiores níveis de investimento em ativo imobilizado, maior geração de caixa, maior volatilidade do fluxo de caixa, maior alavancagem e maior nível de capital de giro, apresentam menor nível de acúmulo de ativos líquidos. São identificadas semelhanças de fatores determinantes de liquidez em relação a estudos empíricos com empresas de países desenvolvidos, bem como diferenças devido a fenômenos particulares de países emergentes, como por exemplo elevadas taxas de juros internas, diferentes graus de acessibilidade ao mercado de crédito internacional e a linhas de crédito de agências de fomento, equity kicking, entre outros. Em teste para a base de dados das maiores firmas do Brasil, é identificada a presença de níveis-alvo de caixa através de modelo auto-regressivo de primeira ordem (AR1). Variáveis presentes em estudos mais recentes com empresas de países desenvolvidos como aquisições, abertura recente de capital e nível de governança corporativa também são testadas para a base de dados do Brasil.