987 resultados para APPROXIMATIONS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As grandes Revoluções que a história oficial relata apresentam um aspecto comum: a evolução do processo de comunicação aliada à evolução tecnológica. A partir do Século XX, as informações passaram a circular em número e em velocidade escalares. A interdependência e a interligação dos países, nações e pessoas estreitaram-se, pois a mobilidade no espaço virtual, progressivamente, relativiza as distâncias e os espaços geofísicos. Todavia, a avalanche de conhecimento, de aprimoramento científico e de desenvolvimento econômico parece não ser suficiente para responder, concretamente, as questões que ainda assolam a humanidade. Neste cenário, o presente trabalho tem por objetivo aproximar a concepção de ser humano para discentes do curso de administração com as categorias existenciais presentes no pensamento de Edith Stein, por meio dos objetivos específicos: Compreender o que é ser humano para o discente do curso de administração em uma IES Confessional do ABC Paulista; descrever o que é ser humano a partir do pensamento fenomenológico de Edith Stein; buscar convergências, divergências e/ou idiossincrasias entre os relatos de discentes do curso de administração em uma IES Confessional do ABC Paulista e o pensamento de Edith Stein. Para tal, foram colhidos cinco relatos de discentes de administração, por meio dos quais foram feitas aproximações, convergências-divergências com as categorias analíticas da concepção de ser humano no pensamento de Edith Stein para cada sujeito, tendo como questão norteadora: o que é ser humano para você ? Após a coleta, as entrevistas foram analisadas tendo como referência os trabalhos de Edith Stein (fenomenologia eidética), Castro (2003), Flauzino (2012) e Estanislau (2010), cumprindo as seguintes etapas: literalização dos relatos ingênuos, levantamento das unidades de sentido, levantamento e análise fenomenológica das categorias, as quais possibilitaram o diálogo intersubjetivo e objetivo com os pressupostos teóricos sobre o tema em pauta. Categorias estas denominadas de: 1. Corpo Físico e Corpo Vivente; 2. Espírito; Sujeito Psicofísico; 3. Comunidade. A partir da análise das categorias, observou-se que a concepção de ser humano conflui para a unidade do ser, ser este que é composto por corpo vivente, psique e espírito, de forma a possibilitar relações com o outro e com o ambiente. Não é possível ser humano sem um encontro com o outro, sem o respeito mútuo, sem a liberdade de ser o que se é. Emerge a dos relatos a dimensão comunitária, somente na qual se é possível realizar a humanidade, por meio de atos de liberdade, respeito e de compaixão. Desvelou-se também dentro destes relatos, que quando se é humano, a vida em seu todo é realizada de forma harmoniosa. Poder-se-á, então, por meio do revelar-se do fenômeno, obter uma nova forma de olhar, de pensar e questionar as práticas vivenciadas na Administração, contribuindo com a formação de uma massa crítica para as ciências sociais aplicadas da administração, ao refletir sobre o que há de mais estruturante e nuclear no discente de administração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Folia de Reis, uma procissão da cultura popular, recria as liturgias oficiais a partir da transgressão dos valores instituídos. A performance dos foliões é objeto de estudo para se refletir sobre os papéis sociais e sobre a experiência do sagrado, com vistas às transformações subjetivas de grande impacto entre os membros da comunidade que buscam a cura, assim como sanar o sofrimento da vida cotidiana. Este aspecto soteriológico é abordado a partir de dois campos teóricos que vêm em diálogo. De um lado a filosofia, a partir da fenomenologia da religião e a hermenêutica, aqui representadas por Paul Ricoeur e Mircea Eliade. Por outro, a antropologia e as teorias teatrais, aqui presentes em nomes como Richard Schechner, Victor Turner, Eugenio Barba, entre outros. Estas duas vertentes teóricas dialogam a partir de uma metodologia inspirada em Paul Ricoeur, pois partimos do conceito de tríplice mimese como estrutura discursiva. Partindo do mundo prévio ou pré-figuração, passando pelo mundo da ficção ou configuração e, por fim, chegando ao mundo da vida ou refiguração (mundo do leitor). Neste quadro teórico encontramos aproximações e distâncias que possibilitaram rearranjar novas abordagens teóricas, que contribuem muito para analisar a Folia de Reis, a partir deste mundo teórico, abrindo novas perspectivas para sua compreensão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho de pesquisa parte do pressuposto de que o Evangelho de Mateus é um documento literário produzido no final do século I EC, em algum ambiente urbano do antigo Mundo Mediterrâneo, e que se diferencia dos demais evangelhos do Novo Testamento pela ênfase econômica presente em sua linguagem e conteúdo. Procura-se demonstrar a importância dessa particularidade para o desenvolvimento do próprio discurso mateano e para compreendê-lo, trata das proximidades que há entre esse discurso e os modelos socioeconômicos conhecidos no mundo real dos grandes centros urbanos de então. Dessa pesquisa conclui-se que o autor de Mateus se insere num debate abrangente entre os judaísmos do período, que mantinham relações conflituosas com a cultura Greco-romana e a própria herança cultural. Mateus, em especial, rejeita a apropriação plena dos padrões clientelistas para as relações interpessoais dos discípulos de Jesus ao mesmo tempo que se apropria desse modelo socioeconômico estrangeiro para desenvolver seu imaginário religioso. Defende-se que em Mateus, Deus assume, como personagem, as características de um patrono divino que protege e beneficia seus fieis clientes, que em retribuição deviam praticar boas obras para com os pobres. Em contrapartida a essa relação religiosa vertical que é desejável, o evangelho rejeita os vínculos clientelistas que hierarquizam os seres humanos, vendo-as também como traição àquele primeiro e soberano patrono.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crítica da religião é um tema recorrente no pensamento moderno e aparece até mesmo na teologia desse período. Nesse contexto, o presente estudo procura comparar a crítica da religião no pensamento de Karl Barth e Dietrich Bonhoeffer. Para tanto, a dissertação está organizada em quatro partes principais. Inicialmente, é feita uma contextualização da concepção ocidental de religião e sua crítica moderna, inclusive no âmbito teológico. A seguir são descritas a concepção e a crítica da religião no pensamento de Barth e Bonhoeffer. Finalmente, é realizada uma comparação entre ambos, que procura delinear aproximações e distanciamentos da crítica da religião desses dois teólogos. De maneira ampla, as duas críticas apontam distorções do Cristianismo e indicam propostas de restauração. Como chave geral de comparação está a percepção de que Barth critica a religião n a perspectiva da revelação enquanto Bonhoeffer faz sua crítica na perspectiva da vida.(AU)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The performance of seven minimization algorithms are compared on five neural network problems. These include a variable-step-size algorithm, conjugate gradient, and several methods with explicit analytic or numerical approximations to the Hessian.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper reports preliminary progress on a principled approach to modelling nonstationary phenomena using neural networks. We are concerned with both parameter and model order complexity estimation. The basic methodology assumes a Bayesian foundation. However to allow the construction of pragmatic models, successive approximations have to be made to permit computational tractibility. The lowest order corresponds to the (Extended) Kalman filter approach to parameter estimation which has already been applied to neural networks. We illustrate some of the deficiencies of the existing approaches and discuss our preliminary generalisations, by considering the application to nonstationary time series.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A new approach to optimisation is introduced based on a precise probabilistic statement of what is ideally required of an optimisation method. It is convenient to express the formalism in terms of the control of a stationary environment. This leads to an objective function for the controller which unifies the objectives of exploration and exploitation, thereby providing a quantitative principle for managing this trade-off. This is demonstrated using a variant of the multi-armed bandit problem. This approach opens new possibilities for optimisation algorithms, particularly by using neural network or other adaptive methods for the adaptive controller. It also opens possibilities for deepening understanding of existing methods. The realisation of these possibilities requires research into practical approximations of the exact formalism.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Bayesian analysis of neural networks is difficult because the prior over functions has a complex form, leading to implementations that either make approximations or use Monte Carlo integration techniques. In this paper I investigate the use of Gaussian process priors over functions, which permit the predictive Bayesian analysis to be carried out exactly using matrix operations. The method has been tested on two challenging problems and has produced excellent results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This technical report contains all technical information and results from experiments where Mixture Density Networks (MDN) using an RBF network and fixed kernel means and variances were used to infer the wind direction from satellite data from the ersII weather satellite. The regularisation is based on the evidence framework and three different approximations were used to estimate the regularisation parameter. The results were compared with the results by `early stopping'.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We show the similarity between belief propagation and TAP, for decoding corrupted messages encoded by Sourlas's method. The latter is a special case of the Gallager error- correcting code, where the code word comprises products of K bits selected randomly from the original message. We examine the efficacy of solutions obtained by the two methods for various values of K and show that solutions for K>=3 may be sensitive to the choice of initial conditions in the case of unbiased patterns. Good approximations are obtained generally for K=2 and for biased patterns in the case of K>=3, especially when Nishimori's temperature is being used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A major problem in modern probabilistic modeling is the huge computational complexity involved in typical calculations with multivariate probability distributions when the number of random variables is large. Because exact computations are infeasible in such cases and Monte Carlo sampling techniques may reach their limits, there is a need for methods that allow for efficient approximate computations. One of the simplest approximations is based on the mean field method, which has a long history in statistical physics. The method is widely used, particularly in the growing field of graphical models. Researchers from disciplines such as statistical physics, computer science, and mathematical statistics are studying ways to improve this and related methods and are exploring novel application areas. Leading approaches include the variational approach, which goes beyond factorizable distributions to achieve systematic improvements; the TAP (Thouless-Anderson-Palmer) approach, which incorporates correlations by including effective reaction terms in the mean field theory; and the more general methods of graphical models. Bringing together ideas and techniques from these diverse disciplines, this book covers the theoretical foundations of advanced mean field methods, explores the relation between the different approaches, examines the quality of the approximation obtained, and demonstrates their application to various areas of probabilistic modeling.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Iterative multiuser joint decoding based on exact Belief Propagation (BP) is analyzed in the large system limit by means of the replica method. It is shown that performance can be improved by appropriate power assignment to the users. The optimum power assignment can be found by linear programming in most technically relevant cases. The performance of BP iterative multiuser joint decoding is compared to suboptimum approximations based on Interference Cancellation (IC). While IC receivers show a significant loss for equal-power users, they yield performance close to BP under optimum power assignment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A CSSL- type modular FORTRAN package, called ACES, has been developed to assist in the simulation of the dynamic behaviour of chemical plant. ACES can be harnessed, for instance, to simulate the transients in startups or after a throughput change. ACES has benefited from two existing simulators. The structure was adapted from ICL SLAM and most plant models originate in DYFLO. The latter employs sequential modularisation which is not always applicable to chemical engineering problems. A novel device of twice- round execution enables ACES to achieve general simultaneous modularisation. During the FIRST ROUND, STATE-VARIABLES are retrieved from the integrator and local calculations performed. During the SECOND ROUND, fresh derivatives are estimated and stored for simultaneous integration. ACES further includes a version of DIFSUB, a variable-step integrator capable of handling stiff differential systems. ACES is highly formalised . It does not use pseudo steady- state approximations and excludes inconsistent and arbitrary features of DYFLO. Built- in debug traps make ACES robust. ACES shows generality, flexibility, versatility and portability, and is very convenient to use. It undertakes substantial housekeeping behind the scenes and thus minimises the detailed involvement of the user. ACES provides a working set of defaults for simulation to proceed as far as possible. Built- in interfaces allow for reactions and user supplied algorithms to be incorporated . New plant models can be easily appended. Boundary- value problems and optimisation may be tackled using the RERUN feature. ACES is file oriented; a STATE can be saved in a readable form and reactivated later. Thus piecewise simulation is possible. ACES has been illustrated and verified to a large extent using some literature-based examples. Actual plant tests are desirable however to complete the verification of the library. Interaction and graphics are recommended for future work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is concerned with approximate inference in dynamical systems, from a variational Bayesian perspective. When modelling real world dynamical systems, stochastic differential equations appear as a natural choice, mainly because of their ability to model the noise of the system by adding a variant of some stochastic process to the deterministic dynamics. Hence, inference in such processes has drawn much attention. Here two new extended frameworks are derived and presented that are based on basis function expansions and local polynomial approximations of a recently proposed variational Bayesian algorithm. It is shown that the new extensions converge to the original variational algorithm and can be used for state estimation (smoothing). However, the main focus is on estimating the (hyper-) parameters of these systems (i.e. drift parameters and diffusion coefficients). The new methods are numerically validated on a range of different systems which vary in dimensionality and non-linearity. These are the Ornstein-Uhlenbeck process, for which the exact likelihood can be computed analytically, the univariate and highly non-linear, stochastic double well and the multivariate chaotic stochastic Lorenz '63 (3-dimensional model). The algorithms are also applied to the 40 dimensional stochastic Lorenz '96 system. In this investigation these new approaches are compared with a variety of other well known methods such as the ensemble Kalman filter / smoother, a hybrid Monte Carlo sampler, the dual unscented Kalman filter (for jointly estimating the systems states and model parameters) and full weak-constraint 4D-Var. Empirical analysis of their asymptotic behaviour as a function of observation density or length of time window increases is provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present an implementation of the domain-theoretic Picard method for solving initial value problems (IVPs) introduced by Edalat and Pattinson [1]. Compared to Edalat and Pattinson's implementation, our algorithm uses a more efficient arithmetic based on an arbitrary precision floating-point library. Despite the additional overestimations due to floating-point rounding, we obtain a similar bound on the convergence rate of the produced approximations. Moreover, our convergence analysis is detailed enough to allow a static optimisation in the growth of the precision used in successive Picard iterations. Such optimisation greatly improves the efficiency of the solving process. Although a similar optimisation could be performed dynamically without our analysis, a static one gives us a significant advantage: we are able to predict the time it will take the solver to obtain an approximation of a certain (arbitrarily high) quality.