1000 resultados para Teorias não-lineares
Resumo:
Levinson’s and Carroll’s historical theories are among the most interesting contemporary answers to the problem of knowing what art is. Although both authors believe that we cannot ignore the relation between art and its own history in order to understand the nature of art, their projects have very different ambitions. Levinson seeks a real definition of art, capable of dealing with every possible case. Carroll, who believes that Levinson’s project faces many difficulties, proposes just a criterion to identify works of art, thus providing a characterization or nominal definition of art. In this paper my aim is to present and discuss, albeit succinctly, these two philosophical theories about the nature of art, and to determine whether they fulfill their own ends
Resumo:
Mode of access: Internet.
Resumo:
O objetivo central deste trabalho é verificar a influência das teorias econômicas na decisão das empresas de comércio atacadista em terceirizar o despacho aduaneiro na cidade de São Paulo. Para isso, a história da terceirização é apresentada brevemente, seguida do levantamento e estudos sobre terceirização e fundamentação das teorias econômicas que mostram possíveis influências na decisão das empresas em terceirizar o despacho aduaneiro: a Teoria do Custo das Transações, a Teoria da Agência, a Teoria do Resource-Based View (RBV) e a Teoria das Competências Essenciais. Além de contextualizar o comércio exterior brasileiro, levando em conta sua história e representatividade econômica, foram apresentadas as atividades ligadas ao despacho aduaneiro, que podem levar as empresas a terceirizar este serviço na cidade de São Paulo. Após a explanação sobre o tema, por meio de pesquisa empírica valendo-se de questionário de perguntas fechadas, aplicado a uma amostra não probabilística por conveniência, verificou-se a relação existente entre as teorias mencionadas acima e o quanto elas influenciam o processo das empresas importadoras e exportadoras do comércio atacadista para terceirizarem o despacho aduaneiro, foi usado o teste ANOVA e possíveis complementações como o do Teste de Dunnett T3 e do Teste de Tukey que constataram a diferença de respostas entre os respondentes que terceirizam totalmente, parcialmente ou não terceirizam esta atividade, além da diferença entre estes níveis de terceirização verificou-se que todas as teorias econômicas apresentadas neste trabalho possuem alguma influência sobre a terceirização do despacho aduaneiro.
USO DE TEORIAS NO CAMPO DE SISTEMAS DE INFORMAÇÃO: MAPEAMENTO USANDO TÉCNICAS DE MINERAÇÃO DE TEXTOS
Resumo:
Esta dissertação visa apresentar o mapeamento do uso das teorias de sistemas de informações, usando técnicas de recuperação de informação e metodologias de mineração de dados e textos. As teorias abordadas foram Economia de Custos de Transações (Transactions Costs Economics TCE), Visão Baseada em Recursos da Firma (Resource-Based View-RBV) e Teoria Institucional (Institutional Theory-IT), sendo escolhidas por serem teorias de grande relevância para estudos de alocação de investimentos e implementação em sistemas de informação, tendo como base de dados o conteúdo textual (em inglês) do resumo e da revisão teórica dos artigos dos periódicos Information System Research (ISR), Management Information Systems Quarterly (MISQ) e Journal of Management Information Systems (JMIS) no período de 2000 a 2008. Os resultados advindos da técnica de mineração textual aliada à mineração de dados foram comparadas com a ferramenta de busca avançada EBSCO e demonstraram uma eficiência maior na identificação de conteúdo. Os artigos fundamentados nas três teorias representaram 10% do total de artigos dos três períodicos e o período mais profícuo de publicação foi o de 2001 e 2007.(AU)
Resumo:
A temática desta pesquisa refere-se ao estabelecimento de relações entre o institucional e o pessoal, a partir das teorias e práticas de Extensão Universitária, contextualizadas em uma determinada instituição de Ensino Superior, da rede particular do Estado de São Paulo. O seu objetivo é, através da explicitação da política institucional de Extensão Universitária, analisar e comparar as motivações pessoais e o perfil psicossocial dos alunos extensionistas, e observar como estes se relacionam, por meio da extensão, com o ensino, com a pesquisa e com as políticas institucionais estabelecidas. Foram entrevistados o PróReitor de Extensão, Coordenadores de Programas de Extensão e alunos extensionistas e utilizou-se o método da análise comparativa dos conteúdos. Como procedimento metodológico de análise tomouse o conjunto de informações recolhidas junto aos entrevistados, que foram organizadas em três grandes categorias: Política Institucional; Extensão, Pesquisa e Ensino; e Motivações. Concluiuse que as especificidades das políticas institucionais e das características pedagógicas da Extensão Universitária da Instituição influenciam e podem determinar formas de atuação dos alunos extencionistas, que são movidos por fatores motivacionais que transitam entre o olhar assistencial filantrópico, a motivação profissional e a militância política, tendo como norte o contexto cultural, político e socia, no qual estão inseridos, dentro e fora da Universidade, e que se manifestam no contato com o trabalho extencionista.(AU)
Resumo:
A identificação dos padrões morfológicos da face é de extrema importância para a elaboração do diagnóstico ortodôntico e conseqüente plano de tratamento. Sendo assim, esta pesquisa teve como objetivo avaliar as relações entre as medidas lineares N-ENA, ENA-Pog e N-Pog, as medidas angulares N.OPI.ENA, ENA.OPI.Pog e N.OPI.Pog, e o índice VERT de acordo com a classificação proposta por RICKETTS. O material de estudo foi constituído de 700 telerradiografias, em norma lateral, de indivíduos brasileiros, leucodermas, de ambos os gêneros (318 do gênero masculino e 382 do gênero feminino), apresentando idade média de 16,66 anos. Das 700 telerradiografias foram constituídos quatro grupos de acordo com a oclusão. O primeiro grupo foi constituído de indivíduos com oclusão normal natural segundo ANDREWS, sendo observadas, clinicamente, quatro das seis chaves de oclusão. Os demais grupos se constituíram de indivíduos com más-oclusões de Classe I, II e III segundo ANGLE, sem relato de tratamento ortodôntico anterior. Após a análise estatística para a avaliação das medidas lineares N-ENA, ENA-Pog e N-Pog, e medidas angulares N.OPI.ENA, ENA.OPI.Pog e N.OPI.Pog, em relação ao índice VERT, evidenciou um aumento progressivo das medidas pesquisadas em relação aos seis padrões faciais determinados pelo índice VERT, mostrando um aumento destas medidas conforme se vai do padrão braquifacial severo para o padrão dolicofacial severo.
Resumo:
This study aims to contribute with evidence to reinforce or not the thesis of a possible deindustrialization of the Brazilian economy, with emphasis on period after 1995. The debate began in the late 80s, however, recently the industry deceleration gained strength in discussions academic. Between the main theses in this debate is the new-development that believes in precocious deindustrialization caused primarily by overvaluation exchange rate. However, part of heterodoxy believes the industry downturn is more related to the rate of investment than the exchange rate. Nevertheless, according to the orthodox thesis the loss of competitiveness due to the high cost of production may have caused the de-industrialization in Brazil. On the other hand, part of Orthodoxy does not believe that the country is deindustrializing it, but is occurring convergence of Brazilian industry the world average. Thus, in an attempt to shed light on this debate, this study intends to identify the reasons for the deceleration of the Brazilian industry, emphasizing aspects underexplored in the literature and define whether or not the country suffers a process of deindustrialization. When analyzing various indicators, especially the quantum level we find strong indications that the deceleration of the Brazilian industry can be characterized as a deindustrialization, though still insufficient to qualify as precocious, given the loss of share in physical production in total output and the share of primary goods in the export basket
Resumo:
The great interest in nonlinear system identification is mainly due to the fact that a large amount of real systems are complex and need to have their nonlinearities considered so that their models can be successfully used in applications of control, prediction, inference, among others. This work evaluates the application of Fuzzy Wavelet Neural Networks (FWNN) to identify nonlinear dynamical systems subjected to noise and outliers. Generally, these elements cause negative effects on the identification procedure, resulting in erroneous interpretations regarding the dynamical behavior of the system. The FWNN combines in a single structure the ability to deal with uncertainties of fuzzy logic, the multiresolution characteristics of wavelet theory and learning and generalization abilities of the artificial neural networks. Usually, the learning procedure of these neural networks is realized by a gradient based method, which uses the mean squared error as its cost function. This work proposes the replacement of this traditional function by an Information Theoretic Learning similarity measure, called correntropy. With the use of this similarity measure, higher order statistics can be considered during the FWNN training process. For this reason, this measure is more suitable for non-Gaussian error distributions and makes the training less sensitive to the presence of outliers. In order to evaluate this replacement, FWNN models are obtained in two identification case studies: a real nonlinear system, consisting of a multisection tank, and a simulated system based on a model of the human knee joint. The results demonstrate that the application of correntropy as the error backpropagation algorithm cost function makes the identification procedure using FWNN models more robust to outliers. However, this is only achieved if the gaussian kernel width of correntropy is properly adjusted.
Resumo:
This work presents the numerical analysis of nonlinear trusses summited to thermomechanical actions with Finite Element Method (FEM). The proposed formulation is so-called positional FEM and it is based on the minimum potential energy theorem written according to nodal positions, instead of displacements. The study herein presented considers the effects of geometric and material nonlinearities. Related to dynamic problems, a comparison between different time integration algorithms is performed. The formulation is extended to impact problems between trusses and rigid wall, where the nodal positions are constrained considering nullpenetration condition. In addition, it is presented a thermodynamically consistent formulation, based on the first and second law of thermodynamics and the Helmholtz free-energy for analyzing dynamic problems of truss structures with thermoelastic and thermoplastic behavior. The numerical results of the proposed formulation are compared with examples found in the literature.
Resumo:
Acompanha: Sequências didáticas para o ensino de teorias atômicas e elementos químicos
Resumo:
Na unfolding method of linear intercept distributions and secction área distribution was implemented for structures with spherical grains. Although the unfolding routine depends on the grain shape, structures with spheroidal grains can also be treated by this routine. Grains of non-spheroidal shape can be treated only as approximation. A software was developed with two parts. The first part calculates the probability matrix. The second part uses this matrix and minimizes the chi-square. The results are presented with any number of size classes as required. The probability matrix was determined by means of the linear intercept and section area distributions created by computer simulation. Using curve fittings the probability matrix for spheres of any sizes could be determined. Two kinds of tests were carried out to prove the efficiency of the Technique. The theoretical tests represent ideal cases. The software was able to exactly find the proposed grain size distribution. In the second test, a structure was simulated in computer and images of its slices were used to produce the corresponding linear intercept the section area distributions. These distributions were then unfolded. This test simulates better reality. The results show deviations from the real size distribution. This deviations are caused by statistic fluctuation. The unfolding of the linear intercept distribution works perfectly, but the unfolding of section area distribution does not work due to a failure in the chi-square minimization. The minimization method uses a matrix inversion routine. The matrix generated by this procedure cannot be inverted. Other minimization method must be used
Resumo:
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2016.
Resumo:
Tese (doutorado)—Universidade de Brasília, Faculdade de Arquitetura e Urbanismo, Programa de Pesquisa e Pós-Graduação da Faculdade de Arquitetura e Urbanismo, 2016.
Resumo:
Apresenta·se um breve resumo histórico da evolução da amostragem por transectos lineares e desenvolve·se a sua teoria. Descrevemos a teoria de amostragem por transectos lineares, proposta por Buckland (1992), sendo apresentados os pontos mais relevantes, no que diz respeito à modelação da função de detecção. Apresentamos uma descrição do princípio CDM (Rissanen, 1978) e a sua aplicação à estimação de uma função densidade por um histograma (Kontkanen e Myllymãki, 2006), procedendo à aplicação de um exemplo prático, recorrendo a uma mistura de densidades. Procedemos à sua aplicação ao cálculo do estimador da probabilidade de detecção, no caso dos transectos lineares e desta forma estimar a densidade populacional de animais. Analisamos dois casos práticos, clássicos na amostragem por distâncias, comparando os resultados obtidos. De forma a avaliar a metodologia, simulámos vários conjuntos de observações, tendo como base o exemplo das estacas, recorrendo às funções de detecção semi-normal, taxa de risco, exponencial e uniforme com um cosseno. Os resultados foram obtidos com o programa DISTANCE (Thomas et al., in press) e um algoritmo escrito em linguagem C, cedido pelo Professor Doutor Petri Kontkanen (Departamento de Ciências da Computação, Universidade de Helsínquia). Foram desenvolvidos programas de forma a calcular intervalos de confiança recorrendo à técnica bootstrap (Efron, 1978). São discutidos os resultados finais e apresentadas sugestões de desenvolvimentos futuros. ABSTRACT; We present a brief historical note on the evolution of line transect sampling and its theoretical developments. We describe line transect sampling theory as proposed by Buckland (1992), and present the most relevant issues about modeling the detection function. We present a description of the CDM principle (Rissanen, 1978) and its application to histogram density estimation (Kontkanen and Myllymãki, 2006), with a practical example, using a mixture of densities. We proceed with the application and estimate probability of detection and animal population density in the context of line transect sampling. Two classical examples from the literature are analyzed and compared. ln order to evaluate the proposed methodology, we carry out a simulation study based on a wooden stakes example, and using as detection functions half normal, hazard rate, exponential and uniform with a cosine term. The results were obtained using program DISTANCE (Thomas et al., in press), and an algorithm written in C language, kindly offered by Professor Petri Kontkanen (Department of Computer Science, University of Helsinki). We develop some programs in order to estimate confidence intervals using the bootstrap technique (Efron, 1978). Finally, the results are presented and discussed with suggestions for future developments.