885 resultados para Transitive Inferences


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data on the occurrence of species are widely used to inform the design of reserve networks. These data contain commission errors (when a species is mistakenly thought to be present) and omission errors (when a species is mistakenly thought to be absent), and the rates of the two types of error are inversely related. Point locality data can minimize commission errors, but those obtained from museum collections are generally sparse, suffer from substantial spatial bias and contain large omission errors. Geographic ranges generate large commission errors because they assume homogenous species distributions. Predicted distribution data make explicit inferences on species occurrence and their commission and omission errors depend on model structure, on the omission of variables that determine species distribution and on data resolution. Omission errors lead to identifying networks of areas for conservation action that are smaller than required and centred on known species occurrences, thus affecting the comprehensiveness, representativeness and efficiency of selected areas. Commission errors lead to selecting areas not relevant to conservation, thus affecting the representativeness and adequacy of reserve networks. Conservation plans should include an estimation of commission and omission errors in underlying species data and explicitly use this information to influence conservation planning outcomes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The part-of or part-whole construct is a fundamental element of many conceptual modeling grammars that is used to associate one thing (a component) with another thing (a composite). Substantive theoretical issues surrounding the part-whole construct remain to be resolved, however. For instance, contrary to widespread claims, the relationship between components and composites is not always transitive. Moreover, how the partwhole construct should be represented in a conceptual schema diagram remains a contentious issue. Some analysts argue composites should be represented as a relationship or association. Others argue they should be represented as an entity. In this paper we use an ontological theory to support our arguments that composites should be represented as entities and not relationships or associations. We also describe an experiment that we undertook to test whether representing composites as relationships or entities enables users to understand a domain better. Our results support our arguments that using entities to represent composites enables users to better understand a domain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação tem como proposta um intercâmbio entre a Nova História Cultural e a Pesquisa pelo Jesus Histórico. Os problemas colocados à historiografia atual pela pósmodernidade, a questão da subjetividade nos processos epistemológicos de construção histórica e a necessidade de reconhecimento da complexidade das ações sociais, pedem por uma metodologia que encontre uma saída à contraposição entre racionalismo e irracionalismo, entre o positivismo e a recusa em interpretar os objetos históricos. O projeto propõe a Micro- história italiana como tentativa de superar estas quimeras. A busca pelo Jesus de Nazaré funcionará assim não a partir de esquemas teóricos ge rais as estruturas permanentes do Mediterrâneo, o common judaism , ou o ethos da Baixa Galiléia mas pelo estudo fino, detalhado de um microfenômeno bastante representativo de Jesus, a sua demonstração simbólica no Templo narrada em Mc 11:15-19 e paralelos. A microanálise tratará de controlar a multiplicação da grande teia de relações causais da ação simbólica em Jerusalém e inferirá a partir delas que tipo de religioso foi Jesus e como se relacionou ao grande centro religioso do Santuário de Herodes. A variação entre as escalas microscópicas e macroscópicas de observação será também fundamental na construção das imagens plausíveis de Jesus. Inferências sobre o contexto cultural e religioso da Galiléia também serão experimentadas a partir da microação analisada o corolário de que os indivíduos são, de uma forma ou de outra, representativos de períodos históricos e de estratos culturais será levado bastante a sério. A hipótese do presente trabalho é a de que a demonstração de Jesus no Templo, longe de uma tentativa de purificação, fora a atualização de um estrutura mítica centrada em Jeremias 7 (uma mitopráxis) orientada pelo imaginário plurissecular do céu-templo, abundante nas imagens literárias da apocalíptica e no misticismo incipiente que culminará na literatura Hekhalot. Como experimento final, propor-se-á uma conexão entre supostas experiências visionárias de ascensão aos céus de Jesus de Nazaré e o seu imaginário do céu-templo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No âmbito do Direito à Comunicação, dos Direitos Humanos e da discussão a respeito dos Direitos Autorais sobre obras principalmente literárias e científicas, este trabalho tem como principal objetivo o desenvolvimento e aplicação de uma pesquisa de campo de caráter exploratório. Ele busca estabelecer um mapeamento do uso das práticas de produção e compartilhamento de conteúdo aberto por parte do corpo docente da UMESP, por meio do uso de licenciamento livre do tipo Commons e seguindo os preceitos apregoados pelo movimento dos Recursos Educacionais Abertos (REA). Portanto, o método estatístico utilizado foi o de amostragem probabilística aleatória simples utilizando-se de questionário com perguntas fechadas, possibilitando a elaboração de uma base de dados consistente que foi explorada no intuito de confirmar a hipótese inicialmente formulada, além de contemplar outras inferências não menos interessantes. A principal conclusão apresentada é que, mesmo que não seja de conhecimento da maioria do corpo docente da UMESP sobre o compartilhamento de conteúdo sob licenciamento livre e nem tampouco sobre o movimento REA, não existem restrições significativas quanto à adesão a tais práticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo analisa a significância e as implicações do teletrabalho na docência de nível superior no Brasil, objetivando demonstrar os benefícios e aplicações advindos desse processo para a prática professoral superior, assim como o amplo leque funcional derivado do teletrabalho aplicado no labor do professor universitário. Utilizando-se de um estudo de caso promovido junto aos docentes da Universidade Federal de Mato Grosso do SUL (UFMS), a pesquisa avalia a relação do trabalho docente com o teletrabalho e, também, os impactos, benefícios e problemas que poderão ocorrer em decorrência da implantação do teletrabalho aos docentes da UFMS. Para tanto, foi feita uma análise quantitativa e descritiva, sendo que a análise estatística descritiva serviu de base para inferências generalizadoras de natureza qualitativa. A partir dos resultados da pesquisa de campo, que utilizou como instrumento principal questionário com perguntas abertas e fechadas, o estudo conclui que o teletrabalho é uma possibilidade viável e, dentro de suas limitações, benéfica para o trabalho docente superior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo versa sobre a análise do processo de aprendizagem de alguns professores alfabetizadores da Rede Estadual de Educação de São Paulo e buscou compreender onde e como este grupo de profissionais aprende os conteúdos necessários para alfabetizar na perspectiva da construção de conhecimento. A hipótese que orienta esta análise é a de que um professor bem-formado tem mais condição de intervir na aprendizagem de seus alunos e, gradativamente, contribuir para a garantia do direito de todas as crianças se alfabetizarem. Parte também da hipótese de que, compreendendo o processo de aprendizagem destes educadores, as ações de formação podem ser mais eficazes. Por meio de pesquisa empírica, revisão bibliográfica e análise documental, esta dissertação organiza-se da seguinte forma: na Introdução é anunciada a trajetória profissional da proponente e sua relação com os programas de alfabetização e com as propostas de formação de educadores das Redes Públicas de Educação de São Paulo. O primeiro Capítulo tece a fundamentação teórica na qual os programas de formação de professores alfabetizadores de São Paulo são organizados. No segundo Capítulo é realizado um breve histórico sobre os programas de formação de professores alfabetizadores da Rede Estadual de Ensino, no período de 1984 a 2010, com uma análise sobre a coerência entre as concepções de ensino e aprendizagem, e as concepções que embasam os diferentes programas institucionais. No terceiro Capítulo são descritos os caminhos percorridos no processo de realização da pesquisa empírica. Nas Considerações Finais foram retomadas, em síntese, as discussões realizadas no desenvolvimento dos capítulos, recuperando a essência das análises a partir dos dados coletados, expressando os resultados da investigação. Foram aplicados questionários de perfil e realizadas entrevistas com 13 sujeitos envolvidos com o Programa Ler e Escrever da Rede Estadual de Ensino de São Paulo, envolvendo desde professores alfabetizadores até os organizadores do Programa. A fundamentação teórica deste estudo ocorreu, principalmente, a partir das contribuições de Piaget (1967); Ferreiro e Teberosky (1985); Ferreiro (1989; 1992; 2002; 2007); Becker (1993); Coll (1992); Lerner (2002) que se orientam pela concepção de construção de conhecimento e tratam da aprendizagem da leitura e escrita, da formação do professor e da didática da alfabetização e da Matemática; e Alarcão (2008), Lerner (2002) e Tardif (2002) que abordam a formação docente. A análise dos dados foi realizada a partir da fundamentação e dos procedimentos de Análise Temática do Conteúdo, conforme Bardin (2008) que resultou na elaboração de apreciações de condições que devem ser consideradas na formação de professores alfabetizadores. Os resultados obtidos apontam para algumas inferências sobre o processo de aprendizagem dos professores alfabetizadores que, se consideradas nas propostas, podem contribuir para a maior eficiência dos programas de formação, resultando em melhor apropriação pelos professores dos conteúdos envolvidos na alfabetização, na melhoria da qualidade da aprendizagem dos alfabetizandos e, consequentemente, na formação de leitores plenos e escritores eficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This Letter addresses image segmentation via a generative model approach. A Bayesian network (BNT) in the space of dyadic wavelet transform coefficients is introduced to model texture images. The model is similar to a Hidden Markov model (HMM), but with non-stationary transitive conditional probability distributions. It is composed of discrete hidden variables and observable Gaussian outputs for wavelet coefficients. In particular, the Gabor wavelet transform is considered. The introduced model is compared with the simplest joint Gaussian probabilistic model for Gabor wavelet coefficients for several textures from the Brodatz album [1]. The comparison is based on cross-validation and includes probabilistic model ensembles instead of single models. In addition, the robustness of the models to cope with additive Gaussian noise is investigated. We further study the feasibility of the introduced generative model for image segmentation in the novelty detection framework [2]. Two examples are considered: (i) sea surface pollution detection from intensity images and (ii) image segmentation of the still images with varying illumination across the scene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Are the learning procedures of genetic algorithms (GAs) able to generate optimal architectures for artificial neural networks (ANNs) in high frequency data? In this experimental study,GAs are used to identify the best architecture for ANNs. Additional learning is undertaken by the ANNs to forecast daily excess stock returns. No ANN architectures were able to outperform a random walk,despite the finding of non-linearity in the excess returns. This failure is attributed to the absence of suitable ANN structures and further implies that researchers need to be cautious when making inferences from ANN results that use high frequency data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper investigates competition between chain-stores and independents in the UK opticians' industry, using the relationship between the number of outlets present in a local market and the market size. Chain-stores are shown to have a significant effect on local market competition. In addition, the empirical approach is extended to allow inferences on the nature and extent of product differentiation. The results are broadly consistent with a model of vertical product differentiation in which chain-stores adopt national pricing strategies. The evidence suggests that the nature of competition between independent retailers depends on whether a chain-store is present.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

If a sample of measurements comes from a population that is normally distributed, we can use several statistics to describe our sample, such as the mean, SD, and CV. In addition, we can determine how atypical an individual measurement has to be before we would consider it not to be a member of a specific population. Furthermore, we can use our sample to make inferences about the population from which the sample is drawn including making estimates of the population mean and fitting confidence intervals to a sample mean.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of new products in today's marketing environment is generally accepted as a requirement for the continual growth and prosperity of organisations. The literature is consequently rich with information on the development of various aspects of good products. In the case of service industries, it can be argued that new service product development is of as least equal importance as it is to organisations that produce tangible goods products. Unlike the new goods product literature, the literature on service marketing practices, and in particular, new service product development, is relatively sparse. The main purpose of this thesis is to examine a number of aspects of new service product development practice with respect to financial services and specifically, credit card financial services. The empirical investigation utilises both a case study and a survey approach, to examine aspects of new service product development industry practice relating specifically to gaps and deficiencies in the literature with respect to the financial service industry. The findings of the empirical work are subsequently examined in the context in which they provide guidance and support for a new normative new service product development model. The study examines the UK credit card financial service product sector as an industry case study and perspective. The findings of the field work reveal that the new service product development process is still evolving, and that in the case of credit card financial services can be seen as a well-structured and well-documented process. New product development can also be seen as an incremental, complex, interactive and continuous process which has been applied in a variety of ways. A number of inferences are subsequently presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diagnosing faults in wastewater treatment, like diagnosis of most problems, requires bi-directional plausible reasoning. This means that both predictive (from causes to symptoms) and diagnostic (from symptoms to causes) inferences have to be made, depending on the evidence available, in reasoning for the final diagnosis. The use of computer technology for the purpose of diagnosing faults in the wastewater process has been explored, and a rule-based expert system was initiated. It was found that such an approach has serious limitations in its ability to reason bi-directionally, which makes it unsuitable for diagnosing tasks under the conditions of uncertainty. The probabilistic approach known as Bayesian Belief Networks (BBNS) was then critically reviewed, and was found to be well-suited for diagnosis under uncertainty. The theory and application of BBNs are outlined. A full-scale BBN for the diagnosis of faults in a wastewater treatment plant based on the activated sludge system has been developed in this research. Results from the BBN show good agreement with the predictions of wastewater experts. It can be concluded that the BBNs are far superior to rule-based systems based on certainty factors in their ability to diagnose faults and predict systems in complex operating systems having inherently uncertain behaviour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study characterizes the visually evoked magnetic response (VEMR) to pattern onset/offset stimuli, using a single channel BTi magnetometer. The influence of stimulus parameters and recording protocols on the VEMR is studied with inferences drawn about the nature of cortical processing, its origins and optimal recording strategies. Fundamental characteristics are examined, such as the behaviour of successive averaged and unaveraged responses; the effects of environmental shielding; averaging; inter- and intrasubject variability and equipment specificity. The effects of varying check size, field size, contrast and refractive error on latency, amplitude and topographic distribution are also presented. Latency and amplitude trends are consistent with previous VEP findings and known anatomical properties of the visual system. Topographic results are consistent with the activity of sources organised according to the cruciform model of striate cortex. A striate origin for the VEMR is also suggested by the results to quarter, octant and annulus field stimuli. Similarities in the behaviour and origins of the sources contributing to the CIIm and CIIIm onset peaks are presented for a number of stimulus conditions. This would be consistent with differing processing event in the same, or similar neuronal populations. Focal field stimuli produce less predictable responses than full or half fields, attributable to a reduced signal to noise ratio and an increased sensitivity to variations in cortical morphology. Problems with waveform peak identification are encountered for full field stimuli that can only be resolved by the careful choice of stimulus parameters, comparisons with half field responses or with reference to the topographic distribution of each waveform peak. An anatomical study of occipital lobe morphology revealed large inter- and intrasubject variation in calcarine fissure shape and striate cortex distribution. An appreciation of such variability is important for VEMR interpretation, due to the technique's sensitivity to source depth and orientation, and it is used to explain the experimental results obtained.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this editorial, the authors respond to the 2011 article in the Journal of Management by Becker, Cropanzano, and Sanfey, titled “Organizational Neuroscience: Taking Organizational Theory Inside the Neural Black Box.” More specifically, the authors build on the ideas of Becker et al. first to clarify and extend their work and then to explore the critical philosophical issues involved in drawing inferences from neuroscientific research. They argue that these problems are yet to be solved and that organizational researchers who wish to incorporate neuroscientific advances into their work need to engage with them.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Failure to detect or account for structural changes in economic modelling can lead to misleading policy inferences, which can be perilous, especially for the more fragile economies of developing countries. Using three potential monetary policy instruments (Money Base, M0, and Reserve Money) for 13 member-states of the CFA Franc zone over the period 1989:11-2002:09, we investigate the magnitude of information extracted by employing data-driven techniques when analyzing breaks in time-series, rather than the simplifying practice of imposing policy implementation dates as break dates. The paper also tests Granger's (1980) aggregation theory and highlights some policy implications of the results.