942 resultados para Matching-to-sample arbitrário
Resumo:
Investigation of preferred structures of planetary wave dynamics is addressed using multivariate Gaussian mixture models. The number of components in the mixture is obtained using order statistics of the mixing proportions, hence avoiding previous difficulties related to sample sizes and independence issues. The method is first applied to a few low-order stochastic dynamical systems and data from a general circulation model. The method is next applied to winter daily 500-hPa heights from 1949 to 2003 over the Northern Hemisphere. A spatial clustering algorithm is first applied to the leading two principal components (PCs) and shows significant clustering. The clustering is particularly robust for the first half of the record and less for the second half. The mixture model is then used to identify the clusters. Two highly significant extratropical planetary-scale preferred structures are obtained within the first two to four EOF state space. The first pattern shows a Pacific-North American (PNA) pattern and a negative North Atlantic Oscillation (NAO), and the second pattern is nearly opposite to the first one. It is also observed that some subspaces show multivariate Gaussianity, compatible with linearity, whereas others show multivariate non-Gaussianity. The same analysis is also applied to two subperiods, before and after 1978, and shows a similar regime behavior, with a slight stronger support for the first subperiod. In addition a significant regime shift is also observed between the two periods as well as a change in the shape of the distribution. The patterns associated with the regime shifts reflect essentially a PNA pattern and an NAO pattern consistent with the observed global warming effect on climate and the observed shift in sea surface temperature around the mid-1970s.
Resumo:
Background The gut and immune system form a complex integrated structure that has evolved to provide effective digestion and defence against ingested toxins and pathogenic bacteria. However, great variation exists in what is considered normal healthy gut and immune function. Thus, whilst it is possible to measure many aspects of digestion and immunity, it is more difficult to interpret the benefits to individuals of variation within what is considered to be a normal range. Nevertheless, it is important to set standards for optimal function for use both by the consumer, industry and those concerned with the public health. The digestive tract is most frequently the object of functional and health claims and a large market already exists for gut-functional foods worldwide. Aim To define normal function of the gut and immune system and describe available methods of measuring it. Results We have defined normal bowel habit and transit time, identified their role as risk factors for disease and how they may be measured. Similarly, we have tried to define what is a healthy gut flora in terms of the dominant genera and their metabolism and listed the many, varied and novel methods for determining these parameters. It has proved less easy to provide boundaries for what constitutes optimal or improved gastric emptying, gut motility, nutrient and water absorption and the function of organs such as the liver, gallbladder and pancreas. The many tests of these functions are described. We have discussed gastrointestinal well being. Sensations arising from the gut can be both pleasant and unpleasant. However, the characteristics of well being are ill defined and merge imperceptibly from acceptable to unacceptable, a state that is subjective. Nevertheless, we feel this is an important area for future work and method development. The immune system is even more difficult to make quantitative judgements about. When it is defective, then clinical problems ensure, but this is an uncommon state. The innate and adaptive immune systems work synergistically together and comprise many cellular and humoral factors. The adaptive system is extremely sophisticated and between the two arms of immunity there is great redundancy, which provides robust defences. New aspects of immune function are discovered regularly. It is not clear whether immune function can be "improved". Measuring aspects of immune function is possible but there is no one test that will define either the status or functional capacity of the immune system. Human studies are often limited by the ability to sample only blood or secretions such as saliva but it should be remembered that only 2% of lymphocytes circulate at any given time, which limits interpretation of data. We recommend assessing the functional capacity of the immune system by: measuring specific cell functions ex vivo, measuring in vivo responses to challenge, e. g. change in antibody in blood or response to antigens, determining the incidence and severity of infection in target populations during naturally occurring episodes or in response to attenuated pathogens.
Resumo:
Eye-movements have long been considered a problem when trying to understand the visual control of locomotion. They transform the retinal image from a simple expanding pattern of moving texture elements (pure optic flow), into a complex combination of translation and rotation components (retinal flow). In this article we investigate whether there are measurable advantages to having an active free gaze, over a static gaze or tracking gaze, when steering along a winding path. We also examine patterns of free gaze behavior to determine preferred gaze strategies during active locomotion. Participants were asked to steer along a computer-simulated textured roadway with free gaze, fixed gaze, or gaze tracking the center of the roadway. Deviation of position from the center of the road was recorded along with their point of gaze. It was found that visually tracking the middle of the road produced smaller steering errors than for fixed gaze. Participants performed best at the steering task when allowed to sample naturally from the road ahead with free gaze. There was some variation in the gaze strategies used, but sampling was predominantly of areas proximal to the center of the road. These results diverge from traditional models of flow analysis.
Resumo:
In any data mining applications, automated text and text and image retrieval of information is needed. This becomes essential with the growth of the Internet and digital libraries. Our approach is based on the latent semantic indexing (LSI) and the corresponding term-by-document matrix suggested by Berry and his co-authors. Instead of using deterministic methods to find the required number of first "k" singular triplets, we propose a stochastic approach. First, we use Monte Carlo method to sample and to build much smaller size term-by-document matrix (e.g. we build k x k matrix) from where we then find the first "k" triplets using standard deterministic methods. Second, we investigate how we can reduce the problem to finding the "k"-largest eigenvalues using parallel Monte Carlo methods. We apply these methods to the initial matrix and also to the reduced one. The algorithms are running on a cluster of workstations under MPI and results of the experiments arising in textual retrieval of Web documents as well as comparison of the stochastic methods proposed are presented. (C) 2003 IMACS. Published by Elsevier Science B.V. All rights reserved.
Resumo:
This volume reports on the excavations from 2002 to 2005 designed to investigate this transition, with the focus on the origins of Bishopstone village. Excavations adjacent to St Andrew’s churchyard revealed a dense swathe of later Anglo-Saxon (8th- to late 10th-/early 11th-century) habitation, including a planned complex of ‘timber halls’, and a unique cellared tower. The occupation encroached upon a pre-Conquest cemetery of 43 inhumations. The report provides a comprehensive analysis, interpretation and academic contextualisation of the archaeological discoveries brought to light by these excavations, the first to sample a later Anglo-Saxon rural settlement in East Sussex on an extensive scale. The inter-disciplinary approach appraises the historical and topographical evidence alongside that recovered during the excavations.
Resumo:
The goal of this paper is to study and further develop the orthogonality sampling or stationary waves algorithm for the detection of the location and shape of objects from the far field pattern of scattered waves in electromagnetics or acoustics. Orthogonality sampling can be seen as a special beam forming algorithm with some links to the point source method and to the linear sampling method. The basic idea of orthogonality sampling is to sample the space under consideration by calculating scalar products of the measured far field pattern , with a test function for all y in a subset Q of the space , m = 2, 3. The way in which this is carried out is important to extract the information which the scattered fields contain. The theoretical foundation of orthogonality sampling is only partly resolved, and the goal of this work is to initiate further research by numerical demonstration of the high potential of the approach. We implement the method for a two-dimensional setting for the Helmholtz equation, which represents electromagnetic scattering when the setup is independent of the third coordinate. We show reconstructions of the location and shape of objects from measurements of the scattered field for one or several directions of incidence and one or many frequencies or wave numbers, respectively. In particular, we visualize the indicator function both with the Dirichlet and Neumann boundary condition and for complicated inhomogeneous media.
Resumo:
Insect pollinators provide a critical ecosystem service by pollinating many wild flowers and crops. It is therefore essential to be able to effectively survey and monitor pollinator communities across a range of habitats, and in particular, sample the often stratified parts of the habitats where insects are found. To date, a wide array of sampling methods have been used to collect insect pollinators, but no single method has been used effectively to sample across habitat types and throughout the spatial structure of habitats. Here we present a method of ‘aerial pan-trapping’ that allows insect pollinators to be sampled across the vertical strata from the canopy of forests to agro-ecosystems. We surveyed and compared the species richness and abundance of a wide range of insect pollinators in agricultural, secondary regenerating forest and primary forest habitats in Ghana to evaluate the usefulness of this approach. In addition to confirming the efficacy of the method at heights of up to 30 metres and the effects of trap color on catch, we found greatest insect abundance in agricultural land and higher bee abundance and species richness in undisturbed forest compared to secondary forest.
Resumo:
The components of many signaling pathways have been identified and there is now a need to conduct quantitative data-rich temporal experiments for systems biology and modeling approaches to better understand pathway dynamics and regulation. Here we present a modified Western blotting method that allows the rapid and reproducible quantification and analysis of hundreds of data points per day on proteins and their phosphorylation state at individual sites. The approach is of particular use where samples show a high degree of sample-to-sample variability such as primary cells from multiple donors. We present a case study on the analysis of >800 phosphorylation data points from three phosphorylation sites in three signaling proteins over multiple time points from platelets isolated from ten donors, demonstrating the technique's potential to determine kinetic and regulatory information from limited cell numbers and to investigate signaling variation within a population. We envisage the approach being of use in the analysis of many cellular processes such as signaling pathway dynamics to identify regulatory feedback loops and the investigation of potential drug/inhibitor responses, using primary cells and tissues, to generate information about how a cell's physiological state changes over time.
Resumo:
Polycarbonate membranes (PCM) of various pores sizes (400, 200, 100 and 50 nm) were used as templates for gold deposition. The electrodeposition from gold ions resulted in the formation of gold nanotubes when large pores size PCMs (400 and 200 nm) were used. On the other hand, gold nanowires were predominant for the PCMs with smaller pores size (100 and 50 nm). Surface-enhanced Raman scattering (SERS) from the probe molecule 4-mercaptopyridine (4-MPy) was obtained from all these nanostructures. The SERS efficiency of the substrates produced using the PC M templates were compared to two commonly used SERS platforms: a roughened gold electrode and gold nanostructures electrodeposited through organized polystyrene spheres (PSS). The SERS signal of the probe molecule increased as the pore diameter of the PCM template decreased. Moreover, the SERS efficiency from the nanostructures produced using 50 nm PCM templates was four and two times better than the signal from the roughened gold electrode and the PSS template, respectively. The SERS substrates prepared using PCM templates were more homogenous over a larger area (ca. 1 cm(2)), presented better spatial and sample to sample reproducibility than the other substrates. These results show that SERS substrates prepared using PCM templates are promising for the fabrication of planar SERS platforms for analytical/bioanalytical applications.
Resumo:
o presente tema - "Agressão no jogo de futebol” - teve primeiramente como objetivo investigar o problema da agressão no esporte popular brasileiro. Assim sendo o trabalho oferece uma visão introdutória, exploratória e descritiva dos aspectos principais com relação ao problema. Desta forma a análise está ligada a várias opiniões e posições que já foram expressas por um número de autores, e esta nossa análise está intimamente ligada a tudo que já foi publicado sobre este tema. Contudo, apresentamos uma ligeira inovação, uma contribuição muito especial. Ao dissertarmos de uma maneira, a mais clara possível, nos limitamos num ponto especifico que é o de vivermos a realidade do jogo de futebol. Cuidadosamente, conduzimos o tema principal do trabalho em direção ao papel fundamental dos dirigentes, treinadores, médicos desportistas, juizes de campo, preparadores físicos, advogados desportistas e psicólogos. Em suma, nós conduzimos nossa atenção ,para as pessoas diretamente envolvidas com a prática do esporte em geral na sociedade contemporânea, assim como da luta para combater os problemas cria dos pela agressão, aspecto particularmente relevante para os jogadores de futebol em situações de forte competição. Na segunda parte do trabalho, nós tivemos a oportunidade de fazer alguns contatos diretos 'e pessoais com vários jogadores conhecidos do futebol no Brasil, assim como outros tipos de profissionais que lidam com este esporte. Podemos dizer, que tal ordem de contatos foi desenvolvida através de, várias observações não só na hora dos treinos, mas também durante um número de jogos eliminatórios (finais), juntamente com algumas entrevistas individuais que depois eles concederam. Quando todas as peças foram colocadas nos próprios lugares é que o quadro ficou mais completo, expondo os fatores mútuos e interativos nos jogos. Falando de maneira geral, o modelo de melhor compreensão proposto para este trabalho foi detalhado de forma que pode ser baseado na observação direta da pesquisa de campo mas com um número especifico de dados para este tipo de· pesquisa, cujos principais objetivos foram as simples situações corriqueiras (significatiyas). Com este material, em nossas mãos, nós pudemos reformular algumas questões vitais que poderiam enriquecer o dia-a-dia da psicologia neste campo de conhecimento. Sem dúvida, essa ênfase atual da questão da agressão - e um problema crescente. O significado do combate a agressão não é fácil, digamos, de enquadrar numa simples elaboração de palavras. Na pesquisa que fizemos a conclusão é de que a agressão deve ser combatida desde muito cedo nos estágios das "escolas de futebol".
Resumo:
O modelo racional de decisão tem sido objeto de estudo constante na academia de vários países, contribuindo para evolução do ser racional como importante tomador de decisão. A evolução destes estudos tem aberto questionamentos quanto à capacidade de racionalidade que temos como tomadores de decisão, deleitando assim em várias teorias novas que pesquisam estas limitações no decidir. Especialmente aplicadas a teorias econômicas, estudos como Inteligência Artificial, Contabilidade Mental, Teoria dos Prospectos, Teoria dos Jogos entre outras se destacam neste cenário de estudo das finanças comportamentais. A contabilidade como ferramenta de apoio as decisões financeiras ocupa posição de destaque. Esta tem em seu escopo de trabalho normas (aquilo que deveria ser feito) que regulam sua atuação, em alguns casos esta regulamentação não é precisa em suas especificações, deixando janelas que levam seus profissionais a erros de interpretação. A imprecisão contábil pode causar viés em suas classificações. Os profissionais, deparados com este legado podem se utilizar de heurísticas para interpretar da melhor maneira possível os acontecimentos que são registrados na contabilidade. Este trabalho tem a intenção de análise de alguns pontos que consideramos importantes quando temos imprecisão contábil, respondendo as seguintes perguntas: a imprecisão de normas contábeis causa viés na decisão? O profissional que se depara com imprecisão contábil se utiliza de Heurística para decidir? Quais os erros mais comuns de interpretação sob incerteza contábil? Para que o assunto fosse abordado com imparcialidade de maneira a absorver retamente quais são as experiências dos profissionais que atuam na área contábil, foi elaborado um questionário composto por uma situação possível que leva o respondente a um ambiente de tomada de decisões que envolva a prática contábil. O questionário era dividido em duas partes principais, com a preocupação de identificar através das respostas se existe imprecisão contábil (sob a luz do princípio da prudência) e quais heurísticas que os respondentes se utilizam com mais freqüência, sendo o mesmo aplicado em profissionais que atuam na área contábil e que detenham experiências profissionais relacionadas à elaboração, auditoria ou análise de demonstrações contábeis. O questionário aplicado na massa respondente determinou, através das respostas, que existe, segundo os profissionais, interpretações diferentes para os mesmos dados, caracterizando assim zona cinzenta, segundo Penno (2008), ou seja, interpretações que podem ser mais agressivas ou mais conservadoras conforme a interpretação do profissional. Já quanto às estratégias simplificadoras, ou heurísticas, que causam algum tipo de enviesamento no processo decisório, alguns foram identificadas como: associações pressupostas, interpretação errada da chance, regressão a media e eventos disjuntivos e eventos conjuntivos, que reforçam a pesquisa dando indícios de que os respondentes podem estar tomando decisões enviesadas. Porém, não se identificou no estudo tomada de decisões com enviesamentos como recuperabilidade e insensibilidades ao tamanho da amostra. Ao final do estudo concluímos que os respondentes têm interpretações diferenciadas sobre o mesmo assunto, mesmo sob a luz do princípio contábil da prudência, e ainda se utilizam de estratégias simplificadoras para resolverem assuntos quotidianos.
Resumo:
Pesquisas recentes tem se concentrado em analisar se as vantagens competitivas podem ser sustentáveis em um contexto hipercompetitivo. Literatura existente que tem analisado economias emergentes descobriu que o desenvolvimento do contexto institucional contribui para a criação de condições hipercompetitivas. Reconhecendo a importância dessas pesquisas no campo da gestão estratégica, mas ao invés de concentrar a atenção em países emergentes, este trabalho considera crucial ter um espectro mais amplo como objeto de estudo com países que diferem em suas características. Nesta pesquisa foi usada uma metodologia diferente dos estudos que foram tomados como referência para o trabalho, como a feita por Hermelo e Vassolo (2010) que centraram a sua atenção nos países em desenvolvimento analisando o efeito das instituições e os ambientes hipercompetitivos na sustentabilidade das vantagens competitivas. As pesquisas anteriores foram complementadas incluindo dados de empresas em países em desenvolvimento e desenvolvidos, isto para determinar a diferença de desempenho econômico superior persistente ao longo do tempo entre eles com a ideia de mostrar como o meio ambiente não é apenas um fator-chave, mas também um componente principal no desenvolvimento de vantagens competitivas. Usando o test Kolmogorov Smirnov e o Propensity Score Matching para reduzir viés, as questões de vantagem competitiva sustentável e os efeitos do contexto institucional foram analisados, tomando cuidado com a comparação uma vez que as suas diferenças podem trazer resultados incorretos. Os resultados empíricos sustentam a tese de que há uma diferença significativa no desempenho econômico superior e sua sustentabilidade entre as empresas em países com essas diferenças. Considerando-se que o foco de estudo está nas instituições e reconhecendo a importância que elas têm na sociedade e crescimento econômico, estudá-las pode nos ajudar a determinar como o desempenho economico superior e o desempenho economico superior persistente poderiam ser alcançados com a estabilidade das instituições e fatores macroeconômicos favoráveis. Uma contribuição importante deste trabalho é que ele usa outras teorias relacionadas com as vantagens competitivas e as relaciona com o entorno macroeconomico e institucional com o proposito de comparar países com realidades muito diferentes através de testes estatísticos que dão uma resposta à hipótese formulada.
Resumo:
Embora existam indicações de que a pá de corte proporcione melhor qualidade de amostragem de terra para fins de análise de fertilidade, seu manuseio demanda muito tempo. No presente trabalho foram comparados os resultados da análise química de terra proveniente de 15 áreas distintas, cujas amostras foram obtidas com cinco tipos de trado e com pá de corte. Também foram comparados o tempo demandado para a realização do trabalho e o volume de terra coletado com as diferentes ferramentas, em dois solos de texturas distintas. O tempo médio de amostragem foi estimado, avaliando-se o tempo gasto por seis pessoas para tomar dez amostras. Para o estudo de qualidade de resultados foram amostradas 15 áreas, com solos, manejos e níveis de fertilidade distintos, de modo a se obter grande variação entre os valores das características avaliadas. As amostragens constaram da estratificação por profundidades e amostras de 0 a 20 cm de profundidade no teste de tempo. A amostragem com a pá de corte demora de 1,3 a 2,3 vezes mais do que com os trados. Para os valores de pH, matéria orgânica, acidez do solo, Al trocável e P disponível, os resultados foram equivalentes para todas as ferramentas empregadas. Entretanto, para as bases do solo (Ca, Mg e K), as ferramentas empregadas resultaram, na maioria das vezes, em resultados diferentes dos obtidos pela pá de corte.
Resumo:
Macrófitas são importantes produtoras primárias do ecossistema aquático, e o desequilíbrio do ambiente pode ocasionar seu crescimento acelerado. Portanto, levantamentos de dados relacionados a macrófitas submersas são importantes para contribuir na gestão de corpos de água. Contudo, a amostragem dessa vegetação requer um enorme esforço físico. Nesse sentido, a técnica hidroacústica é apropriada para o estudo de macrófitas submersas. Assim, os objetivos deste trabalho foram avaliar os tipos de dados gerados pelo ecobatímetro e analisar como esses dados caracterizam a vegetação. Utilizou-se o ecobatímetro BioSonics DT-X acoplado a um GPS. A área de estudo é um trecho do Rio Uberaba, MG. A amostragem foi feita por meio de transectos, navegando de uma margem à outra. Depois de processar os dados, obteve-se informação a respeito de ocorrência de macrófitas submersas, profundidade, altura média das plantas, porcentagem da cobertura vegetal e posição. A partir desse conjunto de dados, foi possível extrair outras duas métricas: biovolume e altura efetiva do dossel. Os dados foram importados de um Sistema de Informação Geográfica e geraram-se mapas ilustrativos das variáveis estudadas. Além disso, quatro perfis foram selecionados para analisar a diferença entre as grandezas de representação de macrófitas. O ecobatímetro mostrou-se uma ferramenta eficaz no mapeamento de macrófitas submersas. Cada uma das medidas - altura do dossel, ECH ou biovolume - caracteriza de forma diferente a vegetação submersa. Dessa forma, a escolha do tipo de representação depende da aplicação desejada.
Resumo:
This dissertation focuses on rock thermal conductivity and its correlations with petrographic, textural, and geochemical aspects, especially in granite rocks. It aims at demonstrating the relations of these variables in an attempt to enlighten the behavior of thermal effect on rocks. Results can be useful for several applications, such as understanding and conferring regional thermal flow results, predicting the behavior of thermal effect on rocks based upon macroscopic evaluation (texture and mineralogy), in the building construction field in order to provide more precise information on data refinement on thermal properties emphasizing a rocky material thermal conductivity, and especially in the dimension stone industry in order to open a discussion on the use of these variables as a new technological parameter directly related to thermal comfort. Thermal conductivity data were obtained by using Anter Corporation s QuicklineTM -30 a thermal property measuring equipment. Measurements were conducted at temperatures ranging between 25 to 38 OC in samples with 2cm in length and an area of at least 6cm of diameter. As to petrography data, results demonstrated good correlations with quartz and mafics. Linear correlation between mineralogy and thermal conductivity revealed a positive relation of a quartz percentage increase in relation to a thermal conductivity increase and its decrease with mafic minerals increase. As to feldspates (K-feldspate and plagioclase) they show dispersion. Quartz relation gets more evident when compared to sample sets with >20% and <20%. Sets with more than 20% quartz (sienogranites, monzogranites, granodiorites, etc.), exhibit to a great extent conductivity values which vary from 2,5 W/mK and the set with less than 20% (sienites, monzonites, gabbros, diorites, etc.) have an average thermal conductivity below 2,5 W/mK. As to textures it has been verified that rocks considered thick/porphyry demonstrated in general better correlations when compared to rocks considered thin/medium. In the case of quartz, thick rocks/porphyry showed greater correlation factors when compared to the thin/medium ones. As to feldspates (K-feldspate and plagioclase) again there was dispersion. As to mafics, both thick/porphyry and thin/medium showed negative correlations with correlation factor smaller than those obtained in relation to the quartz. As to rocks related to the Streckeisen s QAP diagram (1976), they tend to fall from alcali-feldspates granites to tonalites, and from sienites to gabbros, diorites, etc. Thermal conductivity data correlation with geochemistry confirmed to a great extent mineralogy results. It has been seen that correlation is linear if there is any. Such behavior could be seen especially with the SiO2. In this case similar correlation can be observed with the quartz, that is, thermal conductivity increases as SiO2 is incremented. Another aspect observed is that basic to intermediate rocks presented values always below 2,5 W/mK, a similar behavior to that observed in rocks with quartz <20%. Acid rocks presented values above 2,5 W/mK, a similar behavior to that observed in rocks with quartz >20% (granites). For all the other cases, correlation factors are always low and present opposite behavior to Fe2O3, CaO, MgO, and TiO2. As to Al2O3, K2O, and Na2O results are not conclusive and are statistically disperse. Thermal property knowledge especially thermal conductivity and its application in the building construction field appeared to be very satisfactory for it involves both technological and thermal comfort aspects, which favored in all cases fast, cheap, and precise results. The relation between thermal conductivity and linear thermal dilatation have also shown satisfactory results especially when it comes to the quartz role as a common, determining phase between the two variables. Thermal conductivity studies together with rocky material density can function as an additional tool for choosing materials when considering structural calculation aspects and thermal comfort, for in the dimension stone case there is a small density variation in relation to a thermal conductivity considerable variation