982 resultados para Amostragem hierárquica


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Para diagnose nutricional da bananeira, é necessário padronizar a amostragem do tecido a ser utilizado, já que a composição mineral varia com a idade da planta, com a folha amostrada, entre as diversas partes da folha, ao que se somam as condições ecológicas, diferenças varietais e flutuações sazonais dos elementos. Portanto, a possibilidade de equívoco na interpretação é considerável. O Método de Amostragem Internacional de Referência (MEIR) para bananeira recomenda coletar a terceira folha de plantas com cachos que apresentem todas as pencas visíveis e não mais que três mãos de flores masculinas abertas, retirando-se a metade interna de uma faixa central do limbo, desprovida da nervura central. Há uma dificuldade em seguir tal recomendação para bananeira 'Prata-Anã' cultivada no norte de Minas Gerais, pois ela possui porte alto e roseta foliar muito densa, que confunde a localização da folha amostrada. Além disso, normalmente, as amostras são retiradas com largura diferente dos 10 cm recomendados. Dadas as dificuldades de amostragem da bananeira 'Prata-Anã' e o fato de besta cultivar sob irrigação ser pouco estudada, comparada àquelas do subgrupo Cavendish, o presente trabalho objetivou determinar o efeito da folha amostrada e da largura da amostra sobre os teores minerais de bananeira 'Prata-Anã' cultivada sob irrigação no norte de Minas Gerais. Apesar das variações estatísticas, os teores foliares mantiveram-se dentro da faixa de suficiência, independentemente da posição da folha amostra da- 2ª, 3ª ou 4ª folha - ou do tamanho da amostra - 10; 20 ou 30 cm de largura. Isto sugere que a coleta de folha na posição acima (segunda) ou abaixo (quarta) da folha recomendada terceira, numa largura foliar de 10 a 30 cm, pouco altera os teores foliares em relação à indicação pelo método MEIR, tolerando-se assim uma possível variação da amostra quanto à posição e à largura foliar testadas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho foi realizado na Faculdade de Ciências Agrárias Veterinárias - Unesp - Jaboticabal e foi conduzido, com o objetivo de avaliar a influência do método de amostragem do pasto sobre a degradabilidade in situ da matéria seca e da fração fibrosa de capim Marandu, colhido no período seco dos anos de 2003 e 2005. O experimento foi instalado em delineamento de blocos casualizados com parcela subdividida, com três repetições, representadas pelos piquetes amostrados. Nas parcelas, foram avaliados cinco métodos de amostragens de forragem (método do quadrado metálico; método de avaliação através de extrusa de bovino da raça Nelore; método de avaliação por meio de extrusa de bovino Cruzado (Red Angus x Nelore); método de avaliação por meio do pastejo, simulando bovino da raça Nelore; método de avaliação por meio do pastejo, simulando bovino Cruzado (Red Angus x Nelore) e as subparcelas foram constituídas pelos anos de amostragem, 2003 e 2005. Foram determinadas as frações da cinética ruminal: solúvel A; insolúvel potencialmente degradável B; taxa de degradação Kd; degradação potencial (DP) e fração não degradável C da MS e degradação potencial (DP), fração não degradável C e taxa de degradação Kd da FDN e da FDA. de acordo com os resultados obtidos, observou-se que o método do quadrado metálico subestimou as características da degradação do capim. Os métodos do pastejo simulado se assemelharam muito ao das extrusas, no entanto, a prática do simulador é que assegurou a amostragem eficiente, conforme foi constatado pelos dados obtidos no ano de 2003 e 2005.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The progresses of the Internet and telecommunications have been changing the concepts of Information Technology IT, especially with regard to outsourcing services, where organizations seek cost-cutting and a better focus on the business. Along with the development of that outsourcing, a new model named Cloud Computing (CC) evolved. It proposes to migrate to the Internet both data processing and information storing. Among the key points of Cloud Computing are included cost-cutting, benefits, risks and the IT paradigms changes. Nonetheless, the adoption of that model brings forth some difficulties to decision-making, by IT managers, mainly with regard to which solutions may go to the cloud, and which service providers are more appropriate to the Organization s reality. The research has as its overall aim to apply the AHP Method (Analytic Hierarchic Process) to decision-making in Cloud Computing. There to, the utilized methodology was the exploratory kind and a study of case applied to a nationwide organization (Federation of Industries of RN). The data collection was performed through two structured questionnaires answered electronically by IT technicians, and the company s Board of Directors. The analysis of the data was carried out in a qualitative and comparative way, and we utilized the software to AHP method called Web-Hipre. The results we obtained found the importance of applying the AHP method in decision-making towards the adoption of Cloud Computing, mainly because on the occasion the research was carried out the studied company already showed interest and necessity in adopting CC, considering the internal problems with infrastructure and availability of information that the company faces nowadays. The organization sought to adopt CC, however, it had doubt regarding the cloud model and which service provider would better meet their real necessities. The application of the AHP, then, worked as a guiding tool to the choice of the best alternative, which points out the Hybrid Cloud as the ideal choice to start off in Cloud Computing. Considering the following aspects: the layer of Infrastructure as a Service IaaS (Processing and Storage) must stay partly on the Public Cloud and partly in the Private Cloud; the layer of Platform as a Service PaaS (Software Developing and Testing) had preference for the Private Cloud, and the layer of Software as a Service - SaaS (Emails/Applications) divided into emails to the Public Cloud and applications to the Private Cloud. The research also identified the important factors to hiring a Cloud Computing provider

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work, we propose a solution to solve the scalability problem found in collaborative, virtual and mixed reality environments of large scale, that use the hierarchical client-server model. Basically, we use a hierarchy of servers. When the capacity of a server is reached, a new server is created as a sun of the first one, and the system load is distributed between them (father and sun). We propose efficient tools and techniques for solving problems inherent to client-server model, as the definition of clusters of users, distribution and redistribution of users through the servers, and some mixing and filtering operations, that are necessary to reduce flow between servers. The new model was tested, in simulation, emulation and in interactive applications that were implemented. The results of these experimentations show enhancements in the traditional, previous models indicating the usability of the proposed in problems of all-to-all communications. This is the case of interactive games and other applications devoted to Internet (including multi-user environments) and interactive applications of the Brazilian Digital Television System, to be developed by the research group. Keywords: large scale virtual environments, interactive digital tv, distributed

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The automatic speech recognition by machine has been the target of researchers in the past five decades. In this period have been numerous advances, such as in the field of recognition of isolated words (commands), which has very high rates of recognition, currently. However, we are still far from developing a system that could have a performance similar to the human being (automatic continuous speech recognition). One of the great challenges of searches for continuous speech recognition is the large amount of pattern. The modern languages such as English, French, Spanish and Portuguese have approximately 500,000 words or patterns to be identified. The purpose of this study is to use smaller units than the word such as phonemes, syllables and difones units as the basis for the speech recognition, aiming to recognize any words without necessarily using them. The main goal is to reduce the restriction imposed by the excessive amount of patterns. In order to validate this proposal, the system was tested in the isolated word recognition in dependent-case. The phonemes characteristics of the Brazil s Portuguese language were used to developed the hierarchy decision system. These decisions are made through the use of neural networks SVM (Support Vector Machines). The main speech features used were obtained from the Wavelet Packet Transform. The descriptors MFCC (Mel-Frequency Cepstral Coefficient) are also used in this work. It was concluded that the method proposed in this work, showed good results in the steps of recognition of vowels, consonants (syllables) and words when compared with other existing methods in literature

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos de regressão aleatória foram utilizados neste estudo para estimar parâmetros genéticos da produção de leite no dia do controle (PLDC) em caprinos leiteiros da raça Alpina, por meio da metodologia Bayesiana. As estimativas geradas foram comparadas às obtidas com análise de regressão aleatória, utilizando-se o REML. As herdabilidades encontradas pela análise Bayesiana variaram de 0,18 a 0,37, enquanto, pelo REML, variaram de 0,09 a 0,32. As correlações genéticas entre dias de controle próximos se aproximaram da unidade, decrescendo gradualmente conforme a distância entre os dias de controle aumentou. Os resultados obtidos indicam que: a estrutura de covariâncias da PLDC em caprinos ao longo da lactação pode ser modelada adequadamente por meio da regressão aleatória; a predição de ganhos genéticos e a seleção de animais geneticamente superiores é viável ao longo de toda a trajetória da lactação; os resultados gerados pelas análises de regressão aleatória utilizando-se a Amostragem de Gibbs e o REML foram semelhantes, embora as estimativas das variâncias genéticas e das herdabilidades tenham sido levemente superiores na análise Bayesiana, utilizando-se a Amostragem de Gibbs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

ln this work the implementation of the SOM (Self Organizing Maps) algorithm or Kohonen neural network is presented in the form of hierarchical structures, applied to the compression of images. The main objective of this approach is to develop an Hierarchical SOM algorithm with static structure and another one with dynamic structure to generate codebooks (books of codes) in the process of the image Vector Quantization (VQ), reducing the time of processing and obtaining a good rate of compression of images with a minimum degradation of the quality in relation to the original image. Both self-organizing neural networks developed here, were denominated HSOM, for static case, and DHSOM, for the dynamic case. ln the first form, the hierarchical structure is previously defined and in the later this structure grows in an automatic way in agreement with heuristic rules that explore the data of the training group without use of external parameters. For the network, the heuristic mIes determine the dynamics of growth, the pruning of ramifications criteria, the flexibility and the size of children maps. The LBO (Linde-Buzo-Oray) algorithm or K-means, one ofthe more used algorithms to develop codebook for Vector Quantization, was used together with the algorithm of Kohonen in its basic form, that is, not hierarchical, as a reference to compare the performance of the algorithms here proposed. A performance analysis between the two hierarchical structures is also accomplished in this work. The efficiency of the proposed processing is verified by the reduction in the complexity computational compared to the traditional algorithms, as well as, through the quantitative analysis of the images reconstructed in function of the parameters: (PSNR) peak signal-to-noise ratio and (MSE) medium squared error

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Embora existam indicações de que a pá de corte proporcione melhor qualidade de amostragem de terra para fins de análise de fertilidade, seu manuseio demanda muito tempo. No presente trabalho foram comparados os resultados da análise química de terra proveniente de 15 áreas distintas, cujas amostras foram obtidas com cinco tipos de trado e com pá de corte. Também foram comparados o tempo demandado para a realização do trabalho e o volume de terra coletado com as diferentes ferramentas, em dois solos de texturas distintas. O tempo médio de amostragem foi estimado, avaliando-se o tempo gasto por seis pessoas para tomar dez amostras. Para o estudo de qualidade de resultados foram amostradas 15 áreas, com solos, manejos e níveis de fertilidade distintos, de modo a se obter grande variação entre os valores das características avaliadas. As amostragens constaram da estratificação por profundidades e amostras de 0 a 20 cm de profundidade no teste de tempo. A amostragem com a pá de corte demora de 1,3 a 2,3 vezes mais do que com os trados. Para os valores de pH, matéria orgânica, acidez do solo, Al trocável e P disponível, os resultados foram equivalentes para todas as ferramentas empregadas. Entretanto, para as bases do solo (Ca, Mg e K), as ferramentas empregadas resultaram, na maioria das vezes, em resultados diferentes dos obtidos pela pá de corte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The aim of this study is to quantify the presence of major and minor elements in the sediments of estuary Potengi. Four georeferenced sampling points were used in the study, at which sediment samples were collected in the channel of the river and on the right and left banks. In addition, dissolved oxygen, salinity and water conductivity were taken in situ at the time of sample collection. The percentage of organic matter, determined by gravimetry, and granulometric analysis of the sediment samples were conducted in the laboratory. To quantify the major and minor elements a prior test to open the sample was conducted with standard NIST 1646ª estuarine sediment to choose the best methodology to be adopted. The sediment samples were dissolved in microwaves with nitric acid and chloridric acid, according to methodology proposed by US EPA 3051ª. Quantitative analyses of the elements Al, Fe, Cd, Cr, Cu, Mn, Ni, Pb and Zn were conducted by inductively coupled plasma optical emission spectrometry (ICPOES). The results showed that the partial concentrations of the elements analyzed are below average worldwide shale levels, the standard described by Turekian and Wedepohl (1961)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho objetivou avaliar o efeito de dois métodos de amostragem nas propriedades químicas do solo, em área com cana-de-açúcar após tratamentos corretivos de acidez. O primeiro método consistiu na amostragem de solo em 30% dos pontos na posição da linha e 70% na posição da entrelinha (LE). No segundo método, as amostras de solo foram coletadas em 100% dos pontos na posição da entrelinha (E) e da combinação de duas fontes de corretivos, escória e calcário, com níveis de correção do V% para 50, para 75 e para 100, e uma testemunha sem correção. A amostragem do solo pelo método LE superestimou a acidez potencial, enquanto a amostragem do solo na entrelinha apresentou melhor ajuste dos dados para determinação do pH, H + Al, Ca, Mg e V% do solo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper proposes a new control chart to monitor a process mean employing a combined npx-X control chart. Basically the procedure consists of splitting the sample of size n into two sub-samples n1 and n2 determined by an optimization search. The sampling occur in two-stages. In the first stage the units of the sub-sample n1 are evaluated by attributes and plotted in npx control chart. If this chart signs then units of second sub-sample are measured and the monitored statistic plotted in X control chart (second stage). If both control charts sign then the process is stopped for adjustment. The possibility of non-inspection in all n items may promote a reduction not only in the cost but also the time spent to examine the sampled items. Performances of the current proposal, individual X and npx control charts are compared. In this study the proposed procedure presents many competitive options for the X control chart for a sample size n and a shift from the target mean. The average time to sign (ATS) of the current proposal lower than the values calculated from an individual X control chart points out that the combined control chart is an efficient tool in monitoring process mean.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data classification is a task with high applicability in a lot of areas. Most methods for treating classification problems found in the literature dealing with single-label or traditional problems. In recent years has been identified a series of classification tasks in which the samples can be labeled at more than one class simultaneously (multi-label classification). Additionally, these classes can be hierarchically organized (hierarchical classification and hierarchical multi-label classification). On the other hand, we have also studied a new category of learning, called semi-supervised learning, combining labeled data (supervised learning) and non-labeled data (unsupervised learning) during the training phase, thus reducing the need for a large amount of labeled data when only a small set of labeled samples is available. Thus, since both the techniques of multi-label and hierarchical multi-label classification as semi-supervised learning has shown favorable results with its use, this work is proposed and used to apply semi-supervised learning in hierarchical multi-label classication tasks, so eciently take advantage of the main advantages of the two areas. An experimental analysis of the proposed methods found that the use of semi-supervised learning in hierarchical multi-label methods presented satisfactory results, since the two approaches were statistically similar results

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Identificar vantagens e desvantagens do uso de segmentos em relação ao sorteio feito a partir da lista completa de endereços, para o sorteio de domicílios em amostragem por conglomerados em múltiplos estágios em favelas. PROCEDIMENTOS METODOLÓGICOS: Estudo qualitativo realizado em quatro favelas sorteadas no Inquérito de Saúde do Município de São Paulo, SP, 2008, nas quais foram aplicadas as duas técnicas. Foram realizados grupos focais com pesquisadores de campo - arroladores e entrevistadores do inquérito. Os conteúdos das conversações foram analisados, agrupados em categorias e organizados em núcleos temáticos. ANÁLISE DOS RESULTADOS: A utilização de segmentos de domicílios foi associada a numerosas vantagens e poucas desvantagens. Entre as vantagens, constaram a rapidez e facilidade na elaboração do cadastro de endereços e na localização e identificação de domicílios na etapa de realização das entrevistas, maior segurança dos entrevistadores e da população, maior acesso aos entrevistados, maior estabilidade e maior cobertura do cadastro produzido, e menor ocorrência de erros na identificação dos domicílios sorteados. CONCLUSÕES: A construção de cadastro de domicílios por meio da criação de segmentos é vantajosa em relação à listagem completa de endereços, quando feita em favelas. Por ter se mostrado uma opção econômica e fácil de ser aplicada, constitui alternativa para a simplificação do processo de amostragem em áreas com as suas características de desorganização e adensamento de domicílios.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Descrever o desenho amostral efetuado para estimar a distribuição de população economicamente ativa, apresentando o efeito do desenho encontrado. MÉTODOS: A partir de um cadastro universal, foram amostrados 4.782 domicílios residenciais do município de Botucatu, SP, por intermédio de amostra aleatória sistemática de conglomerados, realizada entre junho e julho de 1997. RESULTADOS: Os 4.782 domicílios residenciais corresponderam a 17.219 moradores de Botucatu, entre junho e julho de 1997. em decorrência da perda de heterogeneidade da distribuição das ocupações dentro dos domicílios amostrados, o efeito do desenho encontrado variou entre 1,00 e 1,96. CONCLUSÕES: Com base nos resultados obtidos, sugere-se que, em amostras de conglomerados para estimativas da distribuição de ocupações em populações economicamente ativas, o efeito do desenho seja estimado como e=1,50, para amostragens em zona urbana; e e=2,00 para amostragens em zona rural.