938 resultados para alta risoluzione Trentino Alto Adige data-set climatologia temperatura giornaliera orografia complessa


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho teve como objetivo principal analisar as mudanças nas formas de venda e consumo do açaí na Região Metropolitana de Belém (RMB), e sua relação com a identidade de lugar de seus consumidores. O interesse pelo tema teve origem na observação da ocorrência da globalização do açaí, alimento base da dieta das populações amazônicas de origem ribeirinha que hoje é largamente consumido fora da Região Amazônica, em padrões muito diferentes daqueles nela estabelecidos. A escolha da RMB como lócus de pesquisa se justifica pelo fato de que nela se concentra alto consumo de açaí, nos padrões tradicionais e nos modernos, suscitando questionamentos sobre os efeitos dessa convivência na vida cotidiana dos que a habitam. Teoricamente, a pesquisa articula a definição de identidade de lugar de Abe-Lima (2012) com as elaborações de Henri Lefèbvre (1991) sobre a vida cotidiana no mundo moderno e com teoria dos circuitos econômicos de Milton Santos (2008). Metodologicamente, foi adotada uma estratégia multimétodos, envolvendo pesquisa documental, um painel de especialistas com 5 entidades de acompanhamento da produção de açaí, observações pautadas na etnografia urbana em 9 locais de venda e entrevistas semiabertas com 40 consumidores de açaí, maiores de 18 anos e residentes na RMB, recrutados por meio de cadeia tipo bola de neve. Além dos roteiros de entrevistas, foram utilizados como estratégias de coleta de dados diários de campo e fotografias. O conjunto dos dados foi submetido à técnica da análise de conteúdo temática, com eventual apoio do software QDA Miner Lite. Os resultados situaram a globalização do açaí em meados da década de 1990, momento de intensificação dos efeitos da metropolização em Belém, como o aumento populacional, a segregação espacial e a imposição de um ritmo de vida mais acelerado. As análises apontaram que tal processo significou a entrada do açaí no circuito superior da economia, com um processo produtivo mais organizado, utilizando mais tecnologia e envolvendo maiores volumes financeiros, atingindo escala industrial. No entanto, prevalece na RMB o processamento artesanal, em estruturas de pequeno porte, construídas em alvenaria, de organização simples e controle financeiro ausente. O consumo público aumentou, com grande número de locais especializados na oferta de açaí, em caráter de entretenimento, sendo incipiente a adesão a novos acompanhamentos, como granola e aveia. A preferência pelos acompanhamentos tradicionais, como farinha d’água ou de tapioca, açúcar e peixe, permanece, assim como pelo consumo privado, no âmbito da casa, que tem sido favorecido pela disponibilidade do serviço de entrega, recurso recente. A frequência geral de consumo diminuiu, em função do aumento de preço e de mudanças na rotina, como aumento da distância entre local de trabalho e residência. A pesquisa permitiu reafirmar a importância do açaí na vida cotidiana dos belenenses que o consomem, para os quais ele funciona como elemento de distintividade, continuidade, autoestima e autoeficácia, em estreita relação com aspectos próprios da metrópole. Por esse motivo, torna-se preocupante que o acesso a açaí de qualidade, nos padrões desejados pelos indivíduos, esteja tornando-SE privilégio inacessível aos consumidores de menor poder aquisitivo. Assim, espera-se que o conjunto de dados contribua para a compreensão da importância de políticas públicas voltadas ao açaí que considerem melhor as demandas daqueles que o consomem.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Genética e Melhoramento Animal - FCAV

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Empirical phylogeographic studies have progressively sampled greater numbers of loci over time, in part motivated by theoretical papers showing that estimates of key demographic parameters improve as the number of loci increases. Recently, next-generation sequencing has been applied to questions about organismal history, with the promise of revolutionizing the field. However, no systematic assessment of how phylogeographic data sets have changed over time with respect to overall size and information content has been performed. Here, we quantify the changing nature of these genetic data sets over the past 20years, focusing on papers published in Molecular Ecology. We found that the number of independent loci, the total number of alleles sampled and the total number of single nucleotide polymorphisms (SNPs) per data set has improved over time, with particularly dramatic increases within the past 5years. Interestingly, uniparentally inherited organellar markers (e.g. animal mitochondrial and plant chloroplast DNA) continue to represent an important component of phylogeographic data. Single-species studies (cf. comparative studies) that focus on vertebrates (particularly fish and to some extent, birds) represent the gold standard of phylogeographic data collection. Based on the current trajectory seen in our survey data, forecast modelling indicates that the median number of SNPs per data set for studies published by the end of the year 2016 may approach similar to 20000. This survey provides baseline information for understanding the evolution of phylogeographic data sets and underscores the fact that development of analytical methods for handling very large genetic data sets will be critical for facilitating growth of the field.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The most common sleep disorder is obstructive sleep apnea syndrome (OSAS), that is characterized by repeated pauses in breathing during sleep, resulting in partial or complete obstruction of the upper airway. It is associated with systemic arterial hypertension and obesity. Objective: To assess the frequency of OSAS in the adult population of Botucatu by the Berlin questionnaire. Method: Transveral study was performed in which the sample size was estimated at 385 individuals. The Berlin questionnaire was administered to adults randomly on the streets, supermarkets and local shops. Data were analyzed taking into account age, gender, "high risk for OSAS", hypertension, obesity and correlations for OSAS. Results: 468 people interviewed were aged between 18 and 95 years, average of 59 years. 166 (35.25%) individuals were identified as "high risk for OSAS", being more frequent in the population above 40 years. Obesity was present in 23.3%, more common in women (60.2%). 83.5% of the population obese also had a "high risk for OSAS". Hypertension was observed in 27.3%, of these 71.9% were at "high risk for OSAS". Conclusion: The study showed a high frequency of "high risk for OSAS" in the adult population. Despite the dissemination by the media about sleep apnea, patients are not investigated, even under medical care for hypertension.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Genética e Melhoramento Animal - FCAV

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We propose a general framework for the analysis of animal telemetry data through the use of weighted distributions. It is shown that several interpretations of resource selection functions arise when constructed from the ratio of a use and availability distribution. Through the proposed general framework, several popular resource selection models are shown to be special cases of the general model by making assumptions about animal movement and behavior. The weighted distribution framework is shown to be easily extended to readily account for telemetry data that are highly auto-correlated; as is typical with use of new technology such as global positioning systems animal relocations. An analysis of simulated data using several models constructed within the proposed framework is also presented to illustrate the possible gains from the flexible modeling framework. The proposed model is applied to a brown bear data set from southeast Alaska.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We consider a fully model-based approach for the analysis of distance sampling data. Distance sampling has been widely used to estimate abundance (or density) of animals or plants in a spatially explicit study area. There is, however, no readily available method of making statistical inference on the relationships between abundance and environmental covariates. Spatial Poisson process likelihoods can be used to simultaneously estimate detection and intensity parameters by modeling distance sampling data as a thinned spatial point process. A model-based spatial approach to distance sampling data has three main benefits: it allows complex and opportunistic transect designs to be employed, it allows estimation of abundance in small subregions, and it provides a framework to assess the effects of habitat or experimental manipulation on density. We demonstrate the model-based methodology with a small simulation study and analysis of the Dubbo weed data set. In addition, a simple ad hoc method for handling overdispersion is also proposed. The simulation study showed that the model-based approach compared favorably to conventional distance sampling methods for abundance estimation. In addition, the overdispersion correction performed adequately when the number of transects was high. Analysis of the Dubbo data set indicated a transect effect on abundance via Akaike’s information criterion model selection. Further goodness-of-fit analysis, however, indicated some potential confounding of intensity with the detection function.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hundreds of Terabytes of CMS (Compact Muon Solenoid) data are being accumulated for storage day by day at the University of Nebraska-Lincoln, which is one of the eight US CMS Tier-2 sites. Managing this data includes retaining useful CMS data sets and clearing storage space for newly arriving data by deleting less useful data sets. This is an important task that is currently being done manually and it requires a large amount of time. The overall objective of this study was to develop a methodology to help identify the data sets to be deleted when there is a requirement for storage space. CMS data is stored using HDFS (Hadoop Distributed File System). HDFS logs give information regarding file access operations. Hadoop MapReduce was used to feed information in these logs to Support Vector Machines (SVMs), a machine learning algorithm applicable to classification and regression which is used in this Thesis to develop a classifier. Time elapsed in data set classification by this method is dependent on the size of the input HDFS log file since the algorithmic complexities of Hadoop MapReduce algorithms here are O(n). The SVM methodology produces a list of data sets for deletion along with their respective sizes. This methodology was also compared with a heuristic called Retention Cost which was calculated using size of the data set and the time since its last access to help decide how useful a data set is. Accuracies of both were compared by calculating the percentage of data sets predicted for deletion which were accessed at a later instance of time. Our methodology using SVMs proved to be more accurate than using the Retention Cost heuristic. This methodology could be used to solve similar problems involving other large data sets.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper we propose a hybrid hazard regression model with threshold stress which includes the proportional hazards and the accelerated failure time models as particular cases. To express the behavior of lifetimes the generalized-gamma distribution is assumed and an inverse power law model with a threshold stress is considered. For parameter estimation we develop a sampling-based posterior inference procedure based on Markov Chain Monte Carlo techniques. We assume proper but vague priors for the parameters of interest. A simulation study investigates the frequentist properties of the proposed estimators obtained under the assumption of vague priors. Further, some discussions on model selection criteria are given. The methodology is illustrated on simulated and real lifetime data set.