8 resultados para Data Interpretation, Statistical

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diferentes organizações públicas e privadas coletam e disponibilizam uma massa de dados sobre a realidade sócio-econômica das diferentes nações. Há hoje, da parte do governo brasileiro, um interesse manifesto de divulgar uma gama diferenciada de informações para os mais diversos perfis de usuários. Persiste, contudo, uma série de limitações para uma divulgação mais massiva e democrática, entre elas, a heterogeneidade das fontes de dados, sua dispersão e formato de apresentação pouco amigável. Devido à complexidade inerente à informação geográfica envolvida, que produz incompatibilidade em vários níveis, o intercâmbio de dados em sistemas de informação geográfica não é problema trivial. Para aplicações desenvolvidas para a Web, uma solução são os Web Services que permitem que novas aplicações possam interagir com aquelas que já existem e que sistemas desenvolvidos em plataformas diferentes sejam compatíveis. Neste sentido, o objetivo do trabalho é mostrar as possibilidades de construção de portais usando software livre, a tecnologia dos Web Services e os padrões do Open Geospatial Consortium (OGC) para a disseminação de dados espaciais. Visando avaliar e testar as tecnologias selecionadas e comprovar sua efetividade foi desenvolvido um exemplo de portal de dados sócio-econômicos, compreendendo informações de um servidor local e de servidores remotos. As contribuições do trabalho são a disponibilização de mapas dinâmicos, a geração de mapas através da composição de mapas disponibilizados em servidores remotos e local e o uso do padrão OGC WMC. Analisando o protótipo de portal construído, verifica-se, contudo, que a localização e requisição de Web Services não são tarefas fáceis para um usuário típico da Internet. Nesta direção, os trabalhos futuros no domínio dos portais de informação geográfica poderiam adotar a tecnologia Representational State Transfer (REST).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A bacia de Bengala, localizada a Nordeste da Índia tem uma história evolutiva extraordinária, diretamente controlada bela fragmentação do Gondwana. O início da formação desta bacia é considerada como sendo relacionada ao final do evento da quebra, datado em 126 Ma quando a Índia separou do continente Antártico e da Austrália. Desde então, a placa continental Indiana viajou do pólo sul a uma velocidade muito rápida (16 cm/a) chocando-se com o hemisfério norte e fundindo-se com a Placa Eurasiana. Durante a viagem passou por cima de um hot spot, onde hoje estão localizadas as ilhas Seicheles, resultando em um dos maiores derrames de lava basáltica do mundo, conhecido como Deccan Trap. Na região onde a bacia de Bengala foi formada, não houve aporte significativo de sedimentos siliciclásticos, resultando na deposição de uma espessa plataforma carbonática do Cretáceo tardio ao Eoceno. Após este período, devido a colisão com algumas microplacas e a amalgamação com a Placa Eurasiana, um grande volume sedimentar siliciclástico foi introduzido para a bacia, associado também ao soerguimento da cadeia de montanhas dos Himalaias. Atualmente, a Bacia de Bengala possui mais de 25 km de sedimentos, coletados neste depocentro principal. Nesta dissertação foram aplicados conceitos básicos de sismoestratigrafia na interpretação de algumas linhas regionais. As linhas sísmicas utilizadas foram adquiridas recentemente por programa sísmico especial, o qual permitiu o imageamento sísmico a mais de 35km dentro da litosfera (crosta continental e transicional). O dado permitiu interpretar eventos tectônicos, como a presença dos Seawards Dipping Reflectors (SDR) na crosta transicional, coberto por sedimentos da Bacia de Bengala. Além da interpretação sísmica amarrada a alguns poços de controle, o programa de modelagem sedimentar Beicip Franlab Dionisos, foi utilizado para modelar a história de preenchimento da bacia para um período de 5,2 Ma. O nível relativo do nível do mar e a taxa de aporte sedimentar foram os pontos chaves considerados no modelo. Através da utilização dos dados sísmicos, foi possível reconhecer dez quebras de plataformas principais, as quais foram utilizadas no modelo, amarrados aos seus respectivos tempos geológico, provenientes dos dados dos poços do Plioceno ao Holoceno. O resultado do modelo mostrou que a primeira metade modelada pode ser considerada como um sistema deposicional retrogradacional, com algum picos transgressivos. Este sistema muda drasticamente para um sistema progradacional, o qual atuou até o Holoceno. A seção modelada também mostra que no período considerado o total de volume depositado foi em torno de 2,1 x 106 km3, equivalente a 9,41 x 1014 km3/Ma.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os métodos potenciais são conhecidos como uma ferramenta útil para estudos regionais. Na Ibéria Ocidental, a gravimetria e a magnetometria podem ser utilizadas para auxiliar no entendimento de algumas questões sobre a estruturação tectônica offshore. Nesta região, tanto as estruturas geradas pela quebra continental, quanto às herdadas do embasamento variscano, tem uma importante contribuição para a resposta geofísica regional observada com estes métodos. Este trabalho tem como objetivo correlacionar as feições geofísicas observadas com alguns modelos geológicos do arcabouço tectônico da Ibéria Ocidental já publicados na literatura. Mapas filtrados foram usados para auxiliar no reconhecimento de diferentes assinaturas geofísicas, os quais foram calculados a partir dos mapas de gravidade Bouguer e do campo magnético total tais como o gradiente horizontal total, derivada tilt, derivada vertical, e integral vertical. O domínio crustal continental foi definido a partir da interpretação dos dados gravimétricos, utilizando gradiente de gravidade horizontal total da Anomalia Bouguer. Os dados magnéticos, originais e filtrados, foram utilizados para identificar mais três domínios regionais offshore, que sugerem a existência de três tipos de crosta não-siálica. Dois deles são propostos como domínios de transição. A região da crosta de transição mais próxima do continente tem uma fraca resposta regional magnética, e a porção mais distal é um domínio de anomalia de alta amplitude, semelhante à resposta magnética oceânica. O limite crustal oceânico não pôde ser confirmado, mas um terceiro domínio offshore, a oeste da isócrona C34, poderia ser considerado como crosta oceânica, devido ao padrão magnético que apresenta. Alguns lineamentos do embasamento foram indicados na crosta continental offshore. As feições gravimétricas e magnéticas interpretadas coincidem, em termos de direção e posição, com zonas de sutura variscanas, mapeados em terra. Assim, esses contatos podem corresponder à continuação offshore destas feições paleozoicas, como o contato entre as zonas de Ossa Morena-Zona Centro-Ibérica. Nesta interpretação, sugere-se que a crosta continental offshore pode ser composta por unidades do Sudoeste da Península Ibérica. Isto permite considerar que a Falha de Porto-Tomar pertence a uma faixa de deformação strike-slip, onde parte das bacias mesozoicas da margem continental está localizada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O Gráben de Barra de São João, situado na região de águas rasas da Bacia de Campos, é parte integrante do Sistema de Riftes do Cenozóico, localizado na região sudeste do Brasil. Este sistema foi formado em um evento que resultou na reativação das principais zonas de cisalhamento do Pré-Cambriano do sudeste do Brasil no Paleoceno. Neste trabalho proponho um novo arcabouço estrutural para o Gráben de Barra de São João baseado na interpretação de dados gravimétricos. Dados magnéticos aéreos, dados gravimétricos, uma linha sísmica 2D e um perfil de densidades de um poço foram utilizados como vínculos na interpretação. Para a estimativa do topo do embasamento foi necessário separar o efeito das fontes profundas no dado gravimétrico (anomalia residual). Com isso, foi realizada uma modelagem 2D direta baseada na interpretação sísmica para estimar as densidades das entidades geológicas da área em questão. Após esta modelagem, foi realizada uma inversão estrutural 3D do dado gravimétrico residual a fim de recuperar a profundidade do topo do embasamento. Este fluxograma de interpretação permitiu a identificação de um complexo arcabouço estrutural com três sistemas de falhas bem definido: Falhas normais de orientação NE-SW, e um sistema de falhas transcorrentes NW-SE e E-W. Estas orientações dividem o gráben em diversos altos e baixos internos. O dado magnético aéreo corrobora esta interpretação. A existência de rochas ultra-densas e fortemente magnéticas no embasamento foram interpretadas como um ofiolito que foi provavelmente intrudido (por obducção) na época do fechamento de um oceano no Proterozóico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Gestão Pública tem incorporado boas práticas de administração mediante foco no resultado eficiente e na transparência. A utilização de indicadores de desempenho exerce um papel fundamental para espelhar a real situação do órgão e suas possibilidades de melhoria. No caso específico das universidades federais, o Tribunal de Contas da União (TCU) estabeleceu um conjunto de nove indicadores a serem medidos por essas unidades e divulgados através de seus relatórios de gestão. A dificuldade interpretativa advinda de visualizar, simultaneamente, esses critérios avaliativos contidos nesse conjunto e suas interdependências, fomentou a elaboração desta pesquisa. O estudo objetiva analisar e sintetizar o conjunto de indicadores de desempenho, atinentes a 53 universidades federais, referentes aos anos de 2008 a 2010, a fim de identificar um modelo de simplificação para auxiliar os controles interno e externo. A metodologia utilizada é a da Análise Fatorial, uma técnica estatística multivariada de interdependência, e pouco explorada em pesquisas anteriores nessa temática, além de testes de regressão linear e da Análise Envoltória de Dados (DEA), esta já amplamente utilizada na literatura, a fim de possibilitar ratificar as associações e interpretações dos resultados. Os testes mostraram uma aderência satisfatória da técnica aos dados coletados, permitindo identificar dois fatores que pudessem explicar 61,8% do conjunto informacional original. Com ratificação da DEA, esses fatores foram associados ao desempenho e ao custo, e a relação entre os dois foi interpretada como um índice de eficiência. O fator atrelado ao desempenho foi intitulado o indicador sumarizado de todo o conjunto estabelecido pelo TCU, tendo sido encontrado correlação alta e significativa com o Ranking Universitário Folha, mostrando que eles possuem semelhantes poderes discriminantes, mesmo tendo sido oriundos de bases de cálculo distintas. Ademais, destacam-se os seguintes resultados complementares: 1) Embora o custo influencie para o desempenho das universidades federais, ele não é preponderante, mas os indicadores de envolvimento com a pós-graduação e qualificação do corpo docente são os mais relevantes; 2) Os indicadores de resultado não sofrem muita influência do custo, sobretudo o de recursos humanos (funcionários), mostrando que de uma maneira geral há ineficiência na gestão de pessoal das universidades; 3) A utilização da DEA mostrou que a escolha das variáveis realmente pode redundar em resultados distintos e não correlatos significativamente, apresentando uma limitação quanto à certificação dos escores de eficiência obtidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo apresentar uma estimativa preliminar do volume de recurso contingente não-convencionais de folhelhos oleígenos (oil shale) na Formação Tremembé através de métodos probabilísticos aplicados à informações compiladas de bibliografias existentes sobre a bacia. Como base para esta estimativa utilizou-se informações obtidas através de sísmica 2D, poços existentes na área e perfis geoquímicos. Através da interpretação dos mesmos foram gerados os valores de inputs para os parâmetros utilizados no cálculo, como: espessura econômica, densidade do minério e valor de Ensaio Fisher (Litros de óleo por tonelada de rocha). Para a análise foi construída uma planilha Excel no qual já descrito cada parâmetro do cálculo. Foi utilizado o software @Risk, da Palisade Inc., que é capaz de atribuir distribuições estatísticas a parâmetros utilizados no cálculo obtendo, a partir do método Monte Carlo, distribuições dos possíveis resultados. A metodologia apresentada se demonstra mais adequada ao caso em estudo que o método determinístico, devido a restrição e ausência da precisão dos dados o que aumentaria as incertezas e as chances de erro no cálculo do volume, podendo impossibilitar uma avaliação, no caso do segundo. A metodologia probabilística ao mesmo tempo em que permite uma avaliação preliminar na ausência de dados precisos, ela gera cenários probabilísticos de resultados, possibilitando a antecipação da tomada de decisões em um projeto, permitindo sua continuação ou abandono.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A evolução tecnológica tem feito as empresas se modificarem, e para acompanhar o mercado elas buscam opções que possam ajudar melhor nas tomadas de suas decisões, uma delas é a utilização de tecnologias. A presente pesquisa objetiva analisar a contribuição da tecnologia da informação no orçamento da indústria Alfa. Esta pesquisa é descritiva e exploratória, pois busca descrever a realidade da organização, identificando as características do orçamento da mesma, é quantitativa, pois busca através de métodos estatísticos realizar previsões para o ano de 2013 das demonstrações de resultados advindos dos anos anteriores (2010 a 2012), é também, qualitativa, pois foi elaborado um questionário que pôde auxiliar na interpretação dos dados quantitativos, possibilitando melhores informações sobre o objetivo proposto. Concluiu-se que a tecnologia pode ajudar a melhorar a qualidade da previsão do orçamento da indústria Alfa e o método que melhor se adequou para as estimativas foi a suavização exponencial que demonstrou maior confiabilidade para os resultados.