173 resultados para Estatistica - Processamento de dados


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma linguagem orientada ao problema de projeto estrutural de edifícios e a correspondente estrutura de armazenamento de dados são apresentados, como núcleo principal do sistema PROADE. Objetiva-se assim permitir ao engenheiro estrutural descrever o problema em termos correntes de Engenharia, organizandose os dados recebidos para posterior análise e dimensionamento da estrutura. São discutidos o problema PROADE e os dados correspondentes, seguidos pela descrição das estruturas de armazenamento de dados do sistema. A seguir, define-se a linguagem PROADE e finalmente apresenta-se a organização do sistema PROADE.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta o projeto de uma interface visual para modelos de bancos de dados orientados a objetos, com suporte para versões. Um requisito importante, não atendido pelas interfaces visuais específicas e genéricas para sistemas orientados a objetos, é a capacidade de definir e manipular versões de um objeto nos vários níveis da hierarquia de classes (herança por extensão, adotada pelo modelo de versões [GOL 95]). As interfaces, que manipulam versões, suportam essa característica no nível mais especializado da hierarquia (herança por refinamento, adotada pelos principais SGBDOOs). Procurando prover a possibilidade do versionamento de objetos nos vários níveis da hierarquia de classes, surgiu a motivação para projetar e desenvolver uma interface visual com funcionalidades de interfaces existentes (específicas e genéricas) e que obedeça às características principais dos Modelos de Dados Orientados a Objetos e do Modelo de Versões [GOL 95], seguindo as características recomendadas para interfaces visuais para MDOOs, propostas em [SIL 96]. Foi implementado um protótipo com algumas das características projetadas para o browser de objeto e seu suporte para versões.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Foi realizado um estudo de caráter expioratório-descritivo para verificar o uso dos dados e estatísticas coletados regularmente pelas bibliotecas universitárias brasileiras no processo decisório dentro da atividade de desenvolvimento de coleções. Tendo como base a abordagem sistêmica, a biblioteca universitária foi classificada como uma organização social de serviço em constante interação com o meio ambiente. A função e os objetivos da universidade e da biblioteca universitária, as necessidades informacionais dos usuários, os recursos bibliográficos e financeiros, o uso de coleções, a produção e o custo dos materiais bibliográficos foram identificados como os fatores ambientais que afetam a biblioteca universitária e a atividade de desenvolvimento de coleções, da coleta de dados e da implementação de um sisitema de informação gerencial. Foi sugerido um conjunto de dados, agrupados em categorias relacionadas aos fatores ambientais, como base para consttução de um sisitema de informação, assim como um referencial teórico para a coleta de dados a serem usados como insumos para a tomada de decisão na atividade de desenvolvimetno de coleções em bibliotecas universitárias. Os resultados da pesquisa revelaram que os dados e estatísticas coletadas regularmente pelas bibliotecas universitárias brasileiras não sao completos, tampouco suficientes para auxiliar na tomada de decisão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As técnicas de sensoriarnento remoto e geoprocessamento são fundamentais para processamento e integração de dados de mapeamento geológico/geotécnico, principalmente estudos de gerenciamento e planejamento. A área estudada compreende o município de Três Cachoeiras. Litoral Norte do Rio Grande do Sul o qual inclui-se na "Reserva da Biosfera da Mata Atlântica". O município tem st: deparado com problemas de localização de sitios adequados à disposição final dos resíduos sólidos. bem como o assentamento de loteamentos residenciais e industriais, localização de jazidas de extração de material para construção, fontes de abastecimento de água e necessidade de criação de áreas de preservação ambiental. O objetivo deste trabalho foi produzir mapeamentos da área em questão, através da pesquisa geológico-geotécnica desenvolvida com emprego de imagens de satélite e fotografias aéreas, em que as informações foram cruzadas no SIG. Baseado nisto, investigaram-se os aspectos acima mencionados. a partir de uma contribuição geológico/geotécnica ao município, incluindo-se levantamento de campo, fotointerpretação, processamento e classificação de imagens do município de Três Cachoeiras, sendo os dados integrados num sistema de geoprocessamento. Utilizando-se cartas planialtimétricas, fotografias aéreas e imagem de satélite LANDSAT TM5. foram criados planos de informação como o limite da área estudada, a estrutura viária municipal, a delimitação de reservas ecológicas baseadas na legislação ambiental vigente e, por meio do modelo numérico do terreno, a carta de declividade. A fotointerpretação gerou planos de rede de drenagem, litológica. morfoestruturas e formações superficiais. Os dados de campo. sobrepostos às litológicas obtidas por fotointerpretação, produziram a carta litológica. No tratamento das imagem, foram gerados produtos com contraste, operações entre bandas, filtragens e análise de componentes principais, os quais contribuíram parira classificação da imagem e resultando nos planos de rochas/solos e cobertura/uso do solo (carta de uso atual do solo). O cruzamento destas informações permitiu a obtenção da carta de formações superficiais, lidrogeológica que, juntamente com as cartas litológica, declividades e uso atual do solo distribuíram os atributos do meio físico em planos elaborados por novos cruzamentos, que satisfazem o objetivo do estudo, sendo estes planos o produto final, ou seja, cartas de recomendação: a extração de materiais para construção civil; a implantação de obras de infraestrutura; a disposição de resíduos sólidos e loteamentos; geotécnica à agricultura; à implantação de áreas destinadas à preservação ambienta1 e recuperação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Orçamento Discriminado de obras de edificação tem seus resultados originários do interrelacionamento de varios fatores, entre eles: dados levantados em planta, cálculo de quantitativos e composições unitárias para serviços. Estudou-se nesse trabalho dois desses três itens fundamentais. Os aspectos abordados foram o levantamento de dados, para torná-lo ágil e não repetitivo, e o cálculo de quantitativos, transformando-o em tarefa objetiva. A sistematização da medição que é aqui proposta trabalha sobre esses dois elementos e demonstra que até em serviços como instalações, um estudo profundo possibilita a criação de planilhas e encaminhamento genérico que torna o serviço de orçamentação metódico e acessível a todos, e não só ao responsável por sua execução. Tenta-se mostrar que a criação de metadalogia sistematizada permite introduzir a orçamentação em tratamentos computacionais já na fase de cálculo de quantitativos e não só para cálculo de produtos finais (quantitativo x consumos unitários) e impressão de resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta um sistema microcontrolado para aquisição dinâmica de sinais. O sistema possui condicionadores analógicos para três canais de entrada, possibilitando a leitura de sinais diferenciais provenientes de transdutores ligados em ponte de Wheatstone. Estes condicionadores provêem tensão de excitação AC, com portadora de 5 kHz. A parte digital do sistema baseia-se no microcontrolador Intel 80C196. Apresenta interface com o usuário através de teclado e mostrador de cristal líquido. A taxa de aquisição é de 1000 amostras/s e o armazenamento dos dados é feito em memória Flash de 4 Mbits. Também possibilita comunicação digital serial com um microcomputador tipo PC para análise e tratamento dos dados adquiridos. Um protótipo do equipamento foi montado interligando as partes analógica e digital. Para a calibração dos condicionadores de sinais foi adotado o procedimento de calibração estática, tendo como referência uma unidade de calibração resistiva padrão. Foi determinado o comportamento dos condicionadores através de ensaios dinâmicos, sendo apresentados gráficos de resposta em amplitude e fase em função da freqüência do sinal de entrada. Os dados resultantes de ensaios estáticos e dinâmicos foram adquiridos por um osciloscópio digital e pelo sistema de aquisição desenvolvido. São mostrados gráficos comparativos dos sinais obtidos com ambos os equipamentos.