997 resultados para Dados faltantes
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.
Resumo:
A estatística é uma ciência com seus conceitos e métodos de coleta, organização e analise de informações que fazem parte dos currículos escolares da educação básica, na prática dos professores de matemática, para que os alunos compreendam, analisem e formem opinião crítica em relação às questões econômicas e sociais. A presente pesquisa buscou refletir sobre as práticas pedagógicas do professor de matemática no ensino de estatística no ensino médio, tendo como base as orientações para o ensino de estatísticas nas propostas dos Parâmetros Curriculares do Ensino Médio, as contribuições da aprendizagem significativa no ensino de estatística, com o uso das tecnologias na educação, através da proposta de planos de trabalho que abordem os conteúdos do ensino de estatística e a utilização do software livreCalc. Em relação aos caminhos metodológicos foi realizada uma pesquisa bibliográfica, utilizando o método de abordagem dedutivo, através de documentação indireta tendo como fonte de pesquisa os trabalhos científicos com foco no ensino e na aprendizagem da Estatística e da Probabilidade na Educação Básica. O desenvolvimento desta pesquisa possibilitou evidenciar caminhos metodológicos a serem desenvolvidos por professores de matemática na educação básica que contribuam na interpretação de dados do cotidiano a partir de análise de tabelas, análise de gráficos, medidas de posição, medidas de dispersão e linhas de tendência, utilizando como ferramentas as Tecnologias da Informação e Comunicação tendo como fundamentação teórica as contribuições de David Ausubel o conceito de aprendizagem significativa.
Resumo:
Ao se realizar estudo em qualquer área do conhecimento, quanto mais dados se dispuser, maior a dificuldade de se extrair conhecimento útil deste banco de dados. A finalidade deste trabalho é apresentar algumas ferramentas ditas inteligentes, de extração de conhecimento destes grandes repositórios de dados. Apesar de ter várias conotações, neste trabalho, irá se entender extração de conhecimento dos repositórios de dados a ocorrência combinada de alguns dados com freqüência e confiabilidade que se consideram interessantes, ou seja, na medida e que determinado dado ou conjunto de dados aparece no repositório de dados, em freqüência considerada razoável, outro dado ou conjunto de dados irá aparecer. Executada sobre repositórios de dados referentes a informações georreferenciadas dos alunos da UERJ (Universidade do Estado do Rio de Janeiro), irá se analisar os resultados de duas ferramentas de extração de dados, bem como apresentar possibilidades de otimização computacional destas ferramentas.
Resumo:
Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.
Resumo:
O trabalho aqui apresentado teve como objetivo, avaliar o método de Eaton (1975) aplicado ao cálculo de pressão de poros das formações rochosas em subsuperfície, utilizando dados de perfis de poços no que diz respeito a porosidade, tais como, o Tempo de Transito da onda compressional, Resistividade, Densidade e Neutrão. Posteriormente foi avaliado o resultado alcançado por esta técnica e confrontado com o dado obtido pelo registro de pressão real da formação, adquirido pela ferramenta de perfilagem MDT. Distribuídos em 6 poços perfurados na porção sul da Bacia de Campos, o intervalo cronoestratigráfico estudado está compreendido no período geológico Terciário, e os registros de pressão real da formação foram adquiridos nos reservatórios turbidíticos da Formação Carapebus (Eoceno). Apesar de existir um mecanismo causador de anomalia de pressão na bacia (Desequilíbrio de Compactação Difícil migração dos fluidos ao longo do tempo geológico) devido ao forte aporte sedimentar sustentado pelo soerguimento da Serra do Mar no Eoceno, os resultados encontrados não apontaram qualquer tipo de alteração nas respostas dos perfis utilizados, onde a referência foi a assinatura do perfil sônico em um trend normal de compactação compreendido por rochas argilosas dentro do intervalo cronoestratigráfico estudado. O presente trabalho atesta que a boa calibração do trend de ompactação normal em rochas argilosas, juntamente com a similaridade entre o resultado obtido pelo cálculo da pressão de poros a partir do perfil sônico, e os valores reais registrados diretamente na formação, pela ferramenta de registro de pressões (MDT), comprovam a aplicabilidade do método de Eaton (1975) para o cálculo de geopressões a partir de um conjunto básico de perfis de poços tais como: Raios Gama, Resistividade, Velocidade Acústica, Densidade e Neutrão
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
All the data that the Instituto de Investigaçā Pesqueira was able to collect relating to by-catches of shrimps are presented. The by-catches of shrimp are almost entirely comprised of fish with commercial value. In this paper the author analyzes data for areas separated according to yields obtained.
Resumo:
The fishing of kapenta (Limnothrissa miodon, Boulenger 1906) on the Cahora Bassa Dam started around 1992, when considerable stocks of this species were discovered in the lake. The species is believed to have successful established in the Dam following a natural introduction through a downstream movement from Kariba dam where it was introduced in 1967/68. Fisheries statistics on the kapenta fishery have been collected since 1993 by the Ministry of Fisheries through the Provincial Offices for Fisheries Administration of Tete (SPAP - Tete) but only data from 1995 onward are available on the database of the Ministry of Fisheries and these are the data that was used for compiling the present report on which trends of fishing effort, catch and CPUE are analyzed. Catch and effort have increased with time, from a minimum of the 4 thousand metric tons for an annual fishing effort of 36 fishing rigs in 1995 to a maximum of 12 tons for a fishing effort of 135 rigs while CPUE followed a decreasing trend during the same period. Correlation analysis between catch and effort suggests that probably environmental factors may have influence on catch variation than the increase on fishing effort. Two models were applied for calculating MSY and FMSY resulting in two pairs of roof leading to two scenario of fisheries management. 10137 tons and a FMSY of 177 fishing rigs were computed using Schaefer model while 11690 tons and a FMSY of 278 were obtained using Fox model. Considering the differences between the two results and considering the fact that the two models have no differences in terms of precision and the fact that their determination coefficient are not different it is suggested, using the precautionary principle that result from Schaefer model be a adopted for fisheries management purpose.
Resumo:
2008
Resumo:
Existem poucos dados de produção de leite de vacas de corte na literatura, provavelmente, em função da dificuldade em se medir essa variável. O presente documento visa a incentivar a obtenção desse dado fundamental para entender a eficiência da fase de cria, segmento do ciclo completo em que há o maior dispêndio de energia na produção de carne. Para isso, na primeira parte, é descrita, em detalhes, uma metodologia para se obterem dados de produção de leite de vacas de corte com o uso de ordenhadeira mecânica. Informações sobre o número de pontos avaliados, uso de ocitocina, importância de dados de composição do leite e todos os aspectos relevantes para uma boa mensuração da produção de leite são abordados. Um modelo para a determinação das curvas de lactação e de seus parâmetros, programado em Excel e que é parte integrante deste documento (CLV Corte.xls), é descrito e informações para seu uso são fornecidas. O usuário deste documento, portanto, tem condições de fazer mensurações adequadas da produção de leite de vacas de corte e obter as estimativas de produção e da curva de lactação de forma automática, pelo modelo fornecido.
Resumo:
2000
Resumo:
Este trabalho divulga a base de dados espaciais, elaborada para o Município de Campinas, onde foram utilizadas técnicas de geoprocessamento. O município foi mapeado e classificados os usos e cobertura das terras, com ênfase para os remanescentes de vegetação natural e as áreas urbanizadas ou em urbanização.
Resumo:
O trabalho faz uma breve descrição sobre os modelos DEA clássicos, bem como uma revisão do estado da arte de sua aplicação à agricultura. Além disso, é apresentada uma curta discussão sobre a possibilidade de integração dos resultados de DEA aos Sistemas de Informação Geográfica, como forma de apoio ao entendimento do problema.