978 resultados para Dados bibliográficos legíveis por computador


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Energia na Agricultura) - FCA

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Educação Matemática - IGCE

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nesta pesquisa investigamos de que forma a inserção do uso do computador e do portfólio no processo de Modelagem Matemática, contribui para a aprendizagem de conhecimentos matemáticos a partir das percepções de alunos do ensino médio. Na busca de respostas a esta problemática, traçou-se como objetivo principal uma investigação à inserção do uso do computador no processo de Modelagem Matemática, com auxilio do portfólio para o aprendizado deste processo. A abordagem da pesquisa foi qualitativa. Levantamos um referencial teórico focando em especial pesquisadores da área de Modelagem Matemática como: Biembengut e Hein (2007); Bassanezi (2006), Barbosa (2001, 2004, 2007); Borba e Penteado(2001); Ponte e Canavarro (1997) entre outros, e com alguns autores que abordam mais especificamente a inserção de tecnologias na educação como: Valente (1993); Almeida (2000), Belloni (2005) entre outros. No entrelaçamento das idéias relacionaram-se os elementos (computador, Modelagem e portfólio) para subsidiar um tratamento diferenciado do conhecimento matemático em busca de minimizar, por exemplo, os baixos índices no Sistema de Avaliação do Ensino Básico (SAEB) dos alunos do ensino médio do Estado do Pará em Matemática. Sendo assim, foi necessário rever a forma atual de transposição do ensino dessa disciplina. O histórico da Modelagem é descrito em algumas concepções, buscando pontos de aproximação com as novas tecnologias em especial o computador. A pesquisa de campo foi desenvolvida a partir do curso: Modelagem Matemática: Aprendendo Matemática com a utilização do Computador. Na pesquisa de campo os instrumentos utilizados foram: o portfólio e o questionário. O uso do portfólio na pesquisa foi inspirado a partir de uma idéia em Biembengut e Hein (2007) que dizem haver a necessidade de se criar um relatório no final do processo de Modelagem. No entanto verificou-se que o uso do portfólio extrapola sua utilidade como coleta de dados, já que se constitui também como instrumento de organização e constituição do processo de Modelagem da Matemática. Para a análise dos dados definiu-se categorias de análises do tipo emergentes a partir de Fiorentini e Lorenzato (2007). A pesquisa de campo foi desenvolvida no Laboratório de Informática da Escola Estadual de Ensino Médio Mário Barbosa na área correspondente a Região metropolitana de Belém no Estado do Pará, onde por meio da inserção do uso computador neste processo, potencializou-se a aprendizagem dos conhecimentos matemáticos pelos alunos do ensino médio. Nas atividades desenvolvidas, percebeu-se que o ambiente gerado pelo processo de Modelagem dentro do laboratório de informática, permitiu-se trabalhar de forma coletiva e colaborativa, onde os resultados foram significativos, principalmente, articulado ao uso do computador. Nesta pesquisa mostraremos que a Modelagem e o portfólio estabelecem uma relação de troca, possibilitando dessa forma a condução do processo de Modelagem Matemática de forma dinâmica, facilitando o aprendizado do conteúdo matemático.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho consiste no desenvolvimento de uma interface gráfica para pré e pós-processamentos de dados elétricos e eletromagnéticos em geofísica utilizando-a na transformação da EGSLIB – Electrical Geophysics Software Library, a qual é constituída por um acervo de programas FORTRAN para DOS, em um software integrado e que possua uma eficiente interface gráfica com o usuário. O resultado deste esforço foi a surgimento de um produto que foi denominado EGS 2000 – Electrical Geophysics Suite - 2000 version. Construído em ambiente DELPHI da Borland, através de um processo de desenvolvimento que, além de orientado a objetos, foi centrado em uma arquitetura que permitiu um alto grau de aproveitamento de programas FORTRAN já desenvolvidos e testados. Tal produto, constitui-se em uma poderosa ferramenta de auxílio à modelagem e interpretação de dados geofísicos totalmente executável no sistema operacional MS-Windows. Com isso, alcançou-se uma forma economicamente viável para dar uma destinação prática aos resultados teóricos obtidos nas universidades e institutos de pesquisa. Os exemplos apresentados, mostram-nos que, auxiliadas por computador, modelagens e interpretações de dados geofísicos alcançam um nível de produtividade e versatilidade jamais obtidos pelas ferramentas de outrora, uma vez que diversos modelos podem ser armazenados e recuperados e seus resultados comparados com dados observados sistematicamente colecionados, conferindo ao processo um alto grau de confiabilidade e rapidez.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Pesquisa e Desenvolvimento (Biotecnologia Médica) - FMB

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Biometria - IBB

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Information Technology and Communication (ICT) made possible to adapt bibliographic catalogs to the digital environment, giving them more speed, flexibility and efficiency in the information retrieval. The FRBR, as a conceptual model for the bibliographic universe based on entity-relationship modeling, brought to the Librarianship area the possibility of making more efficient operation catalogs. The FRBR model was the first initiative caring about how to accomplish the conceptual modeling of bibliographic catalogs, to do not spend more efforts in individual developments of distinct and inconsistent modeling.However, even many years after its publication, there were few real implementation initiatives. The aim of this study is to present the model, based on its main features and structure, and bring to the discussion some considerations and inconsistencies that, according to the literature, may be the cause of its failure so far. It s based on the national and international literature about conceptual modeling and about the FRBR model.