998 resultados para banco de dados relacionais
A reconstrução da realidade com a informação digital : a emergência da dupla competência sociológica
Resumo:
As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.
Resumo:
Pós-graduação em Agronomia (Energia na Agricultura) - FCA
Resumo:
O acesso integrado a informações provenientes de banco de dados autônomos e heterogêneos, localizadas em diferentes ambientes de hardware e software, vem sendo amplamente pesquisado pela comunidade de banco de dados, com diversas soluções propostas. A maioria delas baseia-se na comparação e na integração ou mapeamento dos esquemas conceituais dos bancos de dados participantes, implementados através de uma camada adicional de software, em um nível superior ao dos bancos de dados existentes. Inicialmente, as metodologias de acesso integrado eram limitadas às informações provenientes de banco de dados. Entretanto, com o crescimento das redes de computadores e, conseqüentemente, com a intensa utilização da Internet, novas fontes de informações passaram a ser utilizadas neste ambiente, tais como fontes de dados semi-estruturadas. Estender o acesso integrado também a esses tipos de informações tornou-se importante. Este trabalho tem como objetivo propor a utilização de um metamodelo XML como modelo de dados canônico, através do qual é possível obter a representação conceitual dos esquemas de exportação provenientes de bancos de dados relacionais, objeto-relacionais e documentos XML, permitindo, desta forma, o acesso integrado a fontes de dados estruturadas e semi-estruturadas, a partir de metodologias inicialmente voltadas à interoperabilidade de banco de dados heterogêneos. Além do metamodelo apresentado, este trabalho incluiu o desenvolvimento da ferramenta XML Integrator, cujo objetivo é fornecer ao usuário mecanismos de apoio ao processo conversão dos esquemas conceituais locais de fontes de dados heterogêneas para o Metamodelo XML, bem como de extração de um esquema conceitual correspondente a um documento XML ou a uma classe de documentos XML. Para isso, a ferramenta utiliza interfaces gráficas, que guiam o usuário através dos diversos passos, desde a seleção da fonte de dados a ser convertida, até a geração do esquema de exportação propriamente dito.
Resumo:
Pós-graduação em Ciência da Computação - IBILCE
Resumo:
Universidade Estadual de Campinas. Faculdade de Educação Física
Resumo:
Para tornar a coleta e a consolida????o de dados mais ??geis e econ??micas, aumentando a seguran??a sobre os dados, o IBGE est?? realizando a Contagem da Popula????o e o Censo Agropecu??rio 2007 com alternativa tecnol??gica para uso de computadores de m??o ??? PDAs (Personal Digital Assistant). ?? uma inova????o mundial, pois nenhum pa??s, nessas dimens??es, j?? realizou tal opera????o. A a????o dispensa question??rios em papel, substitu??dos por perguntas na tela do PDA, equipado com GPS para localizar estabelecimentos agropecu??rios por coordenadas. O PDA substitui bolsa e grandes volumes em papel. O plano de cr??tica, para validar informa????es coletadas, ?? transformado em programa, rodando em tempo real no PDA, para detec????o e corre????o de dados inconsistentes durante a entrevista, o que antes s?? era poss??vel ap??s meses. Outro salto em efici??ncia ?? a transmiss??o direta dos dados para o banco de dados do IBGE (sem escanear ou digitar documentos), criando mais confiabilidade e intelig??ncia na etapa de coleta
Resumo:
A larga difusão, nos últimos anos, de softwares estatísticos indicados para análises multivariadas, aliada à facilidade de seu manuseio, poderá conduzir os usuários à obtenção de estimativas enganosas caso não se conheçam os pressupostos teóricos necessários para o emprego destas técnicas. Com o propósito de se destacar alguns desses pressupostos, apresentam-se as etapas executadas para a análise dos dados de um estudo caso-controle, conduzido no Município de São Paulo, entre março de 1993 e fevereiro de 1994, cujo objetivo foi testar a associação do diabetes mellitus com a doença isquêmica do coração após o ajustamento para possíveis variáveis de confusão e/ou modificadoras de efeito. Para uma melhor visualização didática desses pressupostos metodológicos são destacadas quatro etapas fundamentais durante a fase de análise dos dados: a) construção do banco de dados; b) cálculo do poder estatístico; c) categorização e codificação das variáveis e d) a escolha do modelo de regressão logística multivariada.
Resumo:
Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.
Resumo:
Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
Dissertação de mestrado integrado em Engenharia e Gestão de Sistemas de Informação
Resumo:
FUNDAMENTO: Os stents farmacológicos (SF) foram um grande avanço no tratamento da cardiopatia isquêmica, mas críticas têm sido feitas à extrapolação dos resultados favoráveis de ensaios clínicos para a prática clínica diária. OBJETIVO: Avaliar o uso dos stents farmacológicos (SF) no Brasil, entre os anos de 2000 e 2005. MÉTODOS: Por meio do banco de dados da Central Nacional de Intervenções Cardiovasculares (CENIC), da Sociedade Brasileira de Hemodinâmica e Cardiologia Intervencionista, foram analisados todos os procedimentos com uso de SF entre os anos de 2000-2005. Os grupos foram divididos nos biênios (2000-2001(A), 2002-2003 (B) e 2004-2005(C)), e as características clínicas, angiográficas e os desfechos foram comparados. Análise estatística foi realizada com teste quiquadrado ou ANOVA, sendo significativo p<0,05. RESULTADOS: No período estudado foram avaliados 154.406 procedimentos, e os SF foram utilizados em 10.426 intervenções (7% do total). Observou-se progressivo e estatisticamente significativo aumento uso dos SF no período analisado: 0,14% em 2000-2001, 5% em 2002-2003, e 14% em 2004-2005 (p<0,0001). Após 2001, observou-se aumento dos índices de sucesso (96,58% em 2000-2001 (A), 99,69% em 2002-2003 (B) e 99,56 em 2004-2005 (C), A x B com p<0,001; B x C com p=0,015) e redução nas taxas de óbito hospitalar (1,59% no grupo A, 0,38% no grupo B, 0,66% no grupo C, p=0,59 para A x B; e p<0,0001 para B x C). CONCLUSÃO: O uso dos SF no Brasil cresceu significativamente nos últimos anos, com melhora dos índices de sucesso e diminuição do óbito hospitalar.
Resumo:
Apresenta o processo desenvolvido pela Companhia de Informática do Paraná (Celepar) na conversão de uma base de dados bibliográfica de recuperação de informações em MicroISIS, para disponibilização por meio da Internet. Relata quais os passos seguidos nesta conversão, desde a decisão pela utilização de banco de dados não relacional, até sua recuperação por intermédio de páginas web. Mostra como foi o processo de conversão do arquivo mestre do MicroISIS para um arquivo seqüencial, possibilitando assim o acesso a este em ambiente mainframe. Apresenta ainda a estrutura do módulo de pesquisa, especialmente com relação às facilidades do sistema.
Resumo:
OBJETIVO: Disponibilizar aos profissionais da radiologia um "software" para treinamento na interpretação de imagens mamográficas em sistemas digitais. MATERIAIS E MÉTODOS: Foi desenvolvido um "software" em Delphi associado a uma base de dados em Interbase, com a finalidade de armazenar imagens de exames mamográficos associados aos seus laudos em categorias BI-RADS®. As imagens foram previamente qualificadas e digitalizadas em "scanner" a laser Lumiscan 75. O treinamento se faz com imagens apresentadas em monitores comerciais de 17 polegadas, no tamanho 18 × 24 cm. O "software" permite visualizar cada projeção das mamas individualmente, médio-lateral oblíqua e crânio-caudal, ou as quatro imagens simultaneamente. Permite acessar as imagens e os laudos existentes ou interpretar as imagens utilizando o sistema de categorias BI-RADS®, em que o "software" compara o laudo do usuário com as informações do banco de dados, apontando acertos e erros da interpretação. RESULTADOS: O usuário adquire familiaridade com sistemas digitais, laudos em categorias BI-RADS® e aspectos de qualidade do processo gerador das imagens relativo à detecção de fibras e microcalcificações. CONCLUSÃO: O "software" disponível na intranet da Universidade Federal de São Paulo é ferramenta valiosa para os profissionais interessados em sistemas digitais.
Resumo:
Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS