999 resultados para Bancos - Processamento de dados


Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJETIVO: Rever, usando a metodologia de análise secundária de dados, os casos descritos de doença hidática policística (DHP) pelo Echinococcus vogeli, quanto às características clínico-epidemiológicas, de evolução e procedimentos terapêuticos. MÉTODO: Foram usados cinco bancos eletrônicos; anais de eventos científicos da área de Medicina Tropical; livros textos; consultas aos índices remissivos de revistas não-indexadas e a especialistas. As 52 variáveis estudadas foram categorizadas para cada caso de DHP e registradas em ficha-padrão. Somente foram incluídos os casos com comprovação histológica e/ou parasitológica do E. vogeli. RESULTADOS: Foram recuperados 131 trabalhos publicados e uma comunicação pessoal, sendo grande parte com somente um caso descrito, e entre estes apenas 17 (12,9%) tinham casos com comprovação do agente etiológico, com um total de 44 pacientes: 52,3% do sexo masculino; média de idade de 45,0 (± 16,7) anos; e 50% descritos no Brasil. A presença de massas e a dor abdominal foram registradas em 94,7% (18/19) e 92,6% (25/27), respectivamente. Não houve diferença estatística (p>0,20) entre os resultados do tratamento clínico (albendazol) e cirúrgico, mas as freqüências de "sem êxito" foram, respectivamente, de 0% e 28,6%, e as de óbitos de 0% e 21,4%. CONCLUSÕES: A maioria dos trabalhos sobre a DHP não tem pacientes com comprovação etiológica e, conseqüentemente, é possível que parte do conhecimento clínico atual sofra mudanças significativas por investigações futuras. De outra parte, os dados levantados indicam que a melhor opção terapêutica, nos casos irressecáveis, é o uso de albendazol.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A degradação do antimicrobiano digluconato de clorhexidina (DGCH) durante armazenamento ou processamento térmico pode formar a 4-cloroanilina (CA), um composto potencialmente carcinogênico. Conseqüentemente, o uso deste sanitizante para descontaminação de carcaças de frangos representa uma fonte de risco para o consumidor, devendo ser avaliada a presença da CA no produto tratado. Um método foi desenvolvido para determinação de resíduos de CA em tecidos de frangos. Após a extração com diclorometano, foi feita a limpeza do extrato em cartucho C18 e quantificação por cromatografia gasosa-espectrometria de massas (CG-EM), sem derivação. A recuperação média (89,2% - CV 9,9%.) e o limite de detecção (1,8ng/g) foram considerados satisfatórios para os propósitos do estudo. Em amostras tratadas com DGCH e não submetidas a processamento térmico, a quantidade de CA detectada foi relativamente baixa, e provavelmente se originou da solução de tratamento. A fritura e a cocção em forno convencional resultaram em níveis elevados de CA, enquanto que a cocção em panela de pressão não alterou os níveis de CA presentes na amostra crua. Em vista destes resultados e, considerando-se o potencial tóxico da CA, recomenda-se que estes dados sejam levados em consideração quando avaliada a utilização de DGCH como sanitizante de carcaças em abatedouros de aves.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sabe-se que a definição de identidade tem como base os diferentes estilos de processamento identitários assim como a definição de um projeto, finalidade ou sentido de vida. O objetivo principal deste estudo foi o de compreender como os estilos de processamento de identidade, por um lado, e a definição de um sentido de vida e de objetivos, podem concorrer para o desenvolvimento de uma identidade positiva. Para estudar esta questão foram aplicados cinco questionários: o questionário de dados socio-demograficos, a Escala de Sentido de Vida, a Escala de Objetivos de Vida, a versão traduzida do Psychosocial Inventary of Ego Strenghts e a versão traduzida do Identity Stile Inventory (ISI13).A amostra foi composta por 149 estudantes, sendo 24 do género masculino e 125 do género feminino, de um 1º ciclo de estudos com idades compreendidas entre os 18 e 30 anos. Os resultados demonstraram que os estilos de processamento de identidade e o sentido de vida encontram-se relacionados com a identidade reunindo em si a capacidade proditora da mesma, atuando como fatores independentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

TEIXEIRA, Carlos Alberto Chagas. A rede de empresas voltada à viabilização de ações estratégicas de sustentabilidade em grandes bancos privados atuantes no Brasil. 2013. 159f. Dissertação (Mestrado em Administração)-Universidade Municipal de São Caetano do Sul, São Caetano do Sul, 2013.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introdução: A comunicação bancária tem registrado uso intenso de novas tecnologias e conteúdos, caso do net banking, o que gera novas possibilidades e relações com o cliente bancário. Trata-se de um consumidor que é incentivado a conhecer os serviços oferecidos por meio de novos canais, a visualizar esses atributos, mas se ele detectar restrições informativas ou falhas na comunicação, irá se manifestar de alguma forma. Muitos consumidores lidam com fraudes ou danos causados pelo sistema de acesso virtual disponibilizado pelos bancos. Tal contexto apresenta inovações no sistema de comunicação protagonizado pelos bancos e consumidores midiatizados pela internet. Objetivo: Descrever a comunicação bancária voltada para a prevenção de danos quando do uso de seus websites pelos consumidores. Metodologia: Foram pesquisados os websites dos bancos Bradesco, Itaú e Banco do Brasil, além de pesquisa de opinião com 130 usuários do net banking desses bancos. Resultados: Os bancos reservam em seus websites espaços específicos e não padronizados para a prevenção de danos ao consumidor no uso do net banking, enquanto os clientes usam tais serviços de forma parcial. Conclusões: Os resultados encontrados não podem ser generalizados, servindo o presente estudo como degrau para que outros trabalhos possam aprofundar o objeto de estudo apresentado a fim de dimensionar com maior amplitude e representatividade a gestão da prevenção de danos ao consumidor no contexto do net banking.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho discorre no escopo de informática médica, no âmbito da Unidade de Cardiologia Fetal do Instituto de Cardiologia - Fundação Universitária de Cardiologia do RS. Sabe-se que a medicina gera um grande volume de dados, sejam eles, textuais, numéricos, gráficos ou mesmo imagens ou sons geradas por equipamentos de ultra-som, tomógrafos computadorizados, ressonância magnética, RX, entre outros. Este trabalho desenvolve a integração das imagens ecocardiográficas fetais ao banco de dados. Atualmente, a tendência observada no desenvolvimento de sistemas de informações é a utilização de banco de dados que sejam capazes de manipular informações completas sobre seus pacientes, tais como: consultas, medicamentos, internações, bem como os laudos de exames com suas respectivas imagens quando estes possuírem. É com base nestas tendências que foram definidos os tópicos relevantes a serem estudados e implementados neste trabalho, integrando os estudos ecocardiográficos fetais com as informações do banco de dados da unidade de cardiologia fetal (UCF). Neste trabalho está apresentado o modelo do banco de dados da UCF. Para esta modelagem foram realizados estudos para aquisição de conhecimento da área e também para compreender as necessidades da unidade Da mesma forma, as imagens ecocardiográficas fetais foram estudadas para que fosse possível serem modeladas junto ao banco de dados. Para esta modelagem foi necessário fazer uma breve revisão dos conceitos utilizados pelo paradigma de orientação a objetos, uma vez que o modelo foi desenvolvido utilizando esta metodologia. As imagens ecocardiográficas fetais receberam grande atenção, uma vez que para elas foram criadas classes distintas. Também para aumentar a funcionalidade foram estudados conceitos de imagem digital, para posterior aplicação sobre as imagens do domínio. Foram realizados estudos sob manipulação de imagens, como modificação do brilho, medidas, filtros e formas de armazenamento. Considerando os formatos de gravação, dois padrões foram contemplados neste trabalho: o utilizado pela placa disponível no instituto denominado DT-IRIS e o DICOM que é um padrão internacional de armazenamento e comunicação de imagens médicas. Por fim, a implementação do protótipo procura demonstrar a viabilidade do modelo proposto, disponibilizando dados textuais, imagens e ainda realizando manipulações sobre estas imagens do domínio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Com a crescente popularização dos microcomputadores e da rede mundial de informação, Internet, uma enorme variedade e quantidade de informações estão se tornando acessíveis a um número cada vez maior de pessoas. Desta forma, também cresce a importância de se extrair a informação útil que está no grande conjunto das informações disponibilizadas. Hoje há muito mais dados na forma de textos eletrônicos do que em tempos passados, mas muito disto é ignorado. Nenhuma pessoa pode ler, entender e sintetizar megabytes de texto no seu cotidiano. Informações perdidas, e conseqüentemente oportunidades perdidas, estimularam pesquisas na exploração de várias estratégias para a administração da informação, a fim de estabelecer uma ordem na imensidão de textos. As estratégias mais comuns são recuperação de informações, filtragem de informações e outra relativamente nova, chamada de extração de informações. A extração de informações tem muitas aplicações potenciais. Por exemplo, a informação disponível em textos não-estruturados pode ser armazenada em bancos de dados tradicionais e usuários podem examiná-las através de consultas padrão. Para isso, há um complexo trabalho de gerenciamento, que é conseqüência da natureza não estruturada e da difícil análise dos dados. Os dados de entrada, que são os textos semi ou não-estruturados, são manipulados por um processo de extração configurado através de bases de conhecimento criadas pelo usuário do sistema. Esta dissertação tem como objetivo a definição de uma linguagem, com base em uma arquitetura de múltiplos níveis, para extrair satisfatoriamente as informações desejadas pelo usuário, presentes em bases de dados textuais. Também faz parte deste trabalho a implementação de um protótipo que utiliza a linguagem proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese objetiva identificar os impactos dos investimentos em Tecnologia de Informação (TI) nas variáveis estratégicas e na eficiência dos bancos brasileiros. Para a realização da investigação, utilizaram-se vários métodos e técnicas de pesquisa: (1) entrevista com executivos para identificar o papel da TI nos bancos; (2) survey com executivos dos bancos para selecionar as variáveis estratégicas organizacionais em que os efeitos da TI são mais significativos; (3) entrevista com executivos para adaptar as variáveis como input e output observáveis em contas de balanço; e (4) método de Pesquisa Operacional para elaborar um modelo de análise de eficiência e aplicar a técnica de Data Envelopment Analysis (DEA) para avaliar a efetividade de conversão dos investimentos em TI. A entrevista exploratória com os executivos dos bancos permitiu identificar como os bancos utilizam a TI e o seu papel como ferramenta estratégica. O processo de validação e purificação do instrumento (questionário) e dos constructos utilizados na survey fez uso de procedimentos qualitativos e quantitativos, como: validade de face e conteúdo, card sorting, análise de fidedignidade (coeficiente alfa de Cronbach), análise de correlação item- total corrigido (CITC), análise fatorial exploratória nos blocos e entre blocos, e análise fatorial confirmatória. O instrumento também foi validado externamente com executivos de bancos americanos. A partir do conjunto final de construtos, foram identificados variáveis de input e output observáveis em contas de balanço visando à elaboração e à definição do modelo de análise de eficiência. O modelo de eficiência estrutura-se no conceito de efetividade de conversão, que pressupõe que os investimentos em TI, combinados com outras variáveis de input (despesas com pessoal, outras despesas administrativas, e despesas de internacionalização) transformam-se em output (receitas líquidas de intermediação financeira, de prestação de serviços e de operações internacionais). Uma característica adicional do modelo é a representação em dois estágios: os investimentos em TI geram incremento nas receitas, mas esta relação é intermediada pela acumulação de ativos, financeiros e não financeiros. Os dados de balanço dos 41 bancos incluídos na amostra, de 1995 a 1999, foram fornecidos pelo Banco Central do Brasil. A aplicação do modelo na amostra selecionada indica claramente que apenas investir em TI não proporciona efetiva eficiência. Por outro lado, os bancos que mais investiram em TI no período analisado ganharam eficiência relativamente ao conjunto de bancos analisados. Dentre os resultados desta tese, podem ser destacados: o modelo de pesquisa, o conjunto de constructos e o instrumento (questionário), o processo de observação de input e output em contas de balanço e o modelo de análise de eficiência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias da informação e do auto-atendimento na realização dos serviços bancários, na cidade de Lajeado. Foram consideradas como tecnologias da informação os terminais de auto -atendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, salas de auto-atendimento, quiosques em locais públicos e em pontos de atendimento. O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários e entrevistas de profundidade. A pesquisa foi realizada nos meses de junho e julho de 2001, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam ter realizado alguma transação nos terminais de auto-atendimento. Para as análises da pesquisa, foram considerados fatores sobre pontos de auto-atendimento, processamento de transações, comunicação com clientes, segurança e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere ao autoatendimento. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata da “ rapidez e facilidade para retirar dinheiro” recebeu o maior índice de satisfação, assim como o bloco comunicação com clientes; e o indicador “emissão dos comprovantes das transações realizadas ” recebeu o maior índice de importância, assim como o bloco comunicação com os clientes. Assim, analisou-se, definiu-se e realizou-se um modelo para avaliação da satisfação do cliente com as tecnologias da informação nos serviços bancários.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, o enorme volume de informações armazenadas em bancos de dados de organizações ultrapassa a capacidade dos tradicionais métodos de análise dos dados baseados em consultas, pois eles se tornaram insuficientes para analisar o conteúdo quanto a algum conhecimento implícito e importante na grande massa de dados. A partir disto, a mineração de dados tem-se transformado em um tópico importante de pesquisa, porque provê um conjunto de técnicas e ferramentas capazes de inteligente e automaticamente assistir o ser humano na análise de uma enorme quantidade de dados à procura de conhecimento relevante e que está encoberto pelos demais dados. O presente trabalho se propõe a estudar e a utilizar a mineração de dados considerando os aspectos temporais. Através de um experimento realizado sobre os dados da Secretaria da Saúde do Estado do Rio Grande do Sul, com a aplicação de uma metodologia para a mineração de dados temporais, foi possível identificar padrões seqüenciais nos dados. Este experimento procurou descobrir padrões seqüenciais de comportamento em internações médicas, objetivando obter modelos de conhecimento dos dados temporais e representá-los na forma de regras temporais. A descoberta destes padrões seqüenciais permitiu comprovar tradicionais comportamentos dos tratamentos médicos efetuados, detectar situações anômalas, bem como, acompanhar a evolução das doenças existentes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

(João Quevedo - Estudo do Processamento das Memórias de Curta e Longa Duração) - Este trabalho apresenta a compilação dos 4 principais experimentos carreados ao longo de 1999-2002: 3 deles envolvem o modelo animal e um quarto utilizase de voluntários humanos. Entretanto, o uso desses diferentes paradigmas não prejudica a unidade do conjunto. O Capítulo 1 apresenta sucintamente o marco teórico dos 4 trabalhos. Inicialmente são discutidos aspectos modulatórios da consolidação da memória. Após, alguns elementos da bioquímica da consolidação da memória são apresentados no intuito de permitir establecer um entendimento das vias da PKA e da MAPK e suas correlações com a via final comum – a síntese protéica. Adicionalmente, a dissociação STM e LTM é discutida a partir do referencial farmacológico. Uma última unidade apresenta conceitos primitivos do papel da amígdala na modulação da memória e das evidências da implicação das emoções, via amígdala, na modulação da memória em humanos. Os experimentos utilizando a esquiva inibitória como paradigma e o rato como sujeito ocupam os Capítulos 2, 3 e 4. No Capítulo 2 é apresentado um corpo de resultados que permite observar uma dissecção farmacológica da STM e LTM. Os dados demonstram um envolvimento de fenômenos dependentes de PKA em ambas STM e LTM, dependentes de MAPK apenas na STM, e dependentes de síntese protéica apenas na LTM. O Capítulo 3 apresenta um trabalho realizado em colaboração com o Prof. Steven P. R. Rose (Open University, UK), que envolve a determinação dos momentos sensíveis à inibição da síntese protéica na consolidação da LTM. Foram observados dois momentos: um inicial, junto ao treino, e um tardio apos 3h. Além disso, foi possível demonstrar que um treino prévio de baixa intensidade, mas não a pré-exposição ao aparato, pode impedir o estabelecimento de amnésia induzida pelo bloqueio da síntese protéica. O Capítulo 4 estende os achados com anisomicina observados no Capítulo 3, estudando também o inibidor da PKA, Rp-cAMPs, e o inibidor da MAPKK, PD 098059. Os dados obtidos confirmam também para essas cascatas a indução em um treino prévio de baixa intensidade de algum fenômeno celular de longa duração que torna o aprendizado de um segundo treino independente de PKA, MAPK ou síntese protéica. O estudo da dissociação da STM e LTM foi ampliado, agora no modelo humano, no experimento descrito no Capítulo 6. Nesse experimento, observamos uma clara influência do conteúdo emocional na LTM, mas a ausência desse efeito na STM. A discussão geral (Capítulo 7) busca integrar esses achados descritos nos capítulos anteriores dentro da nova perspectiva molecular da neurobiologia da memória. Além disso, abre discussão acerca de possíveis novas possibilidades de pesquisa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".