92 resultados para Saúde - Banco de dados
Resumo:
Alta disponibilidade é uma das propriedades mais desejáveis em sistemas computacionais, principalmente em aplicações comerciais que, tipicamente, envolvem acesso a banco de dados e usam transações. Essas aplicações compreendem sistemas bancários e de comércio eletrônico, onde a indisponibilidade de um serviço pode representar substanciais perdas financeiras. Alta disponibilidade pode ser alcançada através de replicação. Se uma das réplicas não está operacional, outra possibilita que determinado serviço seja oferecido. No entanto, réplicas requerem protocolos que assegurem consistência de estado. Comunicação de grupo é uma abstração que tem sido aplicada com eficiência a sistemas distribuídos para implementar protocolos de replicação. Sua aplicação a sistemas práticos com transações e com banco de dados não é comum. Tipicamente, sistemas transacionais usam soluções ad hoc e sincronizam réplicas com protocolos centralizados, que são bloqueantes e, por isso, não asseguram alta disponibilidade. A tecnologia baseada em componentes Enterprise JavaBeans (EJB) é um exemplo de sistema prático que integra distribuição, transações e bancos de dados. Em uma aplicação EJB, o desenvolvedor codifica o serviço funcional que é dependente da aplicação, e os serviços não–funcionais são inseridos automaticamente. A especificação EJB descreve serviços não–funcionais de segurança, de transações e de persistência para bancos de dados, mas não descreve serviços que garantam alta disponibilidade. Neste trabalho, alta disponibilidade é oferecida como uma nova propriedade através da adição de serviços não–funcionais na tecnologia EJB usando abstrações de comunicação de grupo. Os serviços para alta disponibilidade são oferecidos através da arquitetura HA (highly-available architecture) que possui múltiplas camadas. Esses serviços incluem replicação, chaveamento de servidor, gerenciamento de membros do grupo e detecção de membros falhos do grupo. A arquitetura HA baseia-se nos serviços já descritos pela especificação EJB e preserva os serviços EJB existentes. O protocolo de replicação corresponde a uma subcamada, invisível para o usuário final. O serviço EJB é executado por membros em um grupo de réplicas, permitindo a existência de múltiplos bancos de dados idênticos. Conflitos de acesso aos múltiplos bancos de dados são tratados estabelecendo–se uma ordem total para aplicação das atualizações das transações. Esse grupo é modelado como um único componente e gerenciado por um sistema de comunicação de grupo. A combinação de conceitos de bancos de dados com comunicação de grupo demonstra uma interessante solução para aplicações com requisitos de alta disponibilidade, como as aplicações EJB. Os serviços adicionais da arquitetura HA foram implementados em protótipo. A validação através de um protótipo possibilita que experimentos sejam realizados dentro de um ambiente controlado, usando diferentes cargas de trabalho sintéticas. O protótipo combina dois sistemas de código aberto. Essa característica permitiu acesso à implementação e não somente à interface dos componentes dos sistemas em questão. Um dos sistemas implementa a especificação EJB e outro implementa o sistema de comunicação de grupos. Os resultados dos testes realizados com o protótipo mostraram a eficiência da solução proposta. A degradação de desempenho pelo uso de réplicas e da comunicação de grupo é mantida em valores adequados.
A reconstrução da realidade com a informação digital : a emergência da dupla competência sociológica
Resumo:
As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.
Resumo:
O presente trabalho expõe uma análise sobre duas arquiteturas disponíveis para o desenvolvimento de sistemas que utilizam a tecnologia de workflow. Estas arquiteturas são: a Arquitetura Baseada em Modelagem e Execução em um ùnico Ambiente e a Arquitetura Baseada em Modelagem e Execução e Ambientes Distintos. São expostas: características, vantagens e desvantagens destas arquiteturas. A Aquitetura Baseada em Modelagem e Expressões em Ambientes Distintos é analisada em seu principal ponto negativo: a falta de independência existente entre as apliciações e os processos modelados, bem como são discutidos os problemas que esta falta de independência gera no desenvolvimemto e manutenção das aplicações. Uma alternativa à dependência entre o motor de workflow (engine) e as aplicações é proposta para a Arquitetura Baseada na Modelagem e Execução em Ambientes Distintos. Esta proposta é baseada em um modelo que consiste de uma Camada Intermediária, armazenada em um banco de dados relacional, capaz de extender as funcionalidades do motor de workflow. Este banco de dados armazena toda a estrrutura dos processos modelados, sendo responsável pela função que atualmente é repassada às aplicações: o controle da lógica dos processos. Estes trabalho produziu de uma Camada Intermediária, dividida em Camada de Independência (suportando a independência) e Camada de Integrgação (responsável pela comunicação com o motor de workflow). O estudo apresentada as estruturas do banco de dados, as funções disponibilizadas pela API da Camada Intermediária e um pequeno protótipo para dedmonstrar a arquitetura proposta.
Resumo:
A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.
Resumo:
Nosso objetivo nesta dissertação é verificar como se dá a realização de seqüências de segmentos vocálicos de sonoridade crescente em português, mais especificamente em sua variedade falada em Porto Alegre. Para tal, nosso corpus é formado, principalmente, por entrevistas do banco de dados do projeto VARSUL. Fazem parte deste corpus 24 informantes, com escolaridade entre o Ensino Fundamental e o Médio e com idades que variam entre os 20 e os 60 anos. A partir destes dados, fazemos nossa análise, que possui como referencial teórico a Teoria da Otimidade, proposta por Prince e Smolensky (1993) e McCarthy e Prince (1993). Esta proposta de análise tem como base a pesquisa realizada por Cabré e Prieto (2004) com relação ao catalão. Através das semelhanças e diferenças entre as duas línguas, foi possível estabelecer a hierarquia de restrições responsáveis pela realização das seqüências em questão em português. É importante destacar que há variação entre ditongo crescente e hiato tanto em português como em catalão. Nossa pesquisa, entretanto, bem como a de Cabré e Prieto, toma os resultados obtidos como categóricos. Com relação à nossa proposta de análise, acreditamos que esta pode ser um instrumento a partir do qual se construa o tratamento da variação em um trabalho futuro.
Resumo:
No português brasileiro (PB), a sílaba final de vocábulo formada por ditongo nasal sofre variação, alternando formas preservadas e formas reduzidas de nasalidade, conforme se observa nas alternâncias homem ~ homi e viagem ~viagi. Tais alternâncias decorrem da localização do ditongo em sílaba átona no vocábulo, pois o mesmo não ocorre quando o ditongo ocupa posição prosodicamente proeminente, como em cantarão e armazém. Acreditamos, contudo, que outros fatores lingüísticos e sociais também atuam como favorecedores do processo de redução da nasalidade em sílaba final de vocábulo. Dentre os fatores que analisaremos no presente estudo, estão aqueles vistos por Battisti (2002), que analisou o mesmo fenômeno entre falantes paranaenses, catarinenses e riograndenses, acrescidos de outros que julgamos pertinentes. Dentre os fatores por nós propostos está o fator bilingüismo, uma vez que acreditamos que os falantes de português de contato possam apresentar comportamento diferenciado dos falantes de português sem interferência, na aplicação de algumas regras. Para tanto, nos debruçamos sobre uma amostra de 24 informantes do banco de dados VARSUL (Variação Lingüística Urbana na Região Sul do País), composta por 12 informantes provenientes da capital, Porto Alegre, como representativos da amostra chamada monolíngüe, e 12 de Panambi, como representantes da amostra bilíngüe português-alemão. A metodologia que norteia nossa pesquisa é a da Regra Variável, proposta por Labov (1969). Após a coleta dos dados, a partir da audição das 24 entrevistas, os mesmos foram submetidos a uma análise estatística pelo programa VARBRUL, que forneceu resultados quantitativos em termos de percentagens e de pesos relativos. Os resultados obtidos confirmaram a hipótese de que a redução dos ditongos nasais átonos (DNA’s) tende a ocorrer com mais freqüência entre os falantes monolíngües, mais jovens e de baixa escolaridade. Tal resultado indica que não somente fatores de ordem lingüística, mas também fatores sociais atuam com vigor na aplicação da redução da nasalidade em ditongo de sílaba átona em final de vocábulo, apontando, sobretudo, a importância que o fator bilingüismo pode desempenhar em estudos dessa natureza, no sentido de favorecer o uso de certas regras.
Resumo:
Abordagens clássicas de linguagens de consultas para bancos de dados possuem certas restrições ao serem usadas, diretamente, por aplicações que acessam dados cujo conteúdo não é completamente conhecido pelo usuário. Essas restrições geram um cenário onde argumentos de consultas, especificados com operadores boleanos, podem retornar resultados vazios. Desse modo, o usuário é forçado a refazer suas consultas até que os argumentos usados estejam idênticos aos dados armazenados no banco de dados. Em bases XML, este problema é reforçado pela heterogeneidade das formas em que a informação encontra-se armazenada em diferentes lugares. Como solução, uma alternativa seria o uso de funções de similaridade na substituição de operadores boleanos, a fim de que o usuário obtenha resultados aproximados para a consulta especificada. Neste trabalho é apresentada uma proposta para suporte a argumentos de consulta vagos através da extensão da linguagem XPath. Para isso, são utilizadas expressões XPath que utilizam novas funções, as quais são, diretamente, adicionadas ao processador da linguagem de consulta. Além disso, é apresentada uma breve descrição das métricas de similaridade utilizadas para a criação das funções. As funções que foram adicionadas a um processador XPath possuem uma ligação muito estreita com as métricas utilizadas. Como as métricas, as funções trabalham com valores simples (elementos atômicos) e compostos (elementos complexos). As funções que trabalham com elementos atômicos podem ser classificadas tanto pelo tipo de dado que será analisado, como pelo tipo de análise que será feita. As funções para elementos complexos comparam conjuntos de elementos atômicos de acordo com a forma do agrupamento (conjunto, lista ou tupla).
Resumo:
Esta pesquisa tem por objetivo reunir, compilar e analisar as informações relacionadas à caracterização geotécnica dos depósitos de solos moles do Estado do Rio Grande do Sul, através de dados obtidos de pesquisas anteriores e de projetos de infra-estrutura. O conjunto das informações obtidas nesta dissertação constitui-se em um banco de dados valioso, no qual são disponibilizadas as principais propriedades geotécnicas de argilas e as correlações que possibilitam suas estimativas. O estudo foi dividido em duas regiões, nas quais a ocorrência destes solos é mais freqüente e o investimento em infra-estrutura é importante: Porto Alegre e Rio Grande. Dentro destas regiões, temos ainda algumas subdivisões de vários depósitos estudados, que fornecem as características particulares de cada região. O estudo conta com uma caracterização geológica e um histórico das formações dos solos moles do estado do Rio Grande do Sul. Um extenso levantamento dos índices físicos é apresentado para caracterização e comparação dos dois locais, através do qual são reunidas informações relacionadas a granulometria, índice de vazios, limites de Atterberg, peso especifico natural, umidade natural e outros. Os ensaios de laboratório forneceram o comportamento tensão-deformação-resistência para amostras retiradas dos locais de estudo, fornecendo os parâmetros indispensáveis à completa descrição do comportamento do material, como: resistência não-drenada ao cisalhamento, Su, índice de compressão, ângulo de atrito efetivo, coesão efetiva e nível de préadensamento, OCR. Correlacionando-se também alguns destes parâmetros, é possível estabelecer padrões de comportamento que são consistentes com outros locais já estudados nacional e internacionalmente. A análise dos ensaios de campo completa a caracterização dos depósitos, fornecendo uma visão geral dos perfis de subsolo. O cruzamento de dados de campo e laboratório possibilita o estabelecimento de correlações para a estimativa de Su e OCR para os depósitos. Resultados espúrios são desconsiderados nas análises apresentadas.
Resumo:
O presente trabalho tem por objetivo o estudo dos tratamentos termoquímicos comuns na indústria metalúrgica denominados: nitretação, nitrocarburação e carbonitretação com o auxílio da ferramenta conhecida como ‘termodinâmica computacional’. Com o uso de um aplicativo computacional e de um banco de dados compacto procurou-se primeiramente o perfeito entendimento dos processos, por exemplo, através da análise do efeito de variáveis como temperatura, pressão e composição das fases gasosa e condensada. A partir deste entendimento procurouse simular os tratamentos termoquímicos dentro de parâmetros conhecidos da prática industrial e, finalmente, procurou-se sugerir algumas outras atmosferas possíveis de serem aplicadas, que se mostraram apropriadas aos objetivos de tais tratamentos. Durante a simulação, constatou-se que alguns resultados mostraram-se algo diferente dos existentes na literatura, provavelmente por diferenças nos dados termodinâmicos utilizados. Este fato, contudo, não invalida as simulações. Sugere-se apenas, para o futuro, a utilização de bancos de dados ainda mais compatíveis com os resultados obtidos na prática industrial.
Resumo:
XML has become an important medium for data exchange, and is frequently used as an interface to - i.e. a view of - a relational database. Although lots of work have been done on querying relational databases through XML views, the problem of updating relational databases through XML views has not received much attention. In this work, we give the rst steps towards solving this problem. Using query trees to capture the notions of selection, projection, nesting, grouping, and heterogeneous sets found throughout most XML query languages, we show how XML views expressed using query trees can be mapped to a set of corresponding relational views. Thus, we transform the problem of updating relational databases through XML views into a classical problem of updating relational databases through relational views. We then show how updates on the XML view are mapped to updates on the corresponding relational views. Existing work on updating relational views can then be leveraged to determine whether or not the relational views are updatable with respect to the relational updates, and if so, to translate the updates to the underlying relational database. Since query trees are a formal characterization of view de nition queries, they are not well suited for end-users. We then investigate how a subset of XQuery can be used as a top level language, and show how query trees can be used as an intermediate representation of view de nitions expressed in this subset.
Resumo:
Esta dissertação apresenta um sistema de avaliação e melhoria da qualidade dos produtos e processos, em células de manufatura, em uma empresa metalúrgica, situada em Vacaria no estado do Rio Grande do Sul. O sistema proposto baseia-se no uso da lista de verificação (Check-List), como fonte para a construção de um banco de dados, capaz de evidenciar os principais defeitos encontrados durante o processo produtivo da célula de manufatura. Para a identificação das características da qualidade mais importantes para os clientes foi utilizado o QDF. na identificação dos modos de falha e processos críticos utilizou-se o FMEA como fonte de informação. A partir de uma matriz de relacionamento entre as características da qualidade e o FMEA, construiu-se um sistema capaz de identificar os defeitos e os processos que produzem maior número de não-conformidades, além de disponibilizar informações adicionais sobre qualidade do que é produzido na célula de manufatura. As informações são apresentadas em gráficos seguindo a lógica de priorização proposta por Pareto. O sistema caracteriza-se por sua simplicidade e facilidade de operacionalização, motivando os operadores a melhorar a qualidade do que produzem e dispondo rapidamente de informações para a tomada de decisão, agindo sobre as fontes causadoras de não-conformidades no processo. Com a implantação deste sistema, a fábrica obteve melhoras significativas na produtividade, redução das reclamações dos clientes e redução da produção de sucata (redução de 60% após a implantação do sistema)
Resumo:
As aplicações que lidam com dados temporais e versionados podem ser modeladas através do Modelo Temporal de Versões. No entanto, para que se possa utilizar esse modelo,é necessário que bases de dados tradicionais sejam estendidas para bases temporais versionadas, habilitando dessa forma, a manipulação desses dados. O padrão XML tem sido amplamente utilizado para publicar e trocar dados pela internet. Porém, pode ser utilizado também para a formalização de conceitos, dados, esquemas, entre outros. Com a especificação do Modelo Temporal de Versões em XML,é possível gerar automaticamente um script SQL com as características do modelo, de forma a ser aplicado a um banco de dados, tornando-o apto a trabalhar com os conceitos de tempo e de versão. Para isso,é necessário criar regras de transformação (XSLT), que serão aplicadas às especificações definidas para o modelo. O resultado final (script SQL) será executado em uma base de dados que implemente os conceitos de orientação a objetos, transformando essa base em uma base temporal versionada. Cada banco de dados possui sua própria linguagem de definição de dados. Para gerar o script em SQL com as características do Modelo Temporal de Versões, regras de transformação deverão ser definidas para os bancos que utilizarão o modelo, observando sua sintaxe específica. Essas diversas regras serão aplicadas à mesma especificação do modelo em XML. O resultado será o script em SQL definido na sintaxe de cada base de dados.
Resumo:
Este trabalho apresenta um protótipo de uma máquina de workflow, de uso geral, implementado em plataforma de software livre. O protótipo utiliza um servidor web com PHP, em sistema operacional Linux, alguns programas desenvolvidos em C e o banco de dados MySql. O projeto CEMT demanda o uso da tecnologia de workflow, com o objetivo de controlar a execução de cursos a distância. Antes de ser iniciado o desenvolvimento do protótipo, foi feito um estudo sobre algumas máquinas de workflow existentes, com o objetivo de encontrar alguma que tivesse licença livre e pudesse ser utilizada no projeto CEMT, ou colher subsídios para o desenvolvimento de uma máquina de workflow própria. Foram testadas duas máquinas de workflow de licença livre (Openflow e OFBIZ), uma máquina com cópia de demonstração (Reactor) e foram consultadas as documentações fornecidas pelos fabricantes. Além disso foi consultada também a documentação do Domino Workflow, que não disponibilizou cópia de avaliação e cuja licença não é livre. Um dos requisitos do protótipo é a compatibilidade com os padrões de interface recomendados pela WfMC. Esses padrões permitem a interoperabilidade entre softwares de workflow. O primeiro benefício da adoção desses padrões é a interação com o editor gráfico de workflow AW (Amaya Workflow), desenvolvido no Instituto de Informática da UFRGS. Este editor gera definições de processos de workflow no formato da linguagem XPDL (XML Process Definition Language), que alimentam a máquina de workflow. O esquema XPDL foi traduzido para um esquema de banco de dados relacional e foi desenvolvido um compilador que lê um arquivo no formato XPDL e gera comandos SQL de inserção das informações desse arquivo no banco de dados. Foi desenvolvida uma interface web para demonstrar o funcionamento do protótipo. A API definida na Interface 2 da WfMC foi implementada parcialmente. Essa API permite o desenvolvimento independente de outras interfaces de usuário. Foram propostas algumas extensões à Interface 1 e modificações na definição de estados recomendada pela Interface 2 da WfMC. Com isso foi possível aumentar o controle sobre a execução das instâncias de workflow. Foram incluídas as restrições de data e possibilidade de bloqueio na execução de instâncias de atividades. Outras extensões possibilitam um serviço de notificações e atividades em grupo e oferecem novas possibilidades de alocação de atividades. O funcionamento básico do protótipo é descrito e inclui as funcionalidades de carga da definição de processo, instanciação de processo, visualização da lista de trabalho e execução das atividades, entre outras.
Resumo:
A utilização de versões tem sido essencial em diversas aplicações de banco dados, por permitir o armazenamento e a manipulação de diferentes estados da base de dados. Durante a evolução de um esquema, o versionamento preserva todas as versões de esquemas e de seus dados associados. Por outro lado, os conceitos de bancos de dados bitemporais, que incorporam tanto tempo de transação quanto tempo de validade, provêm flexibilidade ao mecanismo de evolução de esquemas, não somente por permitir acesso a informações presentes, passadas e futuras, mas também por permitir atualizações e consultas entre as diversas versões de esquemas existentes. O objetivo principal desta tese é definir um modelo que utilize os conceitos de tempo e de versão para permitir o gerenciamento da evolução dinâmica de esquemas em bancos de dados orientados a objetos. O resultado, o Modelo Temporal de Versionamento com suporte à Evolução de Esquemas (TVSE - Temporal and Versioning Model to Schema Evolution), é capaz de gerenciar o processo de evolução de esquemas em todos os seus aspectos: versionamento e modificação de esquemas, propagação de mudanças e manipulação de dados. Esse modelo difere de outros modelos de evolução de esquemas por permitir o gerenciamento homogêneo e simultâneo do histórico da evolução do banco de dados intencional e extensional. Com o objetivo de complementar a definição deste modelo é apresentado um ambiente para gerenciar o versionamento temporal da evolução de esquemas. Desse ambiente foi implementado um protótipo da ferramenta de apoio ao gerenciamento de evolução de esquemas. Por fim, enriquecendo o universo da tese e com o intuito de prover uma maior fundamentação teórica e matemática para descrever as políticas de evolução de esquemas, é especificada uma semântica operacional para um subconjunto do modelo proposto.
Resumo:
A utilização de conceitos de representação temporal tem sido essencial em diversas aplicações de banco de dados, por permitir o armazenamento e a manipulação dos diferentes estados assumidos pela base de dados ao longo do tempo. Durante a evolução da base de dados, através do conceito de bitemporalidade, obtém-se acesso a informações presentes, passadas e futuras. Já o conceito de versionamento permite a existência de diversas alternativas para a evolução da base de dados, possibilitando um processo de evolução ramificada, em oposição ao usual mecanismo de evolução linear do conteúdo da base. Com a migração de tais aplicações para um ambiente Web, estas passam cada vez mais a utilizar a linguagem XML como formato de representação e intercâmbio de seus dados. Tornam-se necessários, dessa forma, mecanismos para a representação e manipulação da história do conteúdo de um documento XML que sofre modificações com o passar do tempo. Apesar da existência de propostas de extensão temporal de modelos de dados convencionais e de estratégias para o armazenamento de documentos XML em modelos convencionais, a natureza semi-estruturada dos documentos XML faz com que seja necessário definir um novo modelo de dados temporal, capaz de lidar com os conceitos de bitemporalidade e versionamento em um documento semiestruturado. O objetivo deste trabalho é definir um modelo que, ao contrário das demais propostas existentes, combine os conceitos de bitemporalidade e de versionamento em uma única abordagem capaz de permitir o tratamento da evolução do conteúdo de documentos XML. O uso conjunto desses dois recursos visa combinar o poder de expressão de cada um, garantindo uma maior flexibilidade na representação do histórico dos documentos XML. O modelo resultante recebeu o nome de Tempo e Versões em XML, ou simplesmente TVX, composto por três partes: um modelo para a organização lógica dos dados, uma linguagem de consulta e uma linguagem para promover alterações ao conteúdo dos documentos XML.