576 resultados para schema


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The subject matter of this study is the cultural knowledge concerning romantic male-female relationships in autobiographies written by so called ordinary Finnish men and women born between 1901 and 1965. The research data (98 autobiographies) is selected from two collections by the Finnish Literature Society s folklore archives in the early 1990 s. Autobiographies are cultural representations where negotiation of shared cultural models and personal meanings given to hetero-relationship is evident in an interesting manner. In this research I analyze autobiographies as a written folklore genre. Information concerning male-female relationships is being analyzed using theoretically informed close readings thematic analysis, intertextual reading and reflexive reading. Theoretical implications stem from cognitive anthropology (the idea of cultural models) and an adaptation of discourse theory inspired by Michel Foucault. The structure of the analysis follows the structure of the shared knowledge concerning romantic male-female relationship: the first phase of analysis presents the script of a hetero-relationship and then moves into the actual structure, the cultural model of a relationship. The components of the model of relationship are, as mentioned in the title of the research, woman, man, love and sex. The research shows that all the writers share this basic knowledge concerning a heterosexual relationship despite their age, background or gender. Also the conflicts described and experienced in the relationships of the writers were similar throughout the timespan of the early 1900 s to 1990 s: lack of love, inability to reconcile sexual desires, housework, sharing the responsibility of childcare and financial problems. The research claims that the conflicts in relationships are a major cause for the binary view on gender. When relationships are harmonious, there seems to be no need to see men and women as opposites. The research names five important discourses present in the meaning giving processes of autobiographers. In doing so, the stabile cultural model of male-female relationship widens to show the complexity and variation in data. In this way it is possible to detect some age and gender specific shifts and emphasis. The discourses give meaning to the components of the cultural model and determine the contents of womanhood, manhood, sexuality and love. The way these discourses are spread and their authority are different: the romantic discourse evident in the autobiographies appeal to the authority of love supreme love is the purpose of male-female relationship and it justifies sexuality. In this discourse sex can be the place for confluence of genders. The ideas of romantic love are widely spread in popular culture. Popular scientific discourse defines a relationship as a site to become a man and a woman either from a psychological or a biological point of view. Genders are seen as opposites. These ideas are often presented in media and their authority in science which is seen as infallible. The Christian discourse defines men and women: both should work for the benefit of the nuclear family under the undisputed authority of God. Marital love is based on Christian virtues and within marriage sexuality is acceptable. The discourse I ve named folk tradition defines women and men as guardians of home and offspring. The authority of folk tradition comes from universal truth based in experience and truths known to the mediators of this discourse grandparents, parents and other elders or peers. Societal discourse defines the hetero relationship as the mainstay of society. The authority in societal discourse stems from the laws and regulations that control relationship practices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gene mapping is a systematic search for genes that affect observable characteristics of an organism. In this thesis we offer computational tools to improve the efficiency of (disease) gene-mapping efforts. In the first part of the thesis we propose an efficient simulation procedure for generating realistic genetical data from isolated populations. Simulated data is useful for evaluating hypothesised gene-mapping study designs and computational analysis tools. As an example of such evaluation, we demonstrate how a population-based study design can be a powerful alternative to traditional family-based designs in association-based gene-mapping projects. In the second part of the thesis we consider a prioritisation of a (typically large) set of putative disease-associated genes acquired from an initial gene-mapping analysis. Prioritisation is necessary to be able to focus on the most promising candidates. We show how to harness the current biomedical knowledge for the prioritisation task by integrating various publicly available biological databases into a weighted biological graph. We then demonstrate how to find and evaluate connections between entities, such as genes and diseases, from this unified schema by graph mining techniques. Finally, in the last part of the thesis, we define the concept of reliable subgraph and the corresponding subgraph extraction problem. Reliable subgraphs concisely describe strong and independent connections between two given vertices in a random graph, and hence they are especially useful for visualising such connections. We propose novel algorithms for extracting reliable subgraphs from large random graphs. The efficiency and scalability of the proposed graph mining methods are backed by extensive experiments on real data. While our application focus is in genetics, the concepts and algorithms can be applied to other domains as well. We demonstrate this generality by considering coauthor graphs in addition to biological graphs in the experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Practical usage of machine learning is gaining strategic importance in enterprises looking for business intelligence. However, most enterprise data is distributed in multiple relational databases with expert-designed schema. Using traditional single-table machine learning techniques over such data not only incur a computational penalty for converting to a flat form (mega-join), even the human-specified semantic information present in the relations is lost. In this paper, we present a practical, two-phase hierarchical meta-classification algorithm for relational databases with a semantic divide and conquer approach. We propose a recursive, prediction aggregation technique over heterogeneous classifiers applied on individual database tables. The proposed algorithm was evaluated on three diverse datasets. namely TPCH, PKDD and UCI benchmarks and showed considerable reduction in classification time without any loss of prediction accuracy. (C) 2012 Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Theoretical and computational frameworks for synaptic plasticity and learning have a long and cherished history, with few parallels within the well-established literature for plasticity of voltage-gated ion channels. In this study, we derive rules for plasticity in the hyperpolarization-activated cyclic nucleotide-gated (HCN) channels, and assess the synergy between synaptic and HCN channel plasticity in establishing stability during synaptic learning. To do this, we employ a conductance-based model for the hippocampal pyramidal neuron, and incorporate synaptic plasticity through the well-established Bienenstock-Cooper-Munro (BCM)-like rule for synaptic plasticity, wherein the direction and strength of the plasticity is dependent on the concentration of calcium influx. Under this framework, we derive a rule for HCN channel plasticity to establish homeostasis in synaptically-driven firing rate, and incorporate such plasticity into our model. In demonstrating that this rule for HCN channel plasticity helps maintain firing rate homeostasis after bidirectional synaptic plasticity, we observe a linear relationship between synaptic plasticity and HCN channel plasticity for maintaining firing rate homeostasis. Motivated by this linear relationship, we derive a calcium-dependent rule for HCN-channel plasticity, and demonstrate that firing rate homeostasis is maintained in the face of synaptic plasticity when moderate and high levels of cytosolic calcium influx induced depression and potentiation of the HCN-channel conductance, respectively. Additionally, we show that such synergy between synaptic and HCN-channel plasticity enhances the stability of synaptic learning through metaplasticity in the BCM-like synaptic plasticity profile. Finally, we demonstrate that the synergistic interaction between synaptic and HCN-channel plasticity preserves robustness of information transfer across the neuron under a rate-coding schema. Our results establish specific physiological roles for experimentally observed plasticity in HCN channels accompanying synaptic plasticity in hippocampal neurons, and uncover potential links between HCN-channel plasticity and calcium influx, dynamic gain control and stable synaptic learning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The problem of scaling up data integration, such that new sources can be quickly utilized as they are discovered, remains elusive: Global schemas for integrated data are difficult to develop and expand, and schema and record matching techniques are limited by the fact that data and metadata are often under-specified and must be disambiguated by data experts. One promising approach is to avoid using a global schema, and instead to develop keyword search-based data integration-where the system lazily discovers associations enabling it to join together matches to keywords, and return ranked results. The user is expected to understand the data domain and provide feedback about answers' quality. The system generalizes such feedback to learn how to correctly integrate data. A major open challenge is that under this model, the user only sees and offers feedback on a few ``top-'' results: This result set must be carefully selected to include answers of high relevance and answers that are highly informative when feedback is given on them. Existing systems merely focus on predicting relevance, by composing the scores of various schema and record matching algorithms. In this paper, we show how to predict the uncertainty associated with a query result's score, as well as how informative feedback is on a given result. We build upon these foundations to develop an active learning approach to keyword search-based data integration, and we validate the effectiveness of our solution over real data from several very different domains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: En 2012 se cumplen 50 años del inicio del Concilio Vaticano II, inaugurado por el Papa Juan XXIII el 11 de octubre de 1962. Es un dato reconocido el importante papel que desarrollaron muchos teólogos a lo largo de los diversos debates conciliares. Entre ellos destaca la figura de K. Rahner. Su principal contribución se dirigió a los asuntos eclesiológicos. Menos conocido es su aporte a los debates que, iniciados en octubre de 1962, conducirían, recién en 1965, a la aprobación de la Constitución Dei Verbum. Luego de una breve introducción, me detengo, en primer lugar, en el informe que Rahner preparó en noviembre de 1962 en contra del Esquema preparatorio, De fontibus revelationis. En un segundo momento, describo otro texto, el llamado “Esquema Rahner – Ratzinger”, elaborado en la misma época, pensado como un texto alternativo al oficial. En tercer lugar, destaco algunas ideas centrales de una conferencia de Rahner de 1963, titulada “Escritura y Tradición”. Finalmente, analizo el número noveno de Dei Verbum que, como se advertirá, muestra que las posiciones bíblico-sistemáticas de Rahner se direccionaban en el sentido de la llamada mayoría conciliar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No mês de outubro de 2007 a Comissão Nacional de Cartografia (CONCAR) lançou uma norma cartográfica composta de especificações técnicas para Estruturação de Dados Geoespaciais Digitais Vetoriais (EDGV) para a realização do mapeamento topográfico sistemático no Brasil. No mês de novembro de 2008 foi publicado o Decreto n 6666, que institui a Infra-Estrutura Nacional de Dados Espaciais e ratifica o uso das normas homologadas pela CONCAR, pelas instituições Federais. Este trabalho realiza dois requisitos, a saber: (a) fornece um esquema relacional alinhado as especificações da EDGV e (b) implementa um protótipo, com vistas a sua utilização no processo de restituição fotogramétrica nas instituições públicas responsáveis pelo mapeamento topográfico no Brasil. A implementação é realizada em ambiente de software livre. Também é importante salientar o caráter educacional da plataforma de software a ser implementada, para que o seu uso seja também direcionado para o ensino teórico e prático da fotogrametria digital nas instituições de ensino e pesquisa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo teve a finalidade de descrever, num corpus literário de iniciação, tanto a metáfora conceptual e suas manifestações lingüísticas quanto à intertextualidade, como caminhos possíveis para um processo de compreensão construtivo e autônomo, em textos de língua portuguesa produzidos em culturas diferentes. Selecionamos, como material de investigação dos aspectos estudados, na literatura brasileira, uma trilogia metaliterária de Lygia Bojunga Nunes, na literatura portuguesa, dois contos de Sophia de Mello Breyner Andresen, e na literatura africana, optamos pela representação moçambicana com uma novela de Mia Couto. As obras das duas primeiras autoras são lidas por jovens entre 14 a 17 anos nos seus países de origem e a obra de Mia Couto está aqui relacionada por ser uma possibilidade e um enriquecimento para o leitor em formação. Trabalhamos com a metáfora inserida nos fundamentos da Semântica cognitiva, porque traz como preceito básico o desvelamento das associações que vão embasar nossos esquemas mentais e cujo conhecimento vai-nos habilitando a uma autonomia para relacionar sentidos e perceber que até a mais obscura emissão vai ganhar ares de previsibilidade por conta das nossas experiências, dos textos que buscamos na memória e do contexto que construímos com os dados lingüísticos que preenchem a moldura de um dado cenário. A metáfora, porém, se mostrou produtiva em nossas análises porque associamos a sua gênese conceptual com a sua função pragmática. É nessa fusão que ela se faz língua, se faz pujante, desviante e revela para o interlocutor as marcas que a remetem para a circularidade original, ou seja, o conceito da qual ela foi gerida. Verificamos, na aplicação da teoria no corpus analisado, que, através dos fundamentos da metáfora conceptual e da intertextualidade, podemos compreender o que é universal e o que é cultural nas nossas expressões literárias e que a fronteira entre essas duas dimensões não fratura o diálogo que se faz urgente e necessário, para a defesa de uma cultura lusófona

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste estudo qualitativo, objetiva-se descrever os usos do conector mas em um corpus de mediação endoprocessual, à luz da Linguística Cognitiva, baseando-se, sobretudo, na Teoria da Metáfora Conceptual e nos conceitos de categorização, esquemas imagéticos e modelos cognitivos idealizados (MCIs). Investigam-se as bases cognitivas que fundamentam os sentidos do mas e a função argumentativa desse conector na mediação, a partir de duas hipóteses gerais, a saber: (i) defende-se que o conector mas funciona como um gatilho para a ativação do MCI de guerra, em termos do qual é conceptualizado o conceito de discussão, como afirmam Lakoff e Johnson (2002[1980]); e (ii) acredita-se que tal conector possa ser caracterizado como uma categoria radial, formada a partir dos diferentes esquemas imagéticos que fundamentam as ocorrências desse elemento na interação. Tendo em vista essas hipóteses, objetiva-se: (i) apontar as funções argumentativas do mas na mediação, sinalizadas pelos mapeamentos metafóricos ativados durante a discussão e (ii) descrever os sentidos evidenciados pelos usos do mas no gênero analisado, os quais são evocados pelos diferentes esquemas imagéticos em que se baseiam. Os resultados indicam que esse conector pode ser compreendido como uma categoria radial, formada a partir de esquemas de força distintos. Além disso, verifica-se que os três usos mais próximos ao centro da categoria relacionam-se fortemente a um confronto ou a uma disputa de posição entre os participantes da interação, enquanto os três mais periféricos são estreitamente ligados a uma estratégia de manutenção da posição argumentativa do falante. Considera-se que esta pesquisa possa colaborar para o estudo do conector mas, devido à observação do comportamento semântico-discursivo desse item em um gênero pouco contemplado, a mediação; e, devido à escolha do paradigma adotado, que permite analisar o conector em todas as suas ocorrências, não havendo necessidade de separar os usos chamados de interfrásticos daqueles denominados inícios acessórios ou pré-começos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Effects of context on the perception of, and incidental memory for, real-world objects have predominantly been investigated in younger individuals, under conditions involving a single static viewpoint. We examined the effects of prior object context and object familiarity on both older and younger adults' incidental memory for real objects encountered while they traversed a conference room. Recognition memory for context-typical and context-atypical objects was compared with a third group of unfamiliar objects that were not readily named and that had no strongly associated context. Both older and younger adults demonstrated a typicality effect, showing significantly lower 2-alternative-forced-choice recognition of context-typical than context-atypical objects; for these objects, the recognition of older adults either significantly exceeded, or numerically surpassed, that of younger adults. Testing-awareness elevated recognition but did not interact with age or with object type. Older adults showed significantly higher recognition for context-atypical objects than for unfamiliar objects that had no prior strongly associated context. The observation of a typicality effect in both age groups is consistent with preserved semantic schemata processing in aging. The incidental recognition advantage of older over younger adults for the context-typical and context-atypical objects may reflect aging-related differences in goal-related processing, with older adults under comparatively more novel circumstances being more likely to direct their attention to the external environment, or age-related differences in top-down effortful distraction regulation, with older individuals' attention more readily captured by salient objects in the environment. Older adults' reduced recognition of unfamiliar objects compared to context-atypical objects may reflect possible age differences in contextually driven expectancy violations. The latter finding underscores the theoretical and methodological value of including a third type of objects-that are comparatively neutral with respect to their contextual associations-to help differentiate between contextual integration effects (for schema-consistent objects) and expectancy violations (for schema-inconsistent objects).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de recuperação secundária de petróleo é comumente realizado com a injeção de água ou gás no reservatório a fim de manter a pressão necessária para sua extração. Para que o investimento seja viável, os gastos com a extração precisam ser menores do que o retorno financeiro obtido com a produção de petróleo. Objetivando-se estudar possíveis cenários para o processo de exploração, costuma-se utilizar simulações dos processos de extração. As equações que modelam esse processo de recuperação são de caráter hiperbólico e não lineares, as quais podem ser interpretadas como Leis de Conservação, cujas soluções são complexas por suas naturezas descontínuas. Essas descontinuidades ou saltos são conhecidas como ondas de choque. Neste trabalho foi abordada uma análise matemática para os fenômenos oriundos de leis de conservação, para em seguida utilizá-la no entendimento do referido problema. Foram estudadas soluções fracas que, fisicamente, podem ser interpretadas como ondas de choque ou rarefação, então, para que fossem distinguidas as fisicamente admissíveis, foi considerado o princípio de entropia, nas suas diversas formas. As simulações foram realizadas nos âmbitos dos escoamentos bifásicos e trifásicos, em que os fluidos são imiscíveis e os efeitos gravitacionais e difusivos, devido à pressão capilar, foram desprezados. Inicialmente, foi feito um estudo comparativo de resoluções numéricas na captura de ondas de choque em escoamento bifásico água-óleo. Neste estudo destacam-se o método Composto LWLF-k, o esquema NonStandard e a introdução da nova função de renormalização para o esquema NonStandard, onde obteve resultados satisfatórios, principalmente em regiões onde a viscosidade do óleo é muito maior do que a viscosidade da água. No escoamento bidimensional, um novo método é proposto, partindo de uma generalização do esquema NonStandard unidimensional. Por fim, é feita uma adaptação dos métodos LWLF-4 e NonStandard para a simulação em escoamentos trifásicos em domínios unidimensional. O esquema NonStandard foi considerado mais eficiente nos problemas abordados, uma vez que sua versão bidimensional mostrou-se satisfatória na captura de ondas de choque em escoamentos bifásicos em meios porosos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

XML简单灵活的特性使得XML在网络服务、关系数据库以及形式化研究等领域得到应用。同时,XML处理的技术不断发展,近期的研究表明静态类型化的处理方式在XML处理的有关方面有重要的优势。静态类型化XML处理技术是将XML的模式语言作为程序语言的基本数据类型,在程序运行之前进行静态的类型检查,从而确保运行时的类型安全。目前大多数静态类型系统采用正则表达式类型作为基本类型,正则表达式类型与树自动机是一一对应的。 子类型关系判定是类型检查中的核心问题。语义子类型的方法在静态类型化XML处理中有很多优点。在这种子类型判定方法中,类型被看成是值的集合,子类型关系判定转化为集合的包含判定。目前广泛应用的XML的模式语言如DTD、XML Schema等都是正规树语言的子类。正规树语言的包含问题是可判定的。在类型检查中,正则表达式类型的实现是基于树自动机的,子类型关系判定转化为树自动机的包含判定,效率较低。 本文提出了一种基于正则表达式包含判定的类型检查方法。由于DTD是目前使用最普遍的XML模式语言,因此本文首先提出针对DTD的类型检查方法,然后在此基础上进行扩展,提出了产生式不相交的正规树文法的概念以及针对该受限树文法的类型检查方法。DTD以及XML Schema等常用的XML模式语言均可由该树文法直接描述。在本文的方法中,子类型关系判定的过程不需要构造树自动机,而是根据类型表达式的树状结构自下而上地进行检查,每一层的检查基于正则表达式的包含判定,同时在判定过程中利用了树文法中的标号与类型之间的联系。该方法可以针对不同种类的正则表达式使用不同的包含判定算法。通过采用一种称为消除局部递归类型的策略,使得对并类型的子类型关系判定比基于树自动机的类型检查方法更加简单。本文实现了上述类型检查方法,并通过相应的实验说明该方法的可行性以及有效性。同时分析比较了已有的XML类型检查的方法与基于正则表达式包含判定的类型检查方法的优缺点。

Relevância:

10.00% 10.00%

Publicador:

Resumo:

在基于映射的数据交换系统框架下,提出了一种本体辅助的模式匹配方法.它利用WordNet词汇本体和决策树学习相结合的方法进行属性名称匹配,构建数据类型本体计算属性数据类型的语义距离,依赖领域本体发现一对多的语义匹配关系,这3个过程逐步提高了匹配质量.建立在实际应用数据上的实验结果表明,该方法具有较高的精确度和召回率.