986 resultados para Information Bases


Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this study, we combine available high resolution structural information on eukaryotic ribosomes with low resolution cryo-EM data on the Hepatitis C Viral RNA (IRES) human ribosome complex. Aided further by the prediction of RNA-protein interactions and restrained docking studies, we gain insights on their interaction at the residue level. We identified the components involved at the major and minor contact regions, and propose that there are energetically favorable local interactions between 40S ribosomal proteins and IRES domains. Domain II of the IRES interacts with ribosomal proteins S5 and S25 while the pseudoknot and the downstream domain IV region bind to ribosomal proteins S26, S28 and S5. We also provide support using UV cross-linking studies to validate our proposition of interaction between the S5 and IRES domains II and IV. We found that domain IIIe makes contact with the ribosomal protein S3a (S1e). Our model also suggests that the ribosomal protein S27 interacts with domain IIIc while S7 has a weak contact with a single base RNA bulge between junction IIIabc and IIId. The interacting residues are highly conserved among mammalian homologs while IRES RNA bases involved in contact do not show strict conservation. IRES RNA binding sites for S25 and S3a show the best conservation among related viral IRESs. The new contacts identified between ribosomal proteins and RNA are consistent with previous independent studies on RNA-binding properties of ribosomal proteins reported in literature, though information at the residue level is not available in previous studies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

[ES] Se estudian las características comunes y específicas de los gestores personales de bases de datos de referencias bibliográficas más utilizados: Reference Manager, EndNote, ProCite, RefWorks y EndNote Web. Los Apartados analizados son: la entrada de datos, el control de autoridades, los comandos de edición global, la personalización de algunos aspectos de las bases de datos, la exportación de las referencias, la visualización de los Registros, la inserción de citas bibliográficas y la generación automática de bibliografías.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A person living in an industrialized society has almost no choice but to receive information daily with negative implications for himself or others. His attention will often be drawn to the ups and downs of economic indicators or the alleged misdeeds of leaders and organizations. Reacting to new information is central to economics, but economics typically ignores the affective aspect of the response, for example, of stress or anger. These essays present the results of considering how the affective aspect of the response can influence economic outcomes.

The first chapter presents an experiment in which individuals were presented with information about various non-profit organizations and allowed to take actions that rewarded or punished those organizations. When social interaction was introduced into this environment an asymmetry between rewarding and punishing appeared. The net effects of punishment became greater and more variable, whereas the effects of reward were unchanged. The individuals were more strongly influenced by negative social information and used that information to target unpopular organizations. These behaviors contributed to an increase in inequality among the outcomes of the organizations.

The second and third chapters present empirical studies of reactions to negative information about local economic conditions. Economic factors are among the most prevalent stressors, and stress is known to have numerous negative effects on health. These chapters document localized, transient effects of the announcement of information about large-scale job losses. News of mass layoffs and shut downs of large military bases are found to decrease birth weights and gestational ages among babies born in the affected regions. The effect magnitudes are close to those estimated in similar studies of disasters.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A doença de Alzheimer (DA) afeta mais de um milhão de habitantes no Brasil com grande impacto tanto na saúde como social e financeiro. O uso adequado de medicamentos e os programas de cuidado integrado são recomendados como as melhores práticas nesta doença. Em 2002, o Ministério da Saúde criou o Programa de Assistência Farmacêutica aos Portadores de doença de Alzheimer que garante aos portadores desta patologia acesso à avaliação por especialistas e tratamento medicamentoso de alto custo. Mas, para um melhor planejamento das ações relacionadas ao programa, é importante entender os padrões de morbi-mortalidade da população alvo, qualidade da assistência oferecida e o seu impacto. Com foco nesse cenário, esta tese teve como objetivo o estudo da adesão, mortalidade e sobrevida em uma população portadora de doença de Alzheimer assistida nesse programa de assistência farmacêutica. Para apresentação dessa pesquisa, dividiram-se os resultados em três artigos. No primeiro artigo, o objetivo foi avaliar a viabilidade de se utilizar as informações de reabastecimento de receitas coletadas por esse programa na construção de medidas de adesão, uma metodologia já explorada na literatura internacional, mas com experiência limitada no Brasil. Os dados foram acessados nos formulários de Autorização de Procedimentos de Alto Custo (APAC) armazenados na base de dados do programa de acesso de medicamentos excepcionais do Sistema de Informação Ambulatorial (SIA). Como resultado, foram criadas várias medidas de adesão com potencial aplicação no campo da farmacoepidemiologia e planejamento em saúde. No segundo artigo, o foco foi entender que fatores individuais, terapêuticos ou relacionados à assistência, poderiam estar relacionados com um aumento do risco de abandono do programa. Fatores como o sexo feminino, o número de comorbidades na APAC, o tipo de inibidor de colinesterase iniciado e a irregularidade nos reabastecimentos foram associados a um maior risco de abandono do programa. No terceiro artigo, pelas técnicas de relacionamento probabilístico de base de dados, agregaram-se os dados presentes no Sistema de Informação sobre Mortalidade (SIM) para avaliação dos padrões de mortalidade desta patologia. Cerca de 40% dos pacientes foram a óbito durante todo o período de seguimento e principal causa básica de mortalidade foi a doença de Alzheimer (19%). Idade mais avançada e sexo masculino foram as únicas variáveis associadas com uma menor sobrevida. A persistência no programa em seis meses e os diferentes níveis de adesão, medidos pela proporção de posse da medicação, não mostraram associação com a sobrevida. Conclui-se que os dados disponíveis nas bases possibilitaram a investigação do padrão de mortalidade e utilização de um programa de assistência na doença de Alzheimer. E, a possibilidade de analisar grandes populações, em caráter contínuo, com medidas objetivas e com um custo relativamente baixo suplanta o caráter limitado das informações individuais e da doença. Políticas que suportem o aumento na disponibilidade, qualidade e escopo da informação e o avanço nas metodologias de pesquisa em bases de dados devem ser uma prioridade da saúde, pois contribuem com a criação de informações relevantes para um uso racional de recursos e melhora nas práticas de cuidado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo precípuo da pesquisa que ora se apresenta consiste em analisar as políticas e reformas da educação no que concerne à Formação de Professores da década de 1990, considerando o intenso barateamento e a precarização, que vem ocorrendo nas últimas décadas, nessa formação. Buscamos entender em que medida as políticas são contingentes e elaboradas para atender aos problemas emergenciais e porque não trazem em seu bojo a construção de ações que visam à transformação da formação e da própria sociedade. Busca, ainda, compreender se a Teoria Reflexiva, cujos expoentes são John Dewey e Donald Schön, que fundamenta o trabalho de alguns professores formadores, é uma extensão das políticas e reformas empreendidas no Brasil nas últimas décadas. De igual modo, visa a analisar se palavras de ordem como flexibilização, polivalência, habilidades e competência, que compõem a agenda neoliberal, foram aderidas ao pacote para a Formação de Professores da Teoria Reflexiva. Pretende contrapor os fundamentos da Teoria Reflexiva àqueles da Pedagogia Histórico-Crítica. Utiliza, nesta etapa da investigação, a pesquisa bibliográfica e documental pertinente e levanta informações sobre o Curso de Pedagogia no Brasil por meio da pesquisa empírica, que ocorreu em três Universidades: Universidade Estadual de Ponta Grossa (UEPG), Universidade Federal do Paraná (UFPR) e Universidade Estadual do Oeste do Paraná (UNIOESTE-Câmpus Cascavel). Analisa o Projeto Político-Pedagógico de cada uma para detectar qual Referencial Teórico pautou sua construção e realiza entrevistas semiestruturadas com professores do Curso de Pedagogia, buscando meios que possibilitou realizar o levantamento do possível Referencial Teórico que pauta o trabalho desses professores

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The Internet has enabled the creation of a growing number of large-scale knowledge bases in a variety of domains containing complementary information. Tools for automatically aligning these knowledge bases would make it possible to unify many sources of structured knowledge and answer complex queries. However, the efficient alignment of large-scale knowledge bases still poses a considerable challenge. Here, we present Simple Greedy Matching (SiGMa), a simple algorithm for aligning knowledge bases with millions of entities and facts. SiGMa is an iterative propagation algorithm which leverages both the structural information from the relationship graph as well as flexible similarity measures between entity properties in a greedy local search, thus making it scalable. Despite its greedy nature, our experiments indicate that SiGMa can efficiently match some of the world's largest knowledge bases with high precision. We provide additional experiments on benchmark datasets which demonstrate that SiGMa can outperform state-of-the-art approaches both in accuracy and efficiency.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ridoux, O. and Ferr?, S. (2004) Introduction to logical information systems. Information Processing & Management, 40 (3), 383-419. Elsevier

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mavron, Vassili; McDonough, T.P.; Key, J.D., (2006) 'Information sets and partial permutation decoding for codes from finite geometries', Finite Fields and their applications 12(2) pp.232-247 RAE2008

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, we propose an adaptive approach to merging possibilistic knowledge bases that deploys multiple operators instead of a single operator in the merging process. The merging approach consists of two steps: one is called the splitting step and the other is called the combination step. The splitting step splits each knowledge base into two subbases and then in the second step, different classes of subbases are combined using different operators. Our approach is applied to knowledge bases which are self-consistent and the result of merging is also a consistent knowledge base. Two operators are proposed based on two different splitting methods. Both operators result in a possibilistic knowledge base which contains more information than that obtained by the t-conorm (such as the maximum) based merging methods. In the flat case, one of the operators provides a good alternative to syntax-based merging operators in classical logic.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recently, several belief negotiation models have been introduced to deal with the problem of belief merging. A negotiation model usually consists of two functions: a negotiation function and a weakening function. A negotiation function is defined to choose the weakest sources and these sources will weaken their point of view using a weakening function. However, the currently available belief negotiation models are based on classical logic, which makes them difficult to define weakening functions. In this paper, we define a prioritized belief negotiation model in the framework of possibilistic logic. The priority between formulae provides us with important information to decide which beliefs should be discarded. The problem of merging uncertain information from different sources is then solved by two steps. First, beliefs in the original knowledge bases will be weakened to resolve inconsistencies among them. This step is based on a prioritized belief negotiation model. Second, the knowledge bases obtained by the first step are combined using a conjunctive operator which may have a reinforcement effect in possibilistic logic.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we investigate the relationship between two prioritized knowledge bases by measuring both the conflict and the agreement between them.First of all, a quantity of conflict and two quantities of agreement are defined. The former is shown to be a generalization of the well-known Dalal distance which is the hamming distance between two interpretations. The latter are, respectively, a quantity of strong agreement which measures the amount ofinformation on which two belief bases “totally” agree, and a quantity of weak agreement which measures the amount of information that is believed by onesource but is unknown to the other. All three quantity measures are based on the weighted prime implicant, which represents beliefs in a prioritized belief base. We then define a degree of conflict and two degrees of agreement based on our quantity of conflict and quantities of agreement. We also consider the impact of these measures on belief merging and information source ordering.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Belief merging is an important but difficult problem in Artificial Intelligence, especially when sources of information are pervaded with uncertainty. Many merging operators have been proposed to deal with this problem in possibilistic logic, a weighted logic which is powerful for handling inconsistency and deal-ing with uncertainty. They often result in a possibilistic knowledge base which is a set of weighted formulas. Although possibilistic logic is inconsistency tolerant, it suffers from the well-known "drowning effect". Therefore, we may still want to obtain a consistent possibilistic knowledge base as the result of merging. In such a case, we argue that it is not always necessary to keep weighted information after merging. In this paper, we define a merging operator that maps a set of possibilistic knowledge bases and a formula representing the integrity constraints to a classical knowledge base by using lexicographic ordering. We show that it satisfies nine postulates that generalize basic postulates for propositional merging given in [11]. These postulates capture the principle of minimal change in some sense. We then provide an algorithm for generating the resulting knowledge base of our merging operator. Finally, we discuss the compatibility of our merging operator with propositional merging and establish the advantage of our merging operator over existing semantic merging operators in the propositional case.