999 resultados para Information Bases
Resumo:
Proteins are biochemical entities consisting of one or more blocks typically folded in a 3D pattern. Each block (a polypeptide) is a single linear sequence of amino acids that are biochemically bonded together. The amino acid sequence in a protein is defined by the sequence of a gene or several genes encoded in the DNA-based genetic code. This genetic code typically uses twenty amino acids, but in certain organisms the genetic code can also include two other amino acids. After linking the amino acids during protein synthesis, each amino acid becomes a residue in a protein, which is then chemically modified, ultimately changing and defining the protein function. In this study, the authors analyze the amino acid sequence using alignment-free methods, aiming to identify structural patterns in sets of proteins and in the proteome, without any other previous assumptions. The paper starts by analyzing amino acid sequence data by means of histograms using fixed length amino acid words (tuples). After creating the initial relative frequency histograms, they are transformed and processed in order to generate quantitative results for information extraction and graphical visualization. Selected samples from two reference datasets are used, and results reveal that the proposed method is able to generate relevant outputs in accordance with current scientific knowledge in domains like protein sequence/proteome analysis.
Resumo:
A ocorrência de grandes escândalos financeiros na última década, um pouco por todo o mundo, provocou uma crise de confiança na informação financeira prestada pelas empresas e levou à discussão de conceitos como Corporate Governance e Expectation Gap e a uma “revolução” no mundo da auditoria. A necessidade de confiança na opinião dos auditores conduziu à discussão acerca de como é que o trabalho de auditoria é realizado, em que “bases” é que o auditor determina o que analisar e, por último, como decide o que é material ou não. Esta discussão traz a si associado o conceito de materialidade. O objectivo deste estudo é compreender os aspectos inerentes à determinação da materialidade e a sua importância, tanto no planeamento como na avaliação de resultados. O presente trabalho está estruturado em sete capítulos, correspondendo os cinco primeiros ao enquadramento teórico do tema, realizado através de revisão de literatura. No sexto capítulo explicita-se a investigação empírica realizada sobre a forma como a materialidade é entendida e utilizada pelas Sociedades de Revisores Oficiais de Contas (SROC) em Portugal. Terminamos com a conclusão do estudo, em que, para além das conclusões obtidas, se indicam os problemas e obstáculos encontrados ao longo do mesmo, bem como possibilidades de investigação futura.
Resumo:
Purpose – The aim of this article is to present some results from research undertaken into the information behaviour of European Documentation Centre (EDC) users. It will reflect on the practices of a group of 234 users of 55 EDCs covering 21 Member States of the European Union (EU), used to access European information. Design/methodology/approach – In order to collect the data presented here, five questionnaires were sent to users in all the EDCs in Finland, Ireland, Hungary and Portugal. In the remaining EU countries, five questionnaires were sent to two EDCs chosen at random. The questionnaires were sent by post, following telephone contact with the EDC managers. Findings – Factors determining access to information on the European Union and the frequency of this access are identified. The information providers most commonly used to access European information and the information sources considered the most reliable by respondents will also be analysed. Another area of analysis concerns the factors cited by respondents as facilitating access to information on Europe or, conversely, making it more difficult to access. Parallel to this, the aspects of accessing information on EU that are valued most by users will also be assessed. Research limitations/implications – Questionnaires had to be used, as the intention was to cover a very extensive geographical area. However, in opting for closed questions, it is acknowledged that standard responses have been obtained with no scope for capturing the individual circumstances of each respondent, thus making a qualitative approach difficult. Practical implications – The results provide an overall picture of certain aspects of the information behaviour of EDC users. They may serve as a starting point for planning training sessions designed to develop the skills required to search, access, evaluate and apply European information within an academic context. From a broader perspective, they also constitute factors which the European Commission should take into consideration when formulating its information and communication policy. Originality/value – This is the first piece of academic research into the EDCs and their users, which aimed to cover all Members State of the EU.
Resumo:
Dissertação de Mestrado apresentada ao Instituto Superior de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Marketing Digital, sob orientação de Mestre António da Silva Vieira
Resumo:
O texto aborda a mudança de base numérica, da base dez para a base dois, explicitando os conceitos base de compreensão em relação aos constituintes principais de uma base numérica.
Resumo:
OBJETIVO: Reconhecer as características e trajetória da Revista de Saúde Pública pela análise da produção científica por ela veiculada, no período de 1967-2005. MÉTODOS: Foram analisados por métodos cientométricos dados referenciais dos artigos publicados na Revista e recuperados nas bases de indexação do Institute for Scientific Information (ISI)/Thomson Scientific (Web of Science), National Library of Medicine (PubMed) e Scientific Eletronic Library Online (SciELO). RESULTADOS: A Revista, sendo a única na área da saúde pública no Brasil, indexada pela ISI/Thomson Scientific, destaca-se como veículo de divulgação da produção científica brasileira em saúde pública e exibe crescimento geométrico de publicações e citações, cujas taxas anuais são de 4,4% e 12,7%, respectivamente. O número de autores cresceu de uma média de cerca de dois por item publicado até 3,5 para os dias atuais. Embora os artigos originais de pesquisa predominem, nos últimos anos aumentou o número de revisões, estudos multicêntricos, ensaios clínicos e de validação; cresceu também o número de artigos publicados em língua estrangeira, com 13% do total, destacando-se a participação da Inglaterra, Estados Unidos, Argentina e México. Aumentou o número e diversidade de revistas que citam a Revista de Saúde Pública, com expressiva participação de revistas internacionais. A distribuição de autorias por autor da Revista ajusta-se muito bem à Lei de Lotka, mas seus parâmetros sugerem maior concentração e menor dispersão do que o esperado. Entre os temas de interesse dos itens publicados, doenças infecto-parasitárias e vetores, promoção, políticas, administração de saúde e epidemiologia, vigilância e controle de doenças responderam por mais de 50% do volume total. CONCLUSÕES: A Revista mostra grande dinamismo sem sinais que sugiram qualquer esgotamento ou estabilidade em futuro próximo. Há sinais de progressivo aumento de complexidade dos estudos publicados, bem como de maior multidisciplinaridade. A Revista parece alargar seu alcance e repercussão embora continue fiel aos temas de interesse da saúde pública do Brasil.
Resumo:
Knowledge is central to the modern economy and society. Indeed, the knowledge society has transformed the concept of knowledge and is more and more aware of the need to overcome the lack of knowledge when has to make options or address its problems and dilemmas. One’s knowledge is less based on exact facts and more on hypotheses, perceptions or indications. Even when we use new computational artefacts and novel methodologies for problem solving, like the use of Group Decision Support Systems (GDSSs), the question of incomplete information is in most of the situations marginalized. On the other hand, common sense tells us that when a decision is made it is impossible to have a perception of all the information involved and the nature of its intrinsic quality. Therefore, something has to be made in terms of the information available and the process of its evaluation. It is under this framework that a Multi-valued Extended Logic Programming language will be used for knowledge representation and reasoning, leading to a model that embodies the Quality-of-Information (QoI) and its quantification, along the several stages of the decision-making process. In this way, it is possible to provide a measure of the value of the QoI that supports the decision itself. This model will be here presented in the context of a GDSS for VirtualECare, a system aimed at sustaining online healthcare services.
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Video coding technologies have played a major role in the explosion of large market digital video applications and services. In this context, the very popular MPEG-x and H-26x video coding standards adopted a predictive coding paradigm, where complex encoders exploit the data redundancy and irrelevancy to 'control' much simpler decoders. This codec paradigm fits well applications and services such as digital television and video storage where the decoder complexity is critical, but does not match well the requirements of emerging applications such as visual sensor networks where the encoder complexity is more critical. The Slepian Wolf and Wyner-Ziv theorems brought the possibility to develop the so-called Wyner-Ziv video codecs, following a different coding paradigm where it is the task of the decoder, and not anymore of the encoder, to (fully or partly) exploit the video redundancy. Theoretically, Wyner-Ziv video coding does not incur in any compression performance penalty regarding the more traditional predictive coding paradigm (at least for certain conditions). In the context of Wyner-Ziv video codecs, the so-called side information, which is a decoder estimate of the original frame to code, plays a critical role in the overall compression performance. For this reason, much research effort has been invested in the past decade to develop increasingly more efficient side information creation methods. This paper has the main objective to review and evaluate the available side information methods after proposing a classification taxonomy to guide this review, allowing to achieve more solid conclusions and better identify the next relevant research challenges. After classifying the side information creation methods into four classes, notably guess, try, hint and learn, the review of the most important techniques in each class and the evaluation of some of them leads to the important conclusion that the side information creation methods provide better rate-distortion (RD) performance depending on the amount of temporal correlation in each video sequence. It became also clear that the best available Wyner-Ziv video coding solutions are almost systematically based on the learn approach. The best solutions are already able to systematically outperform the H.264/AVC Intra, and also the H.264/AVC zero-motion standard solutions for specific types of content. (C) 2013 Elsevier B.V. All rights reserved.
Resumo:
Mestrado em Engenharia Informática
Resumo:
Mestrado em Engenharia Informática
Resumo:
Mestrado em Engenharia Electrotécnica e de Computadores
Resumo:
Objetivos Os principais objetivos deste trabalho foram: 1) Rever as características da IC: epidemiologia, conceito, classificação, etiologia, fisiopatologia, diagnóstico e tratamento; 2) Demonstrar a importância da Ecocardiografia na IC: (a) no diagnóstico, (b) no acompanhamento e (c) na seleção da opção terapêutica. Como objetivo secundário: Reunir toda a informação com vista à produção de um manual de apoio às aulas. Metodologia Os estudos que serviram de base a este trabalho foram pesquisados a partir das palavras-chave “echocardiography”, “heart failure”, “diagnosis”, “treatment” utilizando as bases de dados PubMed, Scopus e ISI Web of Science. A pesquisa foi limitada a artigos publicados em português, inglês e espanhol, sem restrição por tipo de artigo ou ano de publicação. Ao longo da realização deste trabalho, foram sendo recolhidas referências de outros artigos citados nos estudos inicialmente selecionados, expandindo assim a bibliografia. Para conhecer a situação particular de Portugal, foram pesquisados estudos realizados com a população portuguesa. Foi dada particular atenção às várias recomendações existentes quer para a “Insuficiência Cardíaca” quer para a “Utilidade da Ecocardiografia”, disponíveis gratuitamente online, pois estas desempenham um papel fundamental quer na prática clínica, quer na investigação (estudos epidemiológicos, estudos obrigacionais e ensaios clínicos).
Resumo:
In distributed video coding, motion estimation is typically performed at the decoder to generate the side information, increasing the decoder complexity while providing low complexity encoding in comparison with predictive video coding. Motion estimation can be performed once to create the side information or several times to refine the side information quality along the decoding process. In this paper, motion estimation is performed at the decoder side to generate multiple side information hypotheses which are adaptively and dynamically combined, whenever additional decoded information is available. The proposed iterative side information creation algorithm is inspired in video denoising filters and requires some statistics of the virtual channel between each side information hypothesis and the original data. With the proposed denoising algorithm for side information creation, a RD performance gain up to 1.2 dB is obtained for the same bitrate.
Resumo:
Dissertação de Mestrado apresentado ao Instituto de Contabilidade e Administração do obtenção do grau de Mestre em Auditoria Auditoria, sob orientação de Adalmiro Álvaro Malheiro de Castro Andrade