94 resultados para Information Discovery Paradigm,
Resumo:
he expansion of Digital Television and the convergence between conventional broadcasting and television over IP contributed to the gradual increase of the number of available channels and on demand video content. Moreover, the dissemination of the use of mobile devices like laptops, smartphones and tablets on everyday activities resulted in a shift of the traditional television viewing paradigm from the couch to everywhere, anytime from any device. Although this new scenario enables a great improvement in viewing experiences, it also brings new challenges given the overload of information that the viewer faces. Recommendation systems stand out as a possible solution to help a watcher on the selection of the content that best fits his/her preferences. This paper describes a web based system that helps the user navigating on broadcasted and online television content by implementing recommendations based on collaborative and content based filtering. The algorithms developed estimate the similarity between items and users and predict the rating that a user would assign to a particular item (television program, movie, etc.). To enable interoperability between different systems, programs characteristics (title, genre, actors, etc.) are stored according to the TV-Anytime standard. The set of recommendations produced are presented through a Web Application that allows the user to interact with the system based on the obtained recommendations.
Resumo:
Background Gastric cancer remains a serious health concern worldwide. Patients would greatly benefit from the discovery of new biomarkers that predict outcome more accurately and allow better treatment and follow-up decisions. Here, we used a retrospective, observational study to assess the expression and prognostic value of the transcription factors SOX2 and CDX2 in gastric cancer. Methods SOX2, CDX2, MUC5AC and MUC2 expression were assessed in 201 gastric tumors by immunohistochemistry. SOX2 and CDX2 expression were crossed with clinicopathological and follow-up data to determine their impact on tumor behavior and outcome. Moreover, SOX2 locus copy number status was assessed by FISH (N = 21) and Copy Number Variation Assay (N = 62). Results SOX2 was expressed in 52% of the gastric tumors and was significantly associated with male gender, T stage and N stage. Moreover, SOX2 expression predicted poorer patient survival, and the combination with CDX2 defined two molecular phenotypes, SOX2+CDX2- versus SOX2-CDX2+, that predict the worst and the best long-term patients’ outcome. These profiles combined with clinicopathological parameters stratify the prognosis of patients with intestinal and expanding tumors and in those without signs of venous invasion. Finally, SOX2 locus copy number gains were found in 93% of the samples reaching the amplification threshold in 14% and significantly associating with protein expression. Conclusions We showed, for the first time, that SOX2 combined with CDX2 expression profile in gastric cancer segregate patients into different prognostic groups, complementing the clinicopathological information. We further demonstrate a molecular mechanism for SOX2 expression in a subset of gastric cancer cases.
Resumo:
In today’s healthcare paradigm, optimal sedation during anesthesia plays an important role both in patient welfare and in the socio-economic context. For the closed-loop control of general anesthesia, two drugs have proven to have stable, rapid onset times: propofol and remifentanil. These drugs are related to their effect in the bispectral index, a measure of EEG signal. In this paper wavelet time–frequency analysis is used to extract useful information from the clinical signals, since they are time-varying and mark important changes in patient’s response to drug dose. Model based predictive control algorithms are employed to regulate the depth of sedation by manipulating these two drugs. The results of identification from real data and the simulation of the closed loop control performance suggest that the proposed approach can bring an improvement of 9% in overall robustness and may be suitable for clinical practice.
Resumo:
This paper formulates a novel expression for entropy inspired in the properties of Fractional Calculus. The characteristics of the generalized fractional entropy are tested both in standard probability distributions and real world data series. The results reveal that tuning the fractional order allow an high sensitivity to the signal evolution, which is useful in describing the dynamics of complex systems. The concepts are also extended to relative distances and tested with several sets of data, confirming the goodness of the generalization.
Resumo:
Nowadays the incredible grow of mobile devices market led to the need for location-aware applications. However, sometimes person location is difficult to obtain, since most of these devices only have a GPS (Global Positioning System) chip to retrieve location. In order to suppress this limitation and to provide location everywhere (even where a structured environment doesn’t exist) a wearable inertial navigation system is proposed, which is a convenient way to track people in situations where other localization systems fail. The system combines pedestrian dead reckoning with GPS, using widely available, low-cost and low-power hardware components. The system innovation is the information fusion and the use of probabilistic methods to learn persons gait behavior to correct, in real-time, the drift errors given by the sensors.
Resumo:
Nowadays there is an increase of location-aware mobile applications. However, these applications only retrieve location with a mobile device's GPS chip. This means that in indoor or in more dense environments these applications don't work properly. To provide location information everywhere a pedestrian Inertial Navigation System (INS) is typically used, but these systems can have a large estimation error since, in order to turn the system wearable, they use low-cost and low-power sensors. In this work a pedestrian INS is proposed, where force sensors were included to combine with the accelerometer data in order to have a better detection of the stance phase of the human gait cycle, which leads to improvements in location estimation. Besides sensor fusion an information fusion architecture is proposed, based on the information from GPS and several inertial units placed on the pedestrian body, that will be used to learn the pedestrian gait behavior to correct, in real-time, the inertial sensors errors, thus improving location estimation.
Resumo:
Engenharia Informática, Área de Especialização em Arquiteturas, Sistemas e Redes
Resumo:
The choice of an information systems is a critical factor of success in an organization's performance, since, by involving multiple decision-makers, with often conflicting objectives, several alternatives with aggressive marketing, makes it particularly complex by the scope of a consensus. The main objective of this work is to make the analysis and selection of a information system to support the school management, pedagogical and administrative components, using a multicriteria decision aid system – MMASSITI – Multicriteria Method- ology to Support the Selection of Information Systems/Information Technologies – integrates a multicriteria model that seeks to provide a systematic approach in the process of choice of Information Systems, able to produce sustained recommendations concerning the decision scope. Its application to a case study has identi- fied the relevant factors in the selection process of school educational and management information system and get a solution that allows the decision maker’ to compare the quality of the various alternatives.
Resumo:
The main objective of this work is to report on the development of a multi-criteria methodology to support the assessment and selection of an Information System (IS) framework in a business context. The objective is to select a technological partner that provides the engine to be the basis for the development of a customized application for shrinkage reduction on the supply chains management. Furthermore, the proposed methodology di ers from most of the ones previously proposed in the sense that 1) it provides the decision makers with a set of pre-defined criteria along with their description and suggestions on how to measure them and 2)it uses a continuous scale with two reference levels and thus no normalization of the valuations is required. The methodology here proposed is has been designed to be easy to understand and use, without a specific support of a decision making analyst.
Resumo:
Na atualidade, existe uma quantidade de dados criados diariamente que ultrapassam em muito as mais otimistas espectativas estabelecidas na década anterior. Estes dados têm origens bastante diversas e apresentam-se sobre várias formas. Este novo conceito que dá pelo nome de Big Data está a colocar novos e rebuscados desafios ao seu armazenamento, tratamento e manipulação. Os tradicionais sistemas de armazenamento não se apresentam como a solução indicada para este problema. Estes desafios são alguns dos mais analisados e dissertados temas informáticos do momento. Várias tecnologias têm emergido com esta nova era, das quais se salienta um novo paradigma de armazenamento, o movimento NoSQL. Esta nova filosofia de armazenamento visa responder às necessidades de armazenamento e processamento destes volumosos e heterogéneos dados. Os armazéns de dados são um dos componentes mais importantes do âmbito Business Intelligence e são, maioritariamente, utilizados como uma ferramenta de apoio aos processos de tomada decisão, levados a cabo no dia-a-dia de uma organização. A sua componente histórica implica que grandes volumes de dados sejam armazenados, tratados e analisados tendo por base os seus repositórios. Algumas organizações começam a ter problemas para gerir e armazenar estes grandes volumes de informação. Esse facto deve-se, em grande parte, à estrutura de armazenamento que lhes serve de base. Os sistemas de gestão de bases de dados relacionais são, há algumas décadas, considerados como o método primordial de armazenamento de informação num armazém de dados. De facto, estes sistemas começam a não se mostrar capazes de armazenar e gerir os dados operacionais das organizações, sendo consequentemente cada vez menos recomendada a sua utilização em armazéns de dados. É intrinsecamente interessante o pensamento de que as bases de dados relacionais começam a perder a luta contra o volume de dados, numa altura em que um novo paradigma de armazenamento surge, exatamente com o intuito de dominar o grande volume inerente aos dados Big Data. Ainda é mais interessante o pensamento de que, possivelmente, estes novos sistemas NoSQL podem trazer vantagens para o mundo dos armazéns de dados. Assim, neste trabalho de mestrado, irá ser estudada a viabilidade e as implicações da adoção de bases de dados NoSQL, no contexto de armazéns de dados, em comparação com a abordagem tradicional, implementada sobre sistemas relacionais. Para alcançar esta tarefa, vários estudos foram operados tendo por base o sistema relacional SQL Server 2014 e os sistemas NoSQL, MongoDB e Cassandra. Várias etapas do processo de desenho e implementação de um armazém de dados foram comparadas entre os três sistemas, sendo que três armazéns de dados distintos foram criados tendo por base cada um dos sistemas. Toda a investigação realizada neste trabalho culmina no confronto da performance de consultas, realizadas nos três sistemas.
Resumo:
Os consumidores finais são vistos, no novo paradigma da operação das redes elétricas, como intervenientes ativos com capacidade para gerir os seus recursos energéticos, nomeadamente as cargas, as unidades de produção, os veículos elétricos e a participação em eventos de Demand Response. Tem sido evidente um aumento do consumo de energia, sendo que o setor residencial representa uma importante parte do consumo global dos países desenvolvidos. Para que a participação ativa dos consumidores seja possível, várias abordagens têm vindo a ser propostas, com ênfase nas Smart Grids e nas Microgrids. Diversos sistemas têm sido propostos e desenvolvidos com o intuito de tornar a operação dos sistemas elétricos mais flexível. Neste contexto, os sistemas de gestão de instalações domésticas apresentam-se como um elemento fulcral para a participação ativa dos consumidores na gestão energética, permitindo aos operadores de sistema coordenarem a produção mas também a procura. No entanto, é importante identificar as vantagens da implementação e uso de sistemas de gestão de energia elétrica para os consumidores finais. Nesta dissertação são propostas metodologias de apoio ao consumidor doméstico na gestão dos recursos energéticos existentes e a implementação das mesmas na plataforma de simulação de um sistema de gestão de energia desenvolvido para consumidores domésticos, o SCADA House Intelligent Management (SHIM). Para tal, foi desenvolvida uma interface que permite a simulação em laboratório do sistema de gestão desenvolvido. Adicionalmente, o SHIM foi incluído no simulador Multi-Agent Smart Grid Simulation Plataform (MASGriP) permitindo a simulação de cenários considerando diferentes agentes. Ao nível das metodologias desenvolvidas são propostos diferentes algoritmos de gestão dos recursos energéticos existentes numa habitação, considerando utilizadores com diferentes tipos de recursos (cargas; cargas e veículos elétricos; cargas, veículos elétricos e microgeração). Adicionalmente é proposto um método de gestão dinâmica das cargas para eventos de Demand Response de longa duração, considerando as características técnicas dos equipamentos. Nesta dissertação são apresentados cinco casos de estudos em que cada um deles tem diferentes cenários de simulação. Estes casos de estudos são importantes para verificar a viabilidade da implementação das metodologias propostas para o SHIM. Adicionalmente são apresentados na dissertação perfis reais dos vários recursos energéticos e de consumidores domésticos que são, posteriormente, utilizados para o desenvolvimento dos casos de estudo e aplicação das metodologias.
Resumo:
A Internet, conforme a conhecemos, foi projetada com base na pilha de protocolos TCP/IP, que foi desenvolvida nos anos 60 e 70 utilizando um paradigma centrado nos endereços individuais de cada máquina (denominado host-centric). Este paradigma foi extremamente bem-sucedido em interligar máquinas através de encaminhamento baseado no endereço IP. Estudos recentes demonstram que, parte significativa do tráfego atual da Internet centra-se na transferência de conteúdos, em vez das tradicionais aplicações de rede, conforme foi originalmente concebido. Surgiram então novos modelos de comunicação, entre eles, protocolos de rede ponto-a-ponto, onde cada máquina da rede pode efetuar distribuição de conteúdo (denominadas de redes peer-to-peer), para melhorar a distribuição e a troca de conteúdos na Internet. Por conseguinte, nos últimos anos o paradigma host-centric começou a ser posto em causa e apareceu uma nova abordagem de Redes Centradas na Informação (ICN - information-centric networking). Tendo em conta que a Internet, hoje em dia, basicamente é uma rede de transferência de conteúdos e informações, porque não centrar a sua evolução neste sentido, ao invés de comunicações host-to-host? O paradigma de Rede Centrada no Conteúdo (CCN - Content Centric Networking) simplifica a solução de determinados problemas de segurança relacionados com a arquitetura TCP/IP e é uma das principais propostas da nova abordagem de Redes Centradas na Informação. Um dos principais problemas do modelo TCP/IP é a proteção do conteúdo. Atualmente, para garantirmos a autenticidade e a integridade dos dados partilhados na rede, é necessário garantir a segurança do repositório e do caminho que os dados devem percorrer até ao seu destino final. No entanto, a contínua ineficácia perante os ataques de negação de serviço praticados na Internet, sugere a necessidade de que seja a própria infraestrutura da rede a fornecer mecanismos para os mitigar. Um dos principais pilares do paradigma de comunicação da CCN é focalizar-se no próprio conteúdo e não na sua localização física. Desde o seu aparecimento em 2009 e como consequência da evolução e adaptação a sua designação mudou atualmente para Redes de Conteúdos com Nome (NNC – Named Network Content). Nesta dissertação, efetuaremos um estudo de uma visão geral da arquitetura CCN, apresentando as suas principais características, quais os componentes que a compõem e como os seus mecanismos mitigam os tradicionais problemas de comunicação e de segurança. Serão efetuadas experiências com o CCNx, que é um protótipo composto por um conjunto de funcionalidades e ferramentas, que possibilitam a implementação deste paradigma. O objetivo é analisar criticamente algumas das propostas existentes, determinar oportunidades, desafios e perspectivas para investigação futura.
Topics regarding access to european information institutions: European Union so close and yet so far
Resumo:
From the 1990s, the Parliament, the Council and the European Commission adopted a new approach to disclosure of their working papers. Legal instruments to regulate and allow a fairly broad access to internal working documents of these institutions were created. European institutions also exploited the potential of Information and Communication Technologies, developing new instruments to register the documents produced and make them accessible to the public. The commitment to transparency sought to shows a more credible European government, and reduces the democratic deficit. However, the data analysis regarding access to EU institutions documents shows that general public is still far from direct contact with European bodies.
Resumo:
The aim of this paper is the assessment of information literacy skills related to European topics, among a group of 234 users of 55 European Documentation Centres (EDCs), from 21 European Union Member- States. We will present the results of a survey European information. So we will analyse the answers given by the users of the EDCs relating to aspects like the best sources to access trustworthy and impartial Europe information. The factors determining access to information on the EU and the frequency of this access will equally be analysed. The reasons the users gave for the ease or difficulty in accessing European information are also included and pondered on. Parallel to this, we will evaluate the aspects most valued by the users of this kind of information. Our findings on the use of European information available on the Internet, especially the knowledge and making use of databases will be presented. Based on this analysis the paper will demonstrate the need to develop information literacy competencies to identify, use and access European information. Doing so, some potential components of information literacy skills adapted to European information will be introduced.
Resumo:
This paper focuses on the Portuguese results from an international survey on LIS students’ information literacy skills. The results’ analysis will be grounded on a literature review on the criteria application to evaluate information and determine the credibility by undergraduate students. The guidelines for the information evaluation, especially regarding credibility aspect, on three main information literacy frameworks will be presented. After an overall presentation of the main results, the analysis of the Portuguese survey results will focus on issues related to information evaluation skills, namely on criteria to assess information credibility and on difficulties to apply them.