97 resultados para RIGHT-CENSORED DATA
Resumo:
Data Mining (DM) methods are being increasingly used in prediction with time series data, in addition to traditional statistical approaches. This paper presents a literature review of the use of DM with time series data, focusing on short- time stocks prediction. This is an area that has been attracting a great deal of attention from researchers in the field. The main contribution of this paper is to provide an outline of the use of DM with time series data, using mainly examples related with short-term stocks prediction. This is important to a better understanding of the field. Some of the main trends and open issues will also be introduced.
Resumo:
The increasing number of television channels, on-demand services and online content, is expected to contribute to a better quality of experience for a costumer of such a service. However, the lack of efficient methods for finding the right content, adapted to personal interests, may lead to a progressive loss of clients. In such a scenario, recommendation systems are seen as a tool that can fill this gap and contribute to the loyalty of users. Multimedia content, namely films and television programmes are usually described using a set of metadata elements that include the title, a genre, the date of production, and the list of directors and actors. This paper provides a deep study on how the use of different metadata elements can contribute to increase the quality of the recommendations suggested. The analysis is conducted using Netflix and Movielens datasets and aspects such as the granularity of the descriptions, the accuracy metric used and the sparsity of the data are taken into account. Comparisons with collaborative approaches are also presented.
Resumo:
New arguments proving that successive (repeated) measurements have a memory and actually remember each other are presented. The recognition of this peculiarity can change essentially the existing paradigm associated with conventional observation in behavior of different complex systems and lead towards the application of an intermediate model (IM). This IM can provide a very accurate fit of the measured data in terms of the Prony's decomposition. This decomposition, in turn, contains a small set of the fitting parameters relatively to the number of initial data points and allows comparing the measured data in cases where the “best fit” model based on some specific physical principles is absent. As an example, we consider two X-ray diffractometers (defined in paper as A- (“cheap”) and B- (“expensive”) that are used after their proper calibration for the measuring of the same substance (corundum a-Al2O3). The amplitude-frequency response (AFR) obtained in the frame of the Prony's decomposition can be used for comparison of the spectra recorded from (A) and (B) - X-ray diffractometers (XRDs) for calibration and other practical purposes. We prove also that the Fourier decomposition can be adapted to “ideal” experiment without memory while the Prony's decomposition corresponds to real measurement and can be fitted in the frame of the IM in this case. New statistical parameters describing the properties of experimental equipment (irrespective to their internal “filling”) are found. The suggested approach is rather general and can be used for calibration and comparison of different complex dynamical systems in practical purposes.
Resumo:
O crescimento dos sistemas de informação e a sua utilização massiva criou uma nova realidade no acesso a experiências remotas que se encontram geograficamente distribuídas. Nestes últimos tempos, a temática dos laboratórios remotos apareceu nos mais diversos campos como o do ensino ou o de sistemas industriais de controlo e monitorização. Como o acesso aos laboratórios é efectuado através de um meio permissivo como é o caso da Internet, a informação pode estar à mercê de qualquer atacante. Assim, é necessário garantir a segurança do acesso, de forma a criar condições para que não se verifique a adulteração dos valores obtidos, bem como a existência de acessos não permitidos. Os mecanismos de segurança adoptados devem ter em consideração a necessidade de autenticação e autorização, sendo estes pontos críticos no que respeita à segurança, pois estes laboratórios podem estar a controlar equipamentos sensíveis e dispendiosos, podendo até eventualmente comprometer em certos casos o controlo e a monotorização de sistemas industriais. Este trabalho teve como objectivo a análise da segurança em redes, tendo sido realizado um estudo sobre os vários conceitos e mecanismos de segurança necessários para garantir a segurança nas comunicações entre laboratórios remotos. Dele resultam as três soluções apresentadas de comunicação segura para laboratórios remotos distribuídos geograficamente, recorrendo às tecnologias IPSec, OpenVPN e PPTP. De forma a minimizar custos, toda a implementação foi assente em software de código aberto e na utilização de um computador de baixo custo. No que respeita à criação das VPNs, estas foram configuradas de modo a permitir obter os resultados pretendidos na criação de uma ligação segura para laboratórios remotos. O pfSense mostrou-se a escolha acertada visto que suporta nativamente quaisquer das tecnologias que foram estudadas e implementadas, sem necessidade de usar recursos físicos muito caros, permitindo o uso de tecnologias de código aberto sem comprometer a segurança no funcionamento das soluções que suportam a segurança nas comunicações dos laboratórios remotos.
Resumo:
Cloud data centers have been progressively adopted in different scenarios, as reflected in the execution of heterogeneous applications with diverse workloads and diverse quality of service (QoS) requirements. Virtual machine (VM) technology eases resource management in physical servers and helps cloud providers achieve goals such as optimization of energy consumption. However, the performance of an application running inside a VM is not guaranteed due to the interference among co-hosted workloads sharing the same physical resources. Moreover, the different types of co-hosted applications with diverse QoS requirements as well as the dynamic behavior of the cloud makes efficient provisioning of resources even more difficult and a challenging problem in cloud data centers. In this paper, we address the problem of resource allocation within a data center that runs different types of application workloads, particularly CPU- and network-intensive applications. To address these challenges, we propose an interference- and power-aware management mechanism that combines a performance deviation estimator and a scheduling algorithm to guide the resource allocation in virtualized environments. We conduct simulations by injecting synthetic workloads whose characteristics follow the last version of the Google Cloud tracelogs. The results indicate that our performance-enforcing strategy is able to fulfill contracted SLAs of real-world environments while reducing energy costs by as much as 21%.
Resumo:
A tecnologia está em constante evolução e os benefícios, em diversas áreas, que ela nos traz são imensos. Uma das áreas que tem vindo a usufruir desta evolução é a medicina. Os avanços na tecnologia médica têm permitido aos médicos diagnosticar e tratar melhor os seus pacientes. O seu objetivo não é substituir o médico mas sim aconselhá-los e ajudá-los a tomar a melhor decisão face ao caso clínico que possam ter em mãos. Os sistemas de informação estão já tão “entrelaçados” com as práticas médicas que a ideia de uma instituição de prestação de cuidados médicos não os possuir é impensável. Isto porque a informação que estes sistemas processam diariamente é imensa e variadíssima (indo desde relatórios clínicos, a exames efetuados entre outros) para cada utente. As doenças orais fazem parte do grupo de patologias que afetam o maior número de pessoas no mundo. As ações preventivas para estes sintomas devem fazer parte da higiene diária dos indivíduos logo desde os primeiros anos de vida. Assim a aplicação apresentada nesta tese teve como objetivo a sensibilização para uma prática de higiene oral cuidada e constante. Teve também como objetivo a implementação de funcionalidades para gestão de dados dos pacientes da clínica, nomeadamente para o histórico clínico, ficando este armazenado numa anamnese. Para a implementação do presente projeto procedeu-se a um estudo prévio do estado da arte e ao levantamento de requisitos. Estes foram definidos através de reuniões de trabalho onde se analisou as necessidades da clínica com o objetivo de encontrar as soluções que melhor se enquadravam a cada caso. Para garantir que as metas propostas foram alcançadas, foram realizados inquéritos verificando assim o sucesso da aplicação.
Resumo:
Um Sistema de Informação consiste num sistema capaz de armazenar, organizar e estruturar dados para ajudar a responder às necessidades das empresas, passando também pela capacidade de resposta às questões diárias das empresas. Assim, um Sistema de Informação pode ser definido como o software que ajuda a organizar e analisar dados, tendo como objetivo fornecer informação útil na altura certa para que possa ser utilizada para a tomada de decisões ou para uma gestão mais eficiente dos diversos fluxos que uma empresa pode conter. Neste sentido, o projeto apresentado centra-se no desenho e construção de um Sistema de Informação capaz de gerir o negócio de uma empresa do setor alimentar, mais propriamente do setor da transformação de carnes. Foi desenvolvido em Oracle ADF, de forma a aproveitar as vantagens inerentes à tecnologia e ao desenvolvimento web. Sendo uma tecnologia relativamente nova no mercado e dominada por poucos, a sua utilização neste momento pode tornar-se uma grande vantagem. Para o desenvolvimento da aplicação foi realizado o levantamento e análise de requisitos, foi criada a base de dados capaz de suportar o funcionamento do software e desenvolvido um sistema de login, capaz de gerir as sessões de cada utilizador. Foi implementado um processo de introdução e edição de informação, nomeadamente o registo de entradas, transformações e saídas. Contemplou-se também uma secção com dados mestre da empresa com a possibilidade de inserção, atualização e/ou remoção. Além disso, foram incorporadas validações em todos os processos que são usados pelos utilizadores, de modo a evitar a existência de dados incoerentes ou duplicados. Relativamente à lógica de negócio, foi embutida na aplicação de forma a permitir consultar a informação de forma clara, rápida e em diversos lugares, reduzindo tempo e tarefas ao colaborador/utilizador, visto que os processos foram automatizados. Com a implementação deste Sistema de Informação, a empresa pode usufruir de um sistema integrado capaz de gerir e controlar todo o seu processo produtivo, reduzindo custos e desperdícios, aumentando a produtividade e eficiência.