128 resultados para Data Standards
Resumo:
Complex industrial plants exhibit multiple interactions among smaller parts and with human operators. Failure in one part can propagate across subsystem boundaries causing a serious disaster. This paper analyzes the industrial accident data series in the perspective of dynamical systems. First, we process real world data and show that the statistics of the number of fatalities reveal features that are well described by power law (PL) distributions. For early years, the data reveal double PL behavior, while, for more recent time periods, a single PL fits better into the experimental data. Second, we analyze the entropy of the data series statistics over time. Third, we use the Kullback–Leibler divergence to compare the empirical data and multidimensional scaling (MDS) techniques for data analysis and visualization. Entropy-based analysis is adopted to assess complexity, having the advantage of yielding a single parameter to express relationships between the data. The classical and the generalized (fractional) entropy and Kullback–Leibler divergence are used. The generalized measures allow a clear identification of patterns embedded in the data.
Resumo:
Currently, due to the widespread use of computers and the internet, students are trading libraries for the World Wide Web and laboratories with simulation programs. In most courses, simulators are made available to students and can be used to proof theoretical results or to test a developing hardware/product. Although this is an interesting solution: low cost, easy and fast way to perform some courses work, it has indeed major disadvantages. As everything is currently being done with/in a computer, the students are loosing the “feel” of the real values of the magnitudes. For instance in engineering studies, and mainly in the first years, students need to learn electronics, algorithmic, mathematics and physics. All of these areas can use numerical analysis software, simulation software or spreadsheets and in the majority of the cases data used is either simulated or random numbers, but real data could be used instead. For example, if a course uses numerical analysis software and needs a dataset, the students can learn to manipulate arrays. Also, when using the spreadsheets to build graphics, instead of using a random table, students could use a real dataset based, for instance, in the room temperature and its variation across the day. In this work we present a framework which uses a simple interface allowing it to be used by different courses where the computers are the teaching/learning process in order to give a more realistic feeling to students by using real data. A framework is proposed based on a set of low cost sensors for different physical magnitudes, e.g. temperature, light, wind speed, which are connected to a central server, that the students have access with an Ethernet protocol or are connected directly to the student computer/laptop. These sensors use the communication ports available such as: serial ports, parallel ports, Ethernet or Universal Serial Bus (USB). Since a central server is used, the students are encouraged to use sensor values results in their different courses and consequently in different types of software such as: numerical analysis tools, spreadsheets or simply inside any programming language when a dataset is needed. In order to do this, small pieces of hardware were developed containing at least one sensor using different types of computer communication. As long as the sensors are attached in a server connected to the internet, these tools can also be shared between different schools. This allows sensors that aren't available in a determined school to be used by getting the values from other places that are sharing them. Another remark is that students in the more advanced years and (theoretically) more know how, can use the courses that have some affinities with electronic development to build new sensor pieces and expand the framework further. The final solution provided is very interesting, low cost, simple to develop, allowing flexibility of resources by using the same materials in several courses bringing real world data into the students computer works.
Resumo:
Demo in Workshop on ns-3 (WNS3 2015). 13 to 14, May, 2015. Castelldefels, Spain.
Resumo:
Data Mining (DM) methods are being increasingly used in prediction with time series data, in addition to traditional statistical approaches. This paper presents a literature review of the use of DM with time series data, focusing on short- time stocks prediction. This is an area that has been attracting a great deal of attention from researchers in the field. The main contribution of this paper is to provide an outline of the use of DM with time series data, using mainly examples related with short-term stocks prediction. This is important to a better understanding of the field. Some of the main trends and open issues will also be introduced.
Resumo:
O e-mail é atualmente a principal forma de comunicação das organizações. A informação existente nos e-mails representa uma elevada dimensão do capital não tangível das empresas, o Conhecimento. Na realidade, a gestão do e-mail dentro da organização é realizada por cada colaborador individualmente. Contudo, e tendo em conta o volume de informação criada, a forma como o e-mail é gerido levanta algumas questões. O objetivo geral deste estudo é conhecer como é feita a gestão de e-mail nos Serviços do Instituto Politécnico de Viana do Castelo (IPVC), analisando a forma de utilização do e-mail, de modo a obter elementos que permitam desenvolver normas/orientações para melhoria desta gestão. A metodologia utilizada para a elaboração deste trabalho de investigação recaiu sobre o Método Quadripolar, através do estudo de caso, para analisar a gestão do e-mail nos Serviços do IPVC. Foi elaborado um inquérito por questionário numa primeira fase, dirigido a todas as Instituições Públicas de Ensino Superior em Portugal sobre a existência de politicas de gestão de e-mail e, posteriormente, um questionário dirigido a todos os funcionários de todos os Serviços do IPVC no sentido de perceber de que forma se lida com o e-mail e com a sua gestão no contexto laboral de uma organização. A análise de dados foi efetuada através do estabelecimento da relação/associação entre variáveis com recurso à estatística descritiva. Os resultados demonstram que ainda há um longo caminho a percorrer uma vez que ainda não há uma consciencialização permanente para a importância do e-mail, bem como da sua gestão, no sentido de conseguir recuperar a informação de uma forma célere e garantir a preservação do e-mail a longo prazo.
Resumo:
A cidade do Porto é uma das regiões do país onde é importante uma gestão sustentável e integrada dos recursos hídricos. A (re) utilização de água surge neste contexto como uma possível resposta na sua utilização como um recurso hídrico passível de ser usado beneficamente, permitindo a poupança de fontes de água convencionais e aumentando a disponibilidade dos recursos hídricos existentes para finalidades que requerem padrões de qualidade mais exigentes. O potencial desta prática no nosso país é enorme, considerando que o volume de água tratada descarregada no ano 2000 era suficiente para suprir 10% das necessidades em água para rega num ano seco, sem necessidade de armazenamento sazonal. Por outro lado, um sistema de rega, quando devidamente projetado e funcionando adequadamente, permite que a água seja aplicada com um caudal, duração e frequência que maximizam o consumo da água e nutrientes pela planta. Este projeto consiste no desenvolvimento de um Sistema de Gestão Técnica para o controlo do sistema de rega dos jardins do ISEP – Instituto Politécnico de Engenharia do Porto com recurso a um autómato programável (PLC). Pretende-se otimizar os consumos energéticos do sistema de rega tendo em conta os parâmetros de humidade, temperatura e velocidade do vento característicos do local a regar. Outros dos objetivos é controlar o processo de enchimento e de rega. Esta operação consiste no controlo das bombas e respetivos débitos e conhecimento dos caudais necessários. Pretende-se, igualmente, definir e colocar em marcha todo o equipamento necessário para a realização do projeto. Os dados coletados devem ser tratados de tal modo que possam ser realizadas análises diárias, mensais e/ou anuais. Neste trabalho foram efetuados os cálculos de dimensionamentos relativamente às necessidades hídricas da planta e necessidades de rega, entre outros.
Resumo:
The world is increasingly in a global community. The rapid technological development of communication and information technologies allows the transmission of knowledge in real-time. In this context, it is imperative that the most developed countries are able to develop their own strategies to stimulate the industrial sector to keep up-to-date and being competitive in a dynamic and volatile global market so as to maintain its competitive capacities and by consequence, permits the maintenance of a pacific social state to meet the human and social needs of the nation. The path traced of competitiveness through technological differentiation in industrialization allows a wider and innovative field of research. Already we are facing a new phase of organization and industrial technology that begins to change the way we relate with the industry, society and the human interaction in the world of work in current standards. This Thesis, develop an analysis of Industrie 4.0 Framework, Challenges and Perspectives. Also, an analysis of German reality in facing to approach the future challenge in this theme, the competition expected to win in future global markets, points of domestic concerns felt in its industrial fabric household face this challenge and proposes recommendations for a more effective implementation of its own strategy. The methods of research consisted of a comprehensive review and strategically analysis of existing global literature on the topic, either directly or indirectly, in parallel with the analysis of questionnaires and data analysis performed by entities representing the industry at national and world global placement. The results found by this multilevel analysis, allowed concluding that this is a theme that is only in the beginning for construction the platform to engage the future Internet of Things in the industrial environment Industrie 4.0. This dissertation allows stimulate the need of achievements of more strategically and operational approach within the society itself as a whole to clarify the existing weaknesses in this area, so that the National Strategy can be implemented with effective approaches and planned actions for a direct training plan in a more efficiently path in education for the theme.
Resumo:
A cidade do Porto é uma das regiões do país onde é importante uma gestão sustentável e integrada dos recursos hídricos. A (re) utilização de água surge neste contexto como uma possível resposta na sua utilização como um recurso hídrico passível de ser usado beneficamente, permitindo a poupança de fontes de água convencionais e aumentando a disponibilidade dos recursos hídricos existentes para finalidades que requerem padrões de qualidade mais exigentes. O potencial desta prática no nosso país é enorme, considerando que o volume de água tratada descarregada no ano 2000 era suficiente para suprir 10% das necessidades em água para rega num ano seco, sem necessidade de armazenamento sazonal. Por outro lado, um sistema de rega, quando devidamente projetado e funcionando adequadamente, permite que a água seja aplicada com um caudal, duração e frequência que maximizam o consumo da água e nutrientes pela planta. Este projeto consiste no desenvolvimento de um Sistema de Gestão Técnica para o controlo do sistema de rega dos jardins do ISEP – Instituto Politécnico de Engenharia do Porto com recurso a um autómato programável (PLC). Pretende-se otimizar os consumos energéticos do sistema de rega tendo em conta os parâmetros de humidade, temperatura e velocidade do vento característicos do local a regar. Outros dos objetivos é controlar o processo de enchimento e de rega. Esta operação consiste no controlo das bombas e respetivos débitos e conhecimento dos caudais necessários. Pretende-se, igualmente, definir e colocar em marcha todo o equipamento necessário para a realização do projeto. Os dados coletados devem ser tratados de tal modo que possam ser realizadas análises diárias, mensais e/ou anuais. Neste trabalho foram efetuados os cálculos de dimensionamentos relativamente às necessidades hídricas da planta e necessidades de rega, entre outros.
Resumo:
In order to increase the efficiency in the use of energy resources, the electrical grid is slowly evolving into a smart(er) grid that allows users' production and storage of energy, automatic and remote control of appliances, energy exchange between users, and in general optimizations over how the energy is managed and consumed. One of the main innovations of the smart grid is its organization over an energy plane that involves the actual exchange of energy, and a data plane that regards the Information and Communication Technology (ICT) infrastructure used for the management of the grid's data. In the particular case of the data plane, the exchange of large quantities of data can be facilitated by a middleware based on a messaging bus. Existing messaging buses follow different data management paradigms (e.g.: request/response, publish/subscribe, data-oriented messaging) and thus satisfy smart grids' communication requirements at different extents. This work contributes to the state of the art by identifying, in existing standards and architectures, common requirements that impact in the messaging system of a data plane for the smart grid. The paper analyzes existing messaging bus paradigms that can be used as a basis for the ICT infrastructure of a smart grid and discusses how these can satisfy smart grids' requirements.
Resumo:
The 6loWPAN (the light version of IPv6) and RPL (routing protocol for low-power and lossy links) protocols have become de facto standards for the Internet of Things (IoT). In this paper, we show that the two native algorithms that handle changes in network topology – the Trickle and Neighbor Discovery algorithms – behave in a reactive fashion and thus are not prepared for the dynamics inherent to nodes mobility. Many emerging and upcoming IoT application scenarios are expected to impose real-time and reliable mobile data collection, which are not compatible with the long message latency, high packet loss and high overhead exhibited by the native RPL/6loWPAN protocols. To solve this problem, we integrate a proactive hand-off mechanism (dubbed smart-HOP) within RPL, which is very simple, effective and backward compatible with the standard protocol. We show that this add-on halves the packet loss and reduces the hand-off delay dramatically to one tenth of a second, upon nodes’ mobility, with a sub-percent overhead. The smart-HOP algorithm has been implemented and integrated in the Contiki 6LoWPAN/RPL stack (source-code available on-line mrpl: smart-hop within rpl, 2014) and validated through extensive simulation and experimentation.
Resumo:
No âmbito duma investigação que cruza a área científica da Ciência da Informação com a Educação, elegendo como objeto de estudo a Literacia da Informação (LI), selecionaram-se um conjunto de competências de LI, reconhecidas como mais importantes e mencionadas em vasta literatura sobre o tema, com destaque para alguns Referenciais internacionais. Pretende-se averiguar qual o papel da formação ministrada em diferentes licenciaturas de uma escola de ensino superior politécnico e refletir sobre que competências são mais desenvolvidas nos estudantes de diferentes cursos, comparando aqueles que iniciam e os que terminam a sua formação. Para além dos estudantes, destaca-se, neste estudo, a intervenção dos professores das referidas licenciaturas, ambos os grupos inquiridos através de questionários online. Também os elementos responsáveis pela coordenação dos oito cursos de primeiro ciclo em análise e a bibliotecária da instituição são envolvidos, neste caso, através de entrevistas semidirigidas, contribuindo para uma investigação que se pretende o mais completa possível e com a robustez decorrente do cruzamento de vários dados. Recorrendo a uma abordagem metodológica quantitativa e qualitativa, num interessante jogo de perceções consonantes ou divergentes entre estes atores cruciais do processo educativo, os resultados e a sua interpretação permitem refletir sobre a necessidade de adotar novas posturas e atuações no complexo processo de formação e de desenvolvimento de competências de LI. Estas devem ser adequadas aos perfis desejáveis dos diplomados do ensino superior, profissionais e cidadãos que se pretende que obtenham sucesso nas diferentes áreas da sua vida, revelando-se, em suma, indivíduos infoincluídos, ativos e participativos face às mudanças, desafios e crises do século XXI.
Resumo:
New arguments proving that successive (repeated) measurements have a memory and actually remember each other are presented. The recognition of this peculiarity can change essentially the existing paradigm associated with conventional observation in behavior of different complex systems and lead towards the application of an intermediate model (IM). This IM can provide a very accurate fit of the measured data in terms of the Prony's decomposition. This decomposition, in turn, contains a small set of the fitting parameters relatively to the number of initial data points and allows comparing the measured data in cases where the “best fit” model based on some specific physical principles is absent. As an example, we consider two X-ray diffractometers (defined in paper as A- (“cheap”) and B- (“expensive”) that are used after their proper calibration for the measuring of the same substance (corundum a-Al2O3). The amplitude-frequency response (AFR) obtained in the frame of the Prony's decomposition can be used for comparison of the spectra recorded from (A) and (B) - X-ray diffractometers (XRDs) for calibration and other practical purposes. We prove also that the Fourier decomposition can be adapted to “ideal” experiment without memory while the Prony's decomposition corresponds to real measurement and can be fitted in the frame of the IM in this case. New statistical parameters describing the properties of experimental equipment (irrespective to their internal “filling”) are found. The suggested approach is rather general and can be used for calibration and comparison of different complex dynamical systems in practical purposes.
Resumo:
Because of the scientific evidence showing that arsenic (As), cadmium (Cd), and nickel (Ni) are human genotoxic carcinogens, the European Union (EU) recently set target values for metal concentration in ambient air (As: 6 ng/m3, Cd: 5 ng/m3, Ni: 20 ng/m3). The aim of our study was to determine the concentration levels of these trace elements in Porto Metropolitan Area (PMA) in order to assess whether compliance was occurring with these new EU air quality standards. Fine (PM2.5) and inhalable (PM10) air particles were collected from October 2011 to July 2012 at two different (urban and suburban) locations in PMA. Samples were analyzed for trace elements content by inductively coupled plasma–mass spectrometry (ICP-MS). The study focused on determination of differences in trace elements concentration between the two sites, and between PM2.5 and PM10, in order to gather information regarding emission sources. Except for chromium (Cr), the concentration of all trace elements was higher at the urban site. However, results for As, Cd, Ni, and lead (Pb) were well below the EU limit/target values (As: 1.49 ± 0.71 ng/m3; Cd: 1.67 ± 0.92 ng/m3; Ni: 3.43 ± 3.23 ng/m3; Pb: 17.1 ± 10.1 ng/m3) in the worst-case scenario. Arsenic, Cd, Ni, Pb, antimony (Sb), selenium (Se), vanadium (V), and zinc (Zn) were predominantly associated to PM2.5, indicating that anthropogenic sources such as industry and road traffic are the main source of these elements. High enrichment factors (EF > 100) were obtained for As, Cd, Pb, Sb, Se, and Zn, further confirming their anthropogenic origin.
Resumo:
Cloud data centers have been progressively adopted in different scenarios, as reflected in the execution of heterogeneous applications with diverse workloads and diverse quality of service (QoS) requirements. Virtual machine (VM) technology eases resource management in physical servers and helps cloud providers achieve goals such as optimization of energy consumption. However, the performance of an application running inside a VM is not guaranteed due to the interference among co-hosted workloads sharing the same physical resources. Moreover, the different types of co-hosted applications with diverse QoS requirements as well as the dynamic behavior of the cloud makes efficient provisioning of resources even more difficult and a challenging problem in cloud data centers. In this paper, we address the problem of resource allocation within a data center that runs different types of application workloads, particularly CPU- and network-intensive applications. To address these challenges, we propose an interference- and power-aware management mechanism that combines a performance deviation estimator and a scheduling algorithm to guide the resource allocation in virtualized environments. We conduct simulations by injecting synthetic workloads whose characteristics follow the last version of the Google Cloud tracelogs. The results indicate that our performance-enforcing strategy is able to fulfill contracted SLAs of real-world environments while reducing energy costs by as much as 21%.
Resumo:
A adopção do Sistema de Normalização Contabilística constitui um marco muito importante na organização da contabilidade das empresas portuguesas. As inovações trazidas por este normativo e o maior pormenor de algumas matérias contabilísticas levam a que temáticas que eram pouco abordadas suscitem agora um maior interesse. Neste sentido, o presente trabalho, assente na Norma Contabilística e de Relato Financeiro (NCRF) 21, pretende demonstrar as alterações e melhorias trazidas por esta norma no reconhecimento e divulgação das provisões, passivos contingentes e activos contingentes, tendo como referências comparativas o anterior normativo contabilístico, o Plano Oficial de Contabilidade (POC). Através da presente dissertação pretende-se compreender a aplicação da norma ao nível do relato financeiro, através da análise dos Relatórios e Contas de 2010 e 2009 de empresas do sector da Construção. Pelo estudo realizado pode constatar-se que o cumprimento da NCRF 21 trouxe aperfeiçoamento no reconhecimento e divulgação das provisões, e principalmente na divulgação das contingências, praticamente omitidas com o POC. No entanto, deve destacar-se a subjectividade implícita nas provisões, sendo ainda, uma norma de difícil aplicação pela sua ambiguidade. Deve também realçar-se a importância da NCRF 3 - Adopção pela primeira vez das Normas Contabilísticas e de Relato Financeiro, que implicou uma reexpressão das contas de saldos de abertura em 2010 de acordo com o novo referencial contabilístico, o que obrigou as empresas a rever as provisões constituídas até à data Uma breve revisão bibliográfica referente ao tema da problemática fiscal foi ainda realizada.