970 resultados para consumer data


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os mercados eletrónicos são sistemas de informação (SI) utilizados por várias entidades organizacionais distintas dentro de um ou vários níveis em termos das cadeias de valor económico (Journal Electronic Markets, 2012). Segundo (Bakos, 1998) têm um papel central na economia, facilitando a troca de informações, produtos, serviços e pagamentos. Durante o processo, é criado valor económico para o comprador, fornecedor, intermediários do mercado e para a sociedade em geral. O comércio eletrónico é o ato de realizar um qualquer tipo de negócio através de uma via eletrónica e é constituído por modelos diversificados onde se destacam o Business to Business (B2B) e o Business to Consumer (B2C). O modelo B2B possui uma quota de 90 % de todo o comércio, sendo esse sucesso intrinsecamente relacionado em grande parte às vantagens que as suas plataformas oferecem às empresas que inseridas nelas (Anacom, 2004). O âmbito principal deste trabalho é o estudo dos B2B, tendo sido para tal definidos os seguintes objetivos: Realizar a identificação do estado atual bem como a evolução dos mercados B2B em Portugal; Caraterização das funcionalidades das plataformas que atuam no tecido nacional e por fim fazer a criação de um conjunto de orientações de apoio a empresas que desejam fazer a inserção nestes mercados. Para serem alcançados os objetivos propostos na dissertação, foram inquiridas várias organizações ao mesmo tempo que foi realizada uma pesquisa de temas e artigos relacionados com os mercados eletrónicos e plataformas B2B, recorrendo a sites como a B-On.pt, e utilizando o motor de busca Google. Este relatório apresenta a seguinte estrutura: No capítulo 1 é apresentada a introdução teórica das matérias apresentadas nos capítulos seguintes; O capítulo 2 é centrado no comércio eletrónico, definições mais comuns e são demonstrados os modelos mais preponderantes do comércio eletrónico; No capítulo 3 são expostas todas as vertentes do modelo B2B, as principais plataformas B2B a atuar no tecido nacional, as suas funcionalidades e modo de operação bem como uma apresentação das principais plataformas a nível mundial; No capítulo 4 são apresentados um conjunto de tópicos de auxílio a empresas que desejem fazer a sua inserção neste tipo de mercados; Por último são descritas as principais conclusões retiradas na realização da dissertação. Em suma, este trabalho reúne um conjunto de dados e orientações úteis, decorrentes do estudo realizado de auxílio a empresas a aderirem aos mercados eletrónicos, visto ser uma abordagem promissora para as organizações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertation submitted in partial fulfilment of the requirements for the Degree of Master of Science in Geospatial Technologies

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os crescentes custos ligados ao consumo elétrico, não apenas de cariz financeiro mas também ambiental, despertam cada vez mais para a importância da definição de estratégias de melhor utilização de recursos e eficiência energética. Esta importância tem sido reforçada pela definição de decretos-lei que vêm colocar metas e limites relativamente às despesas energéticas. Estes diplomas são também acompanhados por programas de incentivo para um setor ligado à eficiência energética. Em Portugal as medidas ligadas ao setor tem vindo a ser redirecionadas para o consumo final de energia, com a definição de metas para as instalações de maior consumo. As instalações hospitalares são grandes centros de consumo energético devido não só ao elevado número de utentes que recebem mas também pelos diversos tipos de equipamentos elétricos usados para a prestação dos serviços médicos. Como consequência disso, os investimentos e os custos operacionais são elevados, o que reforça a necessidade de gerir os gastos e consumos energéticos com a procura constante de melhoria na recolha de informação sobre todo o sistema e na adequação de intervenções com vista a uma maior eficiência energética. O Hospital Pedro Hispano vem desde algum tempo a investir no sentido de conhecer mais e melhor toda a instalação bem como os consumos energéticos a ela associados. Algumas medidas foram tomadas nesse sentido nomeadamente a instalação de analisadores de energia, de modo a obter um retrato mais fiel e fidedigno dos principais vetores de consumo. Neste momento a gestão técnica do hospital tem em análise uma grande parte da instalação recolhendo dados do consumo elétrico real do hospital. Nesta dissertação procurou-se fazer uma análise e enquadramento dos programas e metas ligados ao setor energético com ênfase nos diplomas que visão e abrangem as instalações hospitalares. Dos vários programas de incentivo à adoção de políticas de maior eficiência energética é dado especial destaque ao programa ECO.AP que visa a celebração de contratos para implementação de medidas de poupança energética ao setor público. Em colaboração com o HPH, iniciaram-se os trabalhos pelo estudo e identificação das principais fases e ferramentas utilizadas na gestão energética do edifício tendo como objetivo a reavaliação dos vetores energéticos já identificados no HPH e a criação e contabilização de novos grupos de consumo. Através de várias medições do consumo elétrico, num total superior a 650 horas de funcionamento, foi possível a criação do mapa de desagregação de consumos para o ano de 2013. A desagregação realizada conta com 3 novos vetores energéticos e com a reavaliação do peso relativo de mais 5 grupos de consumo. Das medições efetuadas destaca-se a reavaliação do consumo da central de bombagem onde a parcela considerada até à data estava 3 vezes acima do valor real medido. Com base na desagregação feita foram apontadas e estudadas medidas de implementação com o objetivo de reduzir os consumos energético em todo o hospital, destacando-se a solução apresentada para a central de bombagem. Esta medida traria um grande impacto em toda a fatura energética, não só pela sua viabilidade, mas também porque atuaria num grande centro de consumo onde até ao momento nenhuma ação do género foi implementada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Vivemos cada vez mais numa era de crescentes avanços tecnológicos em diversas áreas. O que há uns anos atrás era considerado como praticamente impossível, em muitos dos casos, já se tornou realidade. Todos usamos tecnologias como, por exemplo, a Internet, Smartphones e GPSs de uma forma natural. Esta proliferação da tecnologia permitiu tanto ao cidadão comum como a organizações a sua utilização de uma forma cada vez mais criativa e simples de utilizar. Além disso, a cada dia que passa surgem novos negócios e startups, o que demonstra o dinamismo que este crescimento veio trazer para a indústria. A presente dissertação incide sobre duas áreas em forte crescimento: Reconhecimento Facial e Business Intelligence (BI), assim como a respetiva combinação das duas com o objetivo de ser criado um novo módulo para um produto já existente. Tratando-se de duas áreas distintas, é primeiramente feito um estudo sobre cada uma delas. A área de Business Intelligence é vocacionada para organizações e trata da recolha de informação sobre o negócio de determinada empresa, seguindo-se de uma posterior análise. A grande finalidade da área de Business Intelligence é servir como forma de apoio ao processo de tomada de decisão por parte dos analistas e gestores destas organizações. O Reconhecimento Facial, por sua vez, encontra-se mais presente na sociedade. Tendo surgido no passado através da ficção científica, cada vez mais empresas implementam esta tecnologia que tem evoluído ao longo dos anos, chegando mesmo a ser usada pelo consumidor final, como por exemplo em Smartphones. As suas aplicações são, portanto, bastante diversas, desde soluções de segurança até simples entretenimento. Para estas duas áreas será assim feito um estudo com base numa pesquisa de publicações de autores da respetiva área. Desde os cenários de utilização, até aspetos mais específicos de cada uma destas áreas, será assim transmitido este conhecimento para o leitor, o que permitirá uma maior compreensão por parte deste nos aspetos relativos ao desenvolvimento da solução. Com o estudo destas duas áreas efetuado, é então feita uma contextualização do problema em relação à área de atuação da empresa e quais as abordagens possíveis. É também descrito todo o processo de análise e conceção, assim como o próprio desenvolvimento numa vertente mais técnica da solução implementada. Por fim, são apresentados alguns exemplos de resultados obtidos já após a implementação da solução.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho enquadra-se na temática de segurança contra incêndio em edifícios e consiste num estudo de caso de projeto de deteção e extinção de incêndio num Data Center. Os objetivos deste trabalho resumem-se à realização de um estudo sobre o estado da arte da extinção e deteção automática de incêndio, ao desenvolvimento de uma ferramenta de software de apoio a projetos de extinção por agentes gasosos, como também à realização de um estudo e uma análise da proteção contra incêndios em Data Centers. Por último foi efetuado um estudo de caso. São abordados os conceitos de fogo e de incêndio, em que um estudo teórico à temática foi desenvolvido, descrevendo de que forma pode o fogo ser originado e respetivas consequências. Os regulamentos nacionais relativos à Segurança Contra Incêndios em Edifícios (SCIE) são igualmente abordados, com especial foco nos Sistemas Automáticos de Deteção de Incêndio (SADI) e nos Sistemas Automáticos de Extinção de Incêndio (SAEI), as normas nacionais e internacionais relativas a esta temática também são mencionadas. Pelo facto de serem muito relevantes para o desenvolvimento deste trabalho, os sistemas de deteção de incêndio são exaustivamente abordados, mencionando características de equipamentos de deteção, técnicas mais utilizadas como também quais os aspetos a ter em consideração no dimensionamento de um SADI. Quanto aos meios de extinção de incêndio foram mencionados quais os mais utilizados atualmente, as suas vantagens e a que tipo de fogo se aplicam, com especial destaque para os SAEI com utilização de gases inertes, em que foi descrito como deve ser dimensionado um sistema deste tipo. Foi também efetuada a caracterização dos Data Centers para que seja possível entender quais as suas funcionalidades, a importância da sua existência e os aspetos gerais de uma proteção contra incêndio nestas instalações. Por último, um estudo de caso foi desenvolvido, um SADI foi projetado juntamente com um SAEI que utiliza azoto como gás de extinção. As escolhas e os sistemas escolhidos foram devidamente justificados, tendo em conta os regulamentos e normas em vigor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

São muitas as organizações que por todo o mundo possuem instalações deste tipo, em Portugal temos o exemplo da Portugal Telecom que recentemente inaugurou o seu Data Center na Covilhã. O desenvolvimento de um Data Center exige assim um projeto muito cuidado, o qual entre outros aspetos deverá garantir a segurança da informação e das próprias instalações, nomeadamente no que se refere à segurança contra incêndio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Near real time media content personalisation is nowadays a major challenge involving media content sources, distributors and viewers. This paper describes an approach to seamless recommendation, negotiation and transaction of personalised media content. It adopts an integrated view of the problem by proposing, on the business-to-business (B2B) side, a brokerage platform to negotiate the media items on behalf of the media content distributors and sources, providing viewers, on the business-to-consumer (B2C) side, with a personalised electronic programme guide (EPG) containing the set of recommended items after negotiation. In this setup, when a viewer connects, the distributor looks up and invites sources to negotiate the contents of the viewer personal EPG. The proposed multi-agent brokerage platform is structured in four layers, modelling the registration, service agreement, partner lookup, invitation as well as item recommendation, negotiation and transaction stages of the B2B processes. The recommendation service is a rule-based switch hybrid filter, including six collaborative and two content-based filters. The rule-based system selects, at runtime, the filter(s) to apply as well as the final set of recommendations to present. The filter selection is based on the data available, ranging from the history of items watched to the ratings and/or tags assigned to the items by the viewer. Additionally, this module implements (i) a novel item stereotype to represent newly arrived items, (ii) a standard user stereotype for new users, (iii) a novel passive user tag cloud stereotype for socially passive users, and (iv) a new content-based filter named the collinearity and proximity similarity (CPS). At the end of the paper, we present off-line results and a case study describing how the recommendation service works. The proposed system provides, to our knowledge, an excellent holistic solution to the problem of recommending multimedia contents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In-network storage of data in wireless sensor networks contributes to reduce the communications inside the network and to favor data aggregation. In this paper, we consider the use of n out of m codes and data dispersal in combination to in-network storage. In particular, we provide an abstract model of in-network storage to show how n out of m codes can be used, and we discuss how this can be achieved in five cases of study. We also define a model aimed at evaluating the probability of correct data encoding and decoding, we exploit this model and simulations to show how, in the cases of study, the parameters of the n out of m codes and the network should be configured in order to achieve correct data coding and decoding with high probability.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Accepted in 13th IEEE Symposium on Embedded Systems for Real-Time Multimedia (ESTIMedia 2015), Amsterdam, Netherlands.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nowadays, data centers are large energy consumers and the trend for next years is expected to increase further, considering the growth in the order of cloud services. A large portion of this power consumption is due to the control of physical parameters of the data center (such as temperature and humidity). However, these physical parameters are tightly coupled with computations, and even more so in upcoming data centers, where the location of workloads can vary substantially due, for example, to workloads being moved in the cloud infrastructure hosted in the data center. Therefore, managing the physical and compute infrastructure of a large data center is an embodiment of a Cyber-Physical System (CPS). In this paper, we describe a data collection and distribution architecture that enables gathering physical parameters of a large data center at a very high temporal and spatial resolution of the sensor measurements. We think this is an important characteristic to enable more accurate heat-flow models of the data center and with them, find opportunities to optimize energy consumptions. Having a high-resolution picture of the data center conditions, also enables minimizing local hot-spots, perform more accurate predictive maintenance (failures in all infrastructure equipments can be more promptly detected) and more accurate billing. We detail this architecture and define the structure of the underlying messaging system that is used to collect and distribute the data. Finally, we show the results of a preliminary study of a typical data center radio environment.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper studies the statistical distributions of worldwide earthquakes from year 1963 up to year 2012. A Cartesian grid, dividing Earth into geographic regions, is considered. Entropy and the Jensen–Shannon divergence are used to analyze and compare real-world data. Hierarchical clustering and multi-dimensional scaling techniques are adopted for data visualization. Entropy-based indices have the advantage of leading to a single parameter expressing the relationships between the seismic data. Classical and generalized (fractional) entropy and Jensen–Shannon divergence are tested. The generalized measures lead to a clear identification of patterns embedded in the data and contribute to better understand earthquake distributions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Complex industrial plants exhibit multiple interactions among smaller parts and with human operators. Failure in one part can propagate across subsystem boundaries causing a serious disaster. This paper analyzes the industrial accident data series in the perspective of dynamical systems. First, we process real world data and show that the statistics of the number of fatalities reveal features that are well described by power law (PL) distributions. For early years, the data reveal double PL behavior, while, for more recent time periods, a single PL fits better into the experimental data. Second, we analyze the entropy of the data series statistics over time. Third, we use the Kullback–Leibler divergence to compare the empirical data and multidimensional scaling (MDS) techniques for data analysis and visualization. Entropy-based analysis is adopted to assess complexity, having the advantage of yielding a single parameter to express relationships between the data. The classical and the generalized (fractional) entropy and Kullback–Leibler divergence are used. The generalized measures allow a clear identification of patterns embedded in the data.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Currently, due to the widespread use of computers and the internet, students are trading libraries for the World Wide Web and laboratories with simulation programs. In most courses, simulators are made available to students and can be used to proof theoretical results or to test a developing hardware/product. Although this is an interesting solution: low cost, easy and fast way to perform some courses work, it has indeed major disadvantages. As everything is currently being done with/in a computer, the students are loosing the “feel” of the real values of the magnitudes. For instance in engineering studies, and mainly in the first years, students need to learn electronics, algorithmic, mathematics and physics. All of these areas can use numerical analysis software, simulation software or spreadsheets and in the majority of the cases data used is either simulated or random numbers, but real data could be used instead. For example, if a course uses numerical analysis software and needs a dataset, the students can learn to manipulate arrays. Also, when using the spreadsheets to build graphics, instead of using a random table, students could use a real dataset based, for instance, in the room temperature and its variation across the day. In this work we present a framework which uses a simple interface allowing it to be used by different courses where the computers are the teaching/learning process in order to give a more realistic feeling to students by using real data. A framework is proposed based on a set of low cost sensors for different physical magnitudes, e.g. temperature, light, wind speed, which are connected to a central server, that the students have access with an Ethernet protocol or are connected directly to the student computer/laptop. These sensors use the communication ports available such as: serial ports, parallel ports, Ethernet or Universal Serial Bus (USB). Since a central server is used, the students are encouraged to use sensor values results in their different courses and consequently in different types of software such as: numerical analysis tools, spreadsheets or simply inside any programming language when a dataset is needed. In order to do this, small pieces of hardware were developed containing at least one sensor using different types of computer communication. As long as the sensors are attached in a server connected to the internet, these tools can also be shared between different schools. This allows sensors that aren't available in a determined school to be used by getting the values from other places that are sharing them. Another remark is that students in the more advanced years and (theoretically) more know how, can use the courses that have some affinities with electronic development to build new sensor pieces and expand the framework further. The final solution provided is very interesting, low cost, simple to develop, allowing flexibility of resources by using the same materials in several courses bringing real world data into the students computer works.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Demo in Workshop on ns-3 (WNS3 2015). 13 to 14, May, 2015. Castelldefels, Spain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining (DM) methods are being increasingly used in prediction with time series data, in addition to traditional statistical approaches. This paper presents a literature review of the use of DM with time series data, focusing on short- time stocks prediction. This is an area that has been attracting a great deal of attention from researchers in the field. The main contribution of this paper is to provide an outline of the use of DM with time series data, using mainly examples related with short-term stocks prediction. This is important to a better understanding of the field. Some of the main trends and open issues will also be introduced.