87 resultados para TENDER OFFER


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Outsourcing is a management strategy through which an organization transfers work, responsibilities and decision power to an external source. In the present scenario of global competitiveness, where firms have to react more quickly to changes in markets, outsourcing stands out as a strategy that, if adequately used by the organizations, can leverage the differentiation between one firm and its competitors. The growing use of outsourcing as a management strategy by organizations, results from the maturity reached in their use by organizations and an increase of the offer by service providers. With the increasing use of outsourcing, the complexity and the risk associated have also risen. Understanding the perspective of the customer and of the service provider and the outsourcing processes framework should contribute to a success of the customer / service provider relationship and enhance the benefits and reduce their risks. In this work, there is a contextualization of outsourcing, different methods for managing the outsourcing process from the customer's and the service provider perspective are discussed, and a methodology for managing the outsourcing process from the perspective of the service provider is proposed. The methodological approach used in this work was the case study. The case study discusses an initiative to outsource a process of bottling and packaging in the Port Wine industry. In this study it was concluded that the methodology proposed is suitable for the management of the outsourcing process by the service provider.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many-core platforms are an emerging technology in the real-time embedded domain. These devices offer various options for power savings, cost reductions and contribute to the overall system flexibility, however, issues such as unpredictability, scalability and analysis pessimism are serious challenges to their integration into the aforementioned area. The focus of this work is on many-core platforms using a limited migrative model (LMM). LMM is an approach based on the fundamental concepts of the multi-kernel paradigm, which is a promising step towards scalable and predictable many-cores. In this work, we formulate the problem of real-time application mapping on a many-core platform using LMM, and propose a three-stage method to solve it. An extended version of the existing analysis is used to assure that derived mappings (i) guarantee the fulfilment of timing constraints posed on worst-case communication delays of individual applications, and (ii) provide an environment to perform load balancing for e.g. energy/thermal management, fault tolerance and/or performance reasons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coarse Grained Reconfigurable Architectures (CGRAs) are emerging as enabling platforms to meet the high performance demanded by modern applications (e.g. 4G, CDMA, etc.). Recently proposed CGRAs offer time-multiplexing and dynamic applications parallelism to enhance device utilization and reduce energy consumption at the cost of additional memory (up to 50% area of the overall platform). To reduce the memory overheads, novel CGRAs employ either statistical compression, intermediate compact representation, or multicasting. Each compaction technique has different properties (i.e. compression ratio, decompression time and decompression energy) and is best suited for a particular class of applications. However, existing research only deals with these methods separately. Moreover, they only analyze the compaction ratio and do not evaluate the associated energy overheads. To tackle these issues, we propose a polymorphic compression architecture that interleaves these techniques in a unique platform. The proposed architecture allows each application to take advantage of a separate compression/decompression hierarchy (consisting of various types and implementations of hardware/software decoders) tailored to its needs. Simulation results, using different applications (FFT, Matrix multiplication, and WLAN), reveal that the choice of compression hierarchy has a significant impact on compression ratio (up to 52%), decompression energy (up to 4 orders of magnitude), and configuration time (from 33 n to 1.5 s) for the tested applications. Synthesis results reveal that introducing adaptivity incurs negligible additional overheads (1%) compared to the overall platform area.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ecological Water Quality - Water Treatment and Reuse

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, data centers are large energy consumers and the trend for next years is expected to increase further, considering the growth in the order of cloud services. A large portion of this power consumption is due to the control of physical parameters of the data center (such as temperature and humidity). However, these physical parameters are tightly coupled with computations, and even more so in upcoming data centers, where the location of workloads can vary substantially due, for example, to workloads being moved in the cloud infrastructure hosted in the data center. Therefore, managing the physical and compute infrastructure of a large data center is an embodiment of a Cyber-Physical System (CPS). In this paper, we describe a data collection and distribution architecture that enables gathering physical parameters of a large data center at a very high temporal and spatial resolution of the sensor measurements. We think this is an important characteristic to enable more accurate heat-flow models of the data center and with them, find opportunities to optimize energy consumptions. Having a high-resolution picture of the data center conditions, also enables minimizing local hot-spots, perform more accurate predictive maintenance (failures in all infrastructure equipments can be more promptly detected) and more accurate billing. We detail this architecture and define the structure of the underlying messaging system that is used to collect and distribute the data. Finally, we show the results of a preliminary study of a typical data center radio environment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prostate Specific Antigen (PSA) is the biomarker of choice for screening prostate cancer throughout the population, with PSA values above 10 ng/mL pointing out a high probability of associated cancer1. According to the most recent World Health Organization (WHO) data, prostate cancer is the commonest form of cancer in men in Europe2. Early detection of prostate cancer is thus very important and is currently made by screening PSA in men over 45 years old, combined with other alterations in serum and urine parameters. PSA is a glycoprotein with a molecular mass of approximately 32 kDa consisting of one polypeptide chain, which is produced by the secretory epithelium of human prostate. Currently, the standard methods available for PSA screening are immunoassays like Enzyme-Linked Immunoabsorbent Assay (ELISA). These methods are highly sensitive and specific for the detection of PSA, but they require expensive laboratory facilities and high qualify personal resources. Other highly sensitive and specific methods for the detection of PSA have also become available and are in its majority immunobiosensors1,3-5, relying on antibodies. Less expensive methods producing quicker responses are thus needed, which may be achieved by synthesizing artificial antibodies by means of molecular imprinting techniques. These should also be coupled to simple and low cost devices, such as those of the potentiometric kind, one approach that has been proven successful6. Potentiometric sensors offer the advantage of selectivity and portability for use in point-of-care and have been widely recognized as potential analytical tools in this field. The inherent method is simple, precise, accurate and inexpensive regarding reagent consumption and equipment involved. Thus, this work proposes a new plastic antibody for PSA, designed over the surface of graphene layers extracted from graphite. Charged monomers were used to enable an oriented tailoring of the PSA rebinding sites. Uncharged monomers were used as control. These materials were used as ionophores in conventional solid-contact graphite electrodes. The obtained results showed that the imprinted materials displayed a selective response to PSA. The electrodes with charged monomers showed a more stable and sensitive response, with an average slope of -44.2 mV/decade and a detection limit of 5.8X10-11 mol/L (2 ng/mL). The corresponding non-imprinted sensors showed smaller sensitivity, with average slopes of -24.8 mV/decade. The best sensors were successfully applied to the analysis of serum samples, with percentage recoveries of 106.5% and relatives errors of 6.5%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Educational videos differ from other teaching and learning technologies as they allow the benefit of using visual perception. Video lectures are not new to education, however with the use of innovative video technologies they can improve academic outcomes and extend the reach of education. They may offer extraordinary new experiences for higher education institutions (HEI). Through them lecturers can provide information and contents to students, and if used creatively, video lectures can become a powerful technological tool in education, inside and outside classrooms. Inside a classroom it can motivate students and improve topics’ debate and outside it is a good support for students’ self- learning. In some cases they can be used to work some subjects standing behind, but needed to support actual courses contents, that students do not remember (or were not even taught), opening an “in front to the past door” that backs students self-study. The student-educator dynamic is changing. Students are expecting exceptional instruction and educators are expecting students to be more and more well informed about subjects from online viewing.This article explores some of the potential benefits and challenges associated with the use of video lectures in the teaching and learning process at higher education. We will also discuss some thoughts and examples for the use of teaching materials to enhance student’s learning and try to understand how video can act as powerful and innovative to enlighten teaching and learning (note that unfortunately, sometimes, the opposite is happening).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Robotics research in Portugal is increasing every year, but few students embrace it as one of their first choices for study. Until recently, job offers for engineers were plentiful, and those looking for a degree in science and technology would avoid areas considered to be demanding, like robotics. At the undergraduate level, robotics programs are still competing for a place in the classical engineering graduate curricula. Innovative and dynamic Master's programs may offer the solution to this gap. The Master's degree in autonomous systems at the Instituto Superior de Engenharia do Porto (ISEP), Porto, Portugal, was designed to provide a solid training in robotics and has been showing interesting results, mainly due to differences in course structure and the context in which students are welcomed to study and work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação apresenta o estudo de previsão do diagrama de carga de subestações da Rede Elétrica Nacional (REN) utilizando redes neuronais, com o intuito de verificar a viabilidade do método utilizado, em estudos futuros. Atualmente, a energia elétrica é um bem essencial e desempenha um papel fundamental, tanto a nível económico do país, como a nível de conforto e satisfação individual. Com o desenvolvimento do setor elétrico e o aumento dos produtores torna-se importante a realização da previsão de diagramas de carga, contribuindo para a eficiência das empresas. Esta dissertação tem como objetivo a utilização do modelo das redes neuronais artificiais (RNA) para criar uma rede capaz de realizar a previsão de diagramas de carga, com a finalidade de oferecer a possibilidade de redução de custos e gastos, e a melhoria de qualidade e fiabilidade. Ao longo do trabalho são utilizados dados da carga (em MW), obtidos da REN, da subestação da Prelada e dados como a temperatura, humidade, vento e luminosidade, entre outros. Os dados foram devidamente tratados com a ajuda do software Excel. Com o software MATLAB são realizados treinos com redes neuronais, através da ferramenta Neural Network Fitting Tool, com o objetivo de obter uma rede que forneça os melhores resultados e posteriormente utiliza-la na previsão de novos dados. No processo de previsão, utilizando dados reais das subestações da Prelada e Ermesinde referentes a Março de 2015, comprova-se que com a utilização de RNA é possível obter dados de previsão credíveis, apesar de não ser uma previsão exata. Deste modo, no que diz respeito à previsão de diagramas de carga, as RNA são um bom método a utilizar, uma vez que fornecem, à parte interessada, uma boa previsão do consumo e comportamento das cargas elétricas. Com a finalização deste estudo os resultados obtidos são no mínimo satisfatórios. Consegue-se alcançar através das RNA resultados próximos aos valores que eram esperados, embora não exatamente iguais devido à existência de uma margem de erro na aprendizagem da rede neuronal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Smart TV é um equipamento novo e em evolução que incorpora um computador e acesso à Internet em ecrãs de grande qualidade. Permite a implementação de serviços interactivos, acesso à Internet e televisão. À medida que a tecnologia melhora, muitos equipamentos estão a tornar-se tão capazes quanto os computadores normais quando se trata de navegação na web e até mesmo vídeo na Internet (Video-on-Demand e streaming de vídeo). O projecto de estágio “NONIUS.TV na Smart TV LG Pro:Centric” foi desenvolvido na empresa Nonius Software que está inserida no ramo das telecomunicações. Uma das suas áreas de actividade está relacionada com o desenvolvimento de plataformas de entretenimento para o mercado hoteleiro, combinando diversos serviços e funcionalidades a pensar no hóspede. Este projecto teve como finalidade implementar alguns dos serviços e funcionalidades já existentes em plataformas que usam uma Set-Top Box da Nonius Software, numa Smart TV, aproveitando também para inovar e criar novos serviços. Nesse conjunto está incluída a implementação de uma Caixa de Mensagens, Serviço de Quartos, Serviço de Desporto e Lazer, Serviços Informativos, um cliente RTSP, um despertador, um sistema de mudança de idioma e outras pequenas funcionalidades desenvolvidas ao longo de toda a aplicação. Esta dissertação apresenta um estudo sobre as tecnologias Smart TV existentes no mercado, assim como as vantagens e desvantagens da sua utilização para este projecto. Após uma análise de requisitos de forma a estruturar e desenhar os serviços e funcionalidades a serem criados para a aplicação, implementou-se um conjunto de serviços, usando a linguagem de programação ActionScript 2.0, que permitiram à empresa disponibilizar um novo produto baseado na televisão Pro:Centric da LG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Smart Cities are designed to be living systems and turn urban dwellers life more comfortable and interactive by keeping them aware of what surrounds them, while leaving a greener footprint. The Future Cities Project [1] aims to create infrastructures for research in smart cities including a vehicular network, the BusNet, and an environmental sensor platform, the Urban Sense. Vehicles within the BusNet are equipped with On Board Units (OBUs) that offer free Wi-Fi to passengers and devices near the street. The Urban Sense platform is composed by a set of Data Collection Units (DCUs) that include a set of sensors measuring environmental parameters such as air pollution, meteorology and noise. The Urban Sense platform is expanding and receptive to add new sensors to the platform. The parnership with companies like TNL were made and the need to monitor garbage street containers emerged as air pollution prevention. If refuse collection companies know prior to the refuse collection which route is the best to collect the maximum amount of garbage with the shortest path, they can reduce costs and pollution levels are lower, leaving behind a greener footprint. This dissertation work arises in the need to monitor the garbage street containers and integrate these sensors into an Urban Sense DCU. Due to the remote locations of the garbage street containers, a network extension to the vehicular network had to be created. This dissertation work also focus on the Multi-hop network designed to extend the vehicular network coverage area to the remote garbage street containers. In locations where garbage street containers have access to the vehicular network, Roadside Units (RSUs) or Access Points (APs), the Multi-hop network serves has a redundant path to send the data collected from DCUs to the Urban Sense cloud database. To plan this highly dynamic network, the Wi-Fi Planner Tool was developed. This tool allowed taking measurements on the field that led to an optimized location of the Multi-hop network nodes with the use of radio propagation models. This tool also allowed rendering a temperature-map style overlay for Google Earth [2] application. For the DCU for garbage street containers the parner company provided the access to a HUB (device that communicates with the sensor inside the garbage containers). The Future Cities use the Raspberry pi as a platform for the DCUs. To collect the data from the HUB a RS485 to RS232 converter was used at the physical level and the Modbus protocol at the application level. To determine the location and status of the vehicles whinin the vehicular network a TCP Server was developed. This application was developed for the OBUs providing the vehicle Global Positioning System (GPS) location as well as information of when the vehicle is stopped, moving, on idle or even its slope. To implement the Multi-hop network on the field some scripts were developed such as pingLED and “shark”. These scripts helped upon node deployment on the field as well as to perform all the tests on the network. Two setups were implemented on the field, an urban setup was implemented for a Multi-hop network coverage survey and a sub-urban setup was implemented to test the Multi-hop network routing protocols, Optimized Link State Routing Protocol (OLSR) and Babel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O consumo de energia de forma irracional acarreta desvantagens a nível económico para o consumidor e problemas ambientais para toda a sociedade, como a escassez de recursos naturais e o aumento da poluição. Neste contexto, a otimização energética na indústria, e em particular no setor das borrachas, é indispensável de forma a utilizar racionalmente a energia e assim contribuir para a viabilidade das empresas. Este trabalho, efetuado na Flexocol - Fábrica de Artefactos de Borracha, Lda., teve como principal objetivo efetuar um levantamento energético à unidade fabril e propor alternativas que permitissem a redução do consumo de energia elétrica. Foi ainda realizado um estudo sobre a possibilidade de substituir o n-hexano, solvente utilizado na limpeza dos moldes, por um solvente mais adequado. O levantamento energético efetuado permitiu identificar o consumo das utilidades existentes na Flexocol. Esta empresa consome gasóleo e energia elétrica, sendo esta última, a forma de energia mais consumida correspondendo a 96%. O consumo global de energia é cerca 151 tep anuais, inferior a 500 tep/ano, ou seja é considerada uma empresa não consumidora intensiva de energia. Com base neste levantamento determinou-se os indicadores de consumo específico de energia e da intensidade carbónica, 2,73 tep/ ton e 1684,5 kg CO2/tep. A análise do consumo de energia elétrica dos diferentes equipamentos permitiu verificar que o setor que mais consome energia elétrica é a Vulcanização com 45,8%, seguido do setor da Mistura e Serralharia com 27,5% e 26,7%, respetivamente. O sistema de iluminação nos vários setores foi também alvo de estudo e permitiu identificar a Vulcanização como o setor com mais consumo e o da Mistura como o que menos consome. O estudo das variáveis anteriormente referidas permitiu apresentar algumas propostas de melhoria. Uma das propostas analisada foi implementação de condensadores no quadro parcial de forma a diminuir a energia reativa. Com esta medida prevê-se uma poupança de 5631 €/ano e um retorno de investimento de 0,045 anos. Foi também analisada relativamente à iluminação a possibilidade de instalação de balastros eletrónicos que conduziria a uma poupança na energia elétrica de cerca 7072 kWh/ano, mas com um retorno de investimento desfavorável. Por último estudou-se o solvente alternativo ao n-hexano. A acetona foi o solvente proposto uma vez que tem as propriedades indicadas para o fim a que se destina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os Mercados Eletrónicos atingiram uma complexidade e nível de sofisticação tão elevados, que tornaram inadequados os modelos de software convencionais. Estes mercados são caracterizados por serem abertos, dinâmicos e competitivos, e constituídos por várias entidades independentes e heterogéneas. Tais entidades desempenham os seus papéis de forma autónoma, seguindo os seus objetivos, reagindo às ocorrências do ambiente em que se inserem e interagindo umas com as outras. Esta realidade levou a que existisse por parte da comunidade científica um especial interesse no estudo da negociação automática executada por agentes de software [Zhang et al., 2011]. No entanto, a diversidade dos atores envolvidos pode levar à existência de diferentes conceptualizações das suas necessidades e capacidades dando origem a incompatibilidades semânticas, que podem prejudicar a negociação e impedir a ocorrência de transações que satisfaçam as partes envolvidas. Os novos mercados devem, assim, possuir mecanismos que lhes permitam exibir novas capacidades, nomeadamente a capacidade de auxiliar na comunicação entre os diferentes agentes. Pelo que, é defendido neste trabalho que os mercados devem oferecer serviços de ontologias que permitam facilitar a interoperabilidade entre os agentes. No entanto, os humanos tendem a ser relutantes em aceitar a conceptualização de outros, a não ser que sejam convencidos de que poderão conseguir um bom negócio. Neste contexto, a aplicação e exploração de relações capturadas em redes sociais pode resultar no estabelecimento de relações de confiança entre vendedores e consumidores, e ao mesmo tempo, conduzir a um aumento da eficiência da negociação e consequentemente na satisfação das partes envolvidas. O sistema AEMOS é uma plataforma de comércio eletrónico baseada em agentes que inclui serviços de ontologias, mais especificamente, serviços de alinhamento de ontologias, incluindo a recomendação de possíveis alinhamentos entre as ontologias dos parceiros de negociação. Este sistema inclui também uma componente baseada numa rede social, que é construída aplicando técnicas de análise de redes socias sobre informação recolhida pelo mercado, e que permite melhorar a recomendação de alinhamentos e auxiliar os agentes na sua escolha. Neste trabalho são apresentados o desenvolvimento e implementação do sistema AEMOS, mais concretamente: • É proposto um novo modelo para comércio eletrónico baseado em agentes que disponibiliza serviços de ontologias; • Adicionalmente propõem-se o uso de redes sociais emergentes para captar e explorar informação sobre relações entre os diferentes parceiros de negócio; • É definida e implementada uma componente de serviços de ontologias que é capaz de: • o Sugerir alinhamentos entre ontologias para pares de agentes; • o Traduzir mensagens escritas de acordo com uma ontologia em mensagens escritas de acordo com outra, utilizando alinhamentos previamente aprovados; • o Melhorar os seus próprios serviços recorrendo às funcionalidades disponibilizadas pela componente de redes sociais; • É definida e implementada uma componente de redes sociais que: • o É capaz de construir e gerir um grafo de relações de proximidade entre agentes, e de relações de adequação de alinhamentos a agentes, tendo em conta os perfis, comportamento e interação dos agentes, bem como a cobertura e utilização dos alinhamentos; • o Explora e adapta técnicas e algoritmos de análise de redes sociais às várias fases dos processos do mercado eletrónico. A implementação e experimentação do modelo proposto demonstra como a colaboração entre os diferentes agentes pode ser vantajosa na melhoria do desempenho do sistema e como a inclusão e combinação de serviços de ontologias e redes sociais se reflete na eficiência da negociação de transações e na dinâmica do mercado como um todo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Crowdsourcing is evolving into powerful outsourcing options for organizations by providing access to the intellectual capital within a vast knowledge community. Innovation brokering services have emerged to facilitate crowdsourcing projects by connecting up companies with potential solution providers within the wider ‘crowd’. Most existing innovation brokering services are primarily aimed at larger organizations, however, Small and Medium Enterprises (SMEs) offer considerable potential for crowdsourcing activity since they are typically the innovation and employment engines in society; they are typically more nimble and responsive to the business environment than the larger companies. SMEs have very different challenges and needs to larger organizations since they have fewer resources, a more limited knowledge and skill base, and immature management practices. Consequently, innovation brokering for SMEs require considerably more support than for larger organizations. This paper identifies the crowdsourcing innovation brokerage facilities needed by SMEs, and presents an architecture that encourages knowledge sharing, development of community, support in mixing and matching capabilities, and management of stakeholders’ risks. Innovation brokering is emerging as a novel business model that is challenging concepts of the traditional value chain and organizational boundaries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A solFORM é uma empresa de Consultoria e Formação Profissional nas áreas da Energia e Eletricidade, Higiene e Segurança no Trabalho e Comportamental. O seu foco de atuação é a oferta de formação profissional especializada a empresas que trabalham na rede de distribuição de energia elétrica. O diagnóstico realizado permitiu identificar como potencialidade de intervenção os serviços de recursos humanos prestados pela empresa, mais especificamente conceber uma metodologia de avaliação de competências e de identificação de necessidades de desenvolvimento para os técnicos do setor elétrico. A aplicação deste projeto permite adequar as competências dos colaboradores dos clientes da solFORM, empresas do setor elétrico, aos perfis profissionais exigidos pela agência reguladora da formação do setor, a AQTSE - Associação para a Qualificação Técnica do Setor Energético. Assim, o objetivo final será que a solFORM possa propor planos de desenvolvimento adequados às necessidades específicas dos colaboradores das suas empresas clientes. Depois de definido o planeamento estratégico e operacional da nova metodologia foi implementada num grupo piloto. Ao longo da implementação e no final foram avaliados os indicadores que demonstram o cumprimento dos objetivos estabelecidos, assim como a finalidade do projeto.