978 resultados para software framework
Resumo:
One of the most efficient approaches to generate the side information (SI) in distributed video codecs is through motion compensated frame interpolation where the current frame is estimated based on past and future reference frames. However, this approach leads to significant spatial and temporal variations in the correlation noise between the source at the encoder and the SI at the decoder. In such scenario, it would be useful to design an architecture where the SI can be more robustly generated at the block level, avoiding the creation of SI frame regions with lower correlation, largely responsible for some coding efficiency losses. In this paper, a flexible framework to generate SI at the block level in two modes is presented: while the first mode corresponds to a motion compensated interpolation (MCI) technique, the second mode corresponds to a motion compensated quality enhancement (MCQE) technique where a low quality Intra block sent by the encoder is used to generate the SI by doing motion estimation with the help of the reference frames. The novel MCQE mode can be overall advantageous from the rate-distortion point of view, even if some rate has to be invested in the low quality Intra coding blocks, for blocks where the MCI produces SI with lower correlation. The overall solution is evaluated in terms of RD performance with improvements up to 2 dB, especially for high motion video sequences and long Group of Pictures (GOP) sizes.
Resumo:
O presente projecto tem como objectivo a disponibilização de uma plataforma de serviços para gestão e contabilização de tempo remunerável, através da marcação de horas de trabalho, férias e faltas (com ou sem justificação). Pretende-se a disponibilização de relatórios com base nesta informação e a possibilidade de análise automática dos dados, como por exemplo excesso de faltas e férias sobrepostas de trabalhadores. A ênfase do projecto está na disponibilização de uma arquitectura que facilite a inclusão destas funcionalidades. O projecto está implementado sobre a plataforma Google App Engine (i.e. GAE), de forma a disponibilizar uma solução sob o paradigma de Software as a Service, com garantia de disponibilidade e replicação de dados. A plataforma foi escolhida a partir da análise das principais plataformas cloud existentes: Google App Engine, Windows Azure e Amazon Web Services. Foram analisadas as características de cada plataforma, nomeadamente os modelos de programação, os modelos de dados disponibilizados, os serviços existentes e respectivos custos. A escolha da plataforma foi realizada com base nas suas características à data de iniciação do presente projecto. A solução está estruturada em camadas, com as seguintes componentes: interface da plataforma, lógica de negócio e lógica de acesso a dados. A interface disponibilizada está concebida com observação dos princípios arquitecturais REST, suportando dados nos formatos JSON e XML. A esta arquitectura base foi acrescentada uma componente de autorização, suportada em Spring-Security, sendo a autenticação delegada para os serviços Google Acounts. De forma a permitir o desacoplamento entre as várias camadas foi utilizado o padrão Dependency Injection. A utilização deste padrão reduz a dependência das tecnologias utilizadas nas diversas camadas. Foi implementado um protótipo, para a demonstração do trabalho realizado, que permite interagir com as funcionalidades do serviço implementadas, via pedidos AJAX. Neste protótipo tirou-se partido de várias bibliotecas javascript e padrões que simplificaram a sua realização, tal como o model-view-viewmodel através de data binding. Para dar suporte ao desenvolvimento do projecto foi adoptada uma abordagem de desenvolvimento ágil, baseada em Scrum, de forma a implementar os requisitos do sistema, expressos em user stories. De forma a garantir a qualidade da implementação do serviço foram realizados testes unitários, sendo também feita previamente a análise da funcionalidade e posteriormente produzida a documentação recorrendo a diagramas UML.
Resumo:
As comportas de vigas de fundo, objecto de estudo no presente trabalho, são essenciais devido à sua capacidade de controlo do fluxo de água em casos de emergência. Assim este trabalho visou o dimensionamento e análise estrutural de uma comporta dessa natureza. Para o seu dimensionamento foi essencial a norma DIN19704-1:1998, que define todos os padrões que devem ser levados em conta numa construção hidráulica em aço. Deste modo, após uma breve descrição do enquadramento e do estado da arte relativamente a este assunto, foram apresentados ao longo do trabalho, os cálculos dos principais componentes mecânicos que fazem parte dum projecto de uma comporta de vigas. Para comprovar a validade do dimensionamento da comporta realizado através da norma, recorreu-se a um software de análise e simulação por elementos finitos, COSMOSWorks, no sentido de assim prever o comportamento mecânico em análise estática linear, que as solicitações mecânicas em presença têm sobre a comporta. Os resultados da comparação entre o dimensionamento teórico e a análise de tensões através do COSMOSWorks nos elementos mais críticos da estrutura, permitem concluir globalmente que a comporta está bem dimensionada tendo em conta os esforços que tem de suportar.
Resumo:
Este trabalho Final de Mestrado consiste na elaboração de um relatório de estágio que reportará o acompanhamento por parte do discente de um reforço estrutural de uma edificação pombalina. Desta forma são definidas as principais características construtivas destas edificações, fazendo um enquadramento histórico-cultural e urbanístico do edifício alvo deste trabalho. Uma vez estudado um tipo de construção especial, são mencionados diversos sistemas e metodologias de reforço que se adequam às características singulares destas construções, ilustrando-se procedimentos e técnicas que normalmente são utilizadas na reabilitação. Procedeu-se ao relato dos trabalhos executados na obra, desde a demolição dos elementos degradados e dissonantes com esta tipologia construtiva, a um estudo mais pormenorizado ao solo de fundação encontrado na zona da edificação e soluções de fundação adoptadas. São descritas neste trabalho quais as medidas adoptadas no reforço da estrutura da edificação, evidenciando os procedimentos e técnicas aplicadas pela empresa. No final deste trabalho, foi efectuada uma modelação do edifício da Rua do Carmo num software de análise estrutural SAP 2000, com o objectivo de modelar de forma aproximada a real geometria do edifício e, através da introdução das variadas acções actuantes na estrutura, fazer determinadas considerações do comportamento da mesma face às solicitações impostas. Pretendeu-se ainda estabelecer uma relação entres os resultados obtidos e as técnicas de reforço utilizadas na reabilitação destes edifícios.
Resumo:
Recently, several distributed video coding (DVC) solutions based on the distributed source coding (DSC) paradigm have appeared in the literature. Wyner-Ziv (WZ) video coding, a particular case of DVC where side information is made available at the decoder, enable to achieve a flexible distribution of the computational complexity between the encoder and decoder, promising to fulfill novel requirements from applications such as video surveillance, sensor networks and mobile camera phones. The quality of the side information at the decoder has a critical role in determining the WZ video coding rate-distortion (RD) performance, notably to raise it to a level as close as possible to the RD performance of standard predictive video coding schemes. Towards this target, efficient motion search algorithms for powerful frame interpolation are much needed at the decoder. In this paper, the RD performance of a Wyner-Ziv video codec is improved by using novel, advanced motion compensated frame interpolation techniques to generate the side information. The development of these type of side information estimators is a difficult problem in WZ video coding, especially because the decoder only has available some reference, decoded frames. Based on the regularization of the motion field, novel side information creation techniques are proposed in this paper along with a new frame interpolation framework able to generate higher quality side information at the decoder. To illustrate the RD performance improvements, this novel side information creation framework has been integrated in a transform domain turbo coding based Wyner-Ziv video codec. Experimental results show that the novel side information creation solution leads to better RD performance than available state-of-the-art side information estimators, with improvements up to 2 dB: moreover, it allows outperforming H.264/AVC Intra by up to 3 dB with a lower encoding complexity.
Resumo:
Este projecto pretende criar uma plataforma do tipo framework, para desenvolvimento de software que permita a implementação de sistemas biométricos de identificação e autenticação pessoal, usando sinais electrofisiológicos. O sinal electrocardiograma (ECG) é uma característica biométrica em ascensão, existindo fortes indícios de que contém informação suficiente para discriminar um indivíduo de um conjunto vasto de população. Usa-se a framework desenvolvida para criar aplicações que permitam avaliar o desempenho de várias abordagens do estado da arte do reconhecimento biométrico, baseadas no ECG. A arquitectura típica destes sistemas biométricos inclui blocos de aquisição, préprocessamento, extracção de características e classificação de sinais ECG, utilizando tipicamente duas abordagens distintas. Uma das abordagens (fiducial) assenta em pormenores dos diferentes segmentos da forma de onda do sinal ECG, enquanto que a outra abordagem (nonfiducial) tem a vantagem de não depender criticamente desses pormenores. Neste projecto ainda será explorada uma nova variante numa abordagem (non-fiducial) baseada em compressão de dados. Finalmente, pretende-se ainda estudar o desempenho destas abordagens em sinais ECG adquiridos nas mãos, o que constitui um desafio, dado não existirem actualmente estudos sistemáticos usando este tipo de sinais.
Resumo:
Em suma este trabalho de projeto visa a criação de uma ferramenta que permita a gestão dos transportes para a recolha de matéria-prima necessária ao bom funcionamento da fábrica de produção automóvel Volkswagen Autoeuropa num ambiente dinâmico, sendo esta desenvolvida para responder às necessidades da empresa. Assim foi desenvolvido o protótipo Milk Run Software que consiste basicamente na integração de informação fornecida pela empresa relativa a consumos de materiais provenientes de ordens de produção, fornecedores e transportes. Com base nestes dados e recurso a sistemas externos é efetuada a georreferenciação de fornecedores para que exista a noção de proximidade entre estes, além disso foi construído um sistema de decisão, para que com base nos consumos (peças, pesos e volumes), se consigam determinar e gerir as rotas de transportes da empresa Volkswagen Autoeuropa com base no conceito Milk Run, que consiste na otimização do transporte de peças para montagem de veículos, no qual tem em conta a localização geográfica, o volume ou peso a transportar, as limitações físicas dos veículos de transporte, bem como o número de paragens máximas (cargas a efetuar no percurso). Neste projeto são utilizadas diversas técnicas de análise protagonizadas para a construção de ferramentas com o recurso à Engenharia de Software, e a algumas técnicas na área de pesquisa em espaços de estado para auxiliar o conceito Milk Run para resolução dos problemas encontrados.
Resumo:
A realização deste trabalho permitiu disponibilizar uma plataforma de caracter inovador, que consegue colmatar muitos problemas existentes hoje em dia, na maior parte das aplicações Web, não só a nível de utilização eficiente de largura de banda, bem como a nível de interoperabilidade entre tecnologias. Devido às características cross-platform da plataforma, é possível realizar comunicação de baixa latência entre sistemas desenvolvidos em tecnologias completamente diferentes, como é o caso de Javascript e .NET. A implementação desta plataforma representou não só um desafio a nível de engenharia de software, mas também um desafio tecnológico, tendo em conta o número de tecnologias diferentes que são utilizadas nas diversas camadas. Neste trabalho é também disponibilizada uma Framework de comunicação assíncrona, cross-platform, que permite integrar componentes de várias tecnologias diferentes, como é o caso de NodeJS e .NET, através da exposição de serviços com o mesmo tipo de interfaces utilizados em WCF. A implementação desta Framework representou um grande desafio e poderá vir a ser evoluída no futuro, como projeto open source.
Resumo:
This paper proposes a novel framework for modelling the Value for the Customer, the so-called the Conceptual Model for Decomposing Value for the Customer (CMDVC). This conceptual model is first validated through an exploratory case study where the authors validate both the proposed constructs of the model and their relations. In a second step the authors propose a mathematical formulation for the CMDVC as well as a computational method. This has enabled the final quantitative discussion of how the CMDVC can be applied and used in the enterprise environment, and the final validation by the people in the enterprise. Along this research, we were able to confirm that the results of this novel quantitative approach to model the Value for the Customer is consistent with the company's empirical experience. The paper further discusses the merits and limitations of this approach, proposing that the model is likely to bring value to support not only the contract preparation at an Ex-Ante Negotiation Phase, as demonstrated, but also along the actual negotiation process, as finally confirmed by an enterprise testimonial.
Resumo:
This paper presents an algorithm to efficiently generate the state-space of systems specified using the IOPT Petri-net modeling formalism. IOPT nets are a non-autonomous Petri-net class, based on Place-Transition nets with an extended set of features designed to allow the rapid prototyping and synthesis of system controllers through an existing hardware-software co-design framework. To obtain coherent and deterministic operation, IOPT nets use a maximal-step execution semantics where, in a single execution step, all enabled transitions will fire simultaneously. This fact increases the resulting state-space complexity and can cause an arc "explosion" effect. Real-world applications, with several million states, will reach a higher order of magnitude number of arcs, leading to the need for high performance state-space generator algorithms. The proposed algorithm applies a compilation approach to read a PNML file containing one IOPT model and automatically generate an optimized C program to calculate the corresponding state-space.
Resumo:
The current regulatory framework for maintenance outage scheduling in distribution systems needs revision to face the challenges of future smart grids. In the smart grid context, generation units and the system operator perform new roles with different objectives, and an efficient coordination between them becomes necessary. In this paper, the distribution system operator (DSO) of a microgrid receives the proposals for shortterm (ST) planned outages from the generation and transmission side, and has to decide the final outage plans, which is mandatory for the members to follow. The framework is based on a coordination procedure between the DSO and other market players. This paper undertakes the challenge of optimization problem in a smart grid where the operator faces with uncertainty. The results show the effectiveness and applicability of the proposed regulatory framework in the modified IEEE 34- bus test system.
Resumo:
A evolução tecnológica, com particular incidência nas tecnologias de informação, e a necessidade de uma integração cada vez mais profunda do sector da manutenção na gestão estratégica global da empresa, contribuíram para o aparecimento dos sistemas de e-maintenance. Por outro lado, os conceitos associados à manutenção deverão estar cada vez mais associados à manutenção remota. Assim, o desenvolvimento de plataformas de e-maintenance, entendidas como a agregação de software e hardware e outras tecnologias integradas, permitiram implementar serviços, que foram determinantes para a evolução deste conceito. Nesta comunicação apresenta-se uma plataforma de e-maintenance aplicada a um sistema automatizado de pesagem de viaturas na indústria cimenteira. O sistema é baseado na monitorização constante da degradação dos componentes críticos que, através de um sistema de alertas, permite antecipar as falhas notificando, atempadamente, a equipe de operadores específicos. A aplicação foi desenvolvida na Framework SLV Cement da empresa Cachapuz. Possuindo vários módulos de gestão da manutenção esta plataforma permite definir e controlar todo o fluxo de informação.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
OBJECTIVE: To extend an existing computer programme for the evaluation and design of shift schedules (BASS 3) by integrating workload as well as economic aspects. METHODS: The redesigned prototype BASS 4 includes a new module with a suitable and easily applicable screening method (EBA) for the assessment of the intensity of physical, emotional and cognitive workload components and their temporal patterns. Specified criterion functions based on these ratings allow for an adjustment of shift and rest duration according to the intensity of physical and mental workload. Furthermore, with regard to interactive effects both workload and temporal conditions, e.g. time of day, are taken into account. In a second new module, important economic aspects and criteria have been implemented. Different ergonomic solutions for scheduling problems can now also be evaluated with regard to their economic costs. RESULTS: The new version of the computer programme (BASS 4) can now simultaneously take into account numerous ergonomic, legal, agreed and economic criteria for the design and evaluation of working hours. CONCLUSIONS: BASS 4 can now be used as an instrument for the design and the evaluation of working hours with regard to legal, ergonomic and economic aspects at the shop floor as well as in administrative (e.g. health and safety inspection) and research problems.
Resumo:
Since the last decade research in Group Decision Making area have been focus in the building of meeting rooms that could support the decision making task and improve the quality of those decisions. However the emergence of Ambient Intelligence concept contributes with a new perspective, a different way of viewing traditional decision rooms. In this paper we will present an overview of Smart Decision Rooms providing Intelligence to the meeting environment, and we will also present LAID, an Ambient Intelligence Environment oriented to support Group Decision Making and some of the software tools that we already have installed in this environment.