31 resultados para software framework
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
No início da década de 90, as empresas começaram a sentir a necessidade de melhorar o acesso à informação das suas actividades para auxiliar na tomada de decisões. Desta forma, no mundo da informática, emergiu o sector Business Intelligence (BI) composto inicialmente por data warehousing e ferramentas de geração de relatórios. Ao longo dos anos o conceito de BI evoluiu de acordo com as necessidades empresariais, tornando a análise das actividades e do desempenho das organizações em aspectos críticos na gestão das mesmas. A área de BI abrange diversos sectores, sendo o de geração de relatórios e o de análise de dados aqueles que melhor preenchem os requisitos pretendidos no controlo de acesso à informação do negócio e respectivos processos. Actualmente o tempo e a informação são vantagens competitivas e por esse mesmo motivo as empresas estão cada vez mais preocupadas com o facto de o aumento do volume de informação estar a tornar-se insustentável na medida que o tempo necessário para processar a informação é cada vez maior. Por esta razão muitas empresas de software, tais como Microsoft, IBM e Oracle estão numa luta por um lugar neste mercado de BI em expansão. Para que as empresas possam ser competitivas, a sua capacidade de previsão e resposta às necessidades de mercado em tempo real é requisito principal, em detrimento da existência apenas de uma reacção a uma necessidade que peca por tardia. Os produtos de BI têm fama de trabalharem apenas com dados históricos armazenados, o que faz com que as empresas não se possam basear nessas soluções quando o requisito de alguns negócios é de tempo quase real. A latência introduzida por um data warehouse é demasiada para que o desempenho seja aceitável. Desta forma, surge a tecnologia Business Activity Monitoring (BAM) que fornece análise de dados e alertas em tempo quase real sobre os processos do negócio, utilizando fontes de dados como Web Services, filas de mensagens, etc. O conceito de BAM surgiu em Julho de 2001 pela organização Gartner, sendo uma extensão orientada a eventos da área de BI. O BAM define-se pelo acesso em tempo real aos indicadores de desempenho de negócios com o intuito de aumentar a velocidade e eficácia dos processos de negócio. As soluções BAM estão a tornar-se cada vez mais comuns e sofisticadas.
Resumo:
Actualmente, não existem ferramentas open source de Business Intelligence (BI) para suporte à gestão e análise financeira nas empresas, de acordo com o sistema de normalização contabilística (SNC). As diferentes características de cada negócio, juntamente com os requisitos impostos pelo SNC, tornam complexa a criação de uma Framework financeira genérica, que satisfaça, de forma eficiente, as análises financeiras necessárias à gestão das empresas. O objectivo deste projecto é propor uma framework baseada em OLAP, capaz de dar suporte à gestão contabilística e análise financeira, recorrendo exclusivamente a software open source na sua implementação, especificamente, a plataforma Pentaho. Toda a informação contabilística, obtida através da contabilidade geral, da contabilidade analítica, da gestão orçamental e da análise financeira é armazenada num Data mart. Este Data mart suportará toda a análise financeira, incluindo a análise de desvios orçamentais e de fluxo de capitais, permitindo às empresas ter uma ferramenta de BI, compatível com o SNC, que as ajude na tomada de decisões.
Resumo:
PURPOSE: Fatty liver disease (FLD) is an increasing prevalent disease that can be reversed if detected early. Ultrasound is the safest and ubiquitous method for identifying FLD. Since expert sonographers are required to accurately interpret the liver ultrasound images, lack of the same will result in interobserver variability. For more objective interpretation, high accuracy, and quick second opinions, computer aided diagnostic (CAD) techniques may be exploited. The purpose of this work is to develop one such CAD technique for accurate classification of normal livers and abnormal livers affected by FLD. METHODS: In this paper, the authors present a CAD technique (called Symtosis) that uses a novel combination of significant features based on the texture, wavelet transform, and higher order spectra of the liver ultrasound images in various supervised learning-based classifiers in order to determine parameters that classify normal and FLD-affected abnormal livers. RESULTS: On evaluating the proposed technique on a database of 58 abnormal and 42 normal liver ultrasound images, the authors were able to achieve a high classification accuracy of 93.3% using the decision tree classifier. CONCLUSIONS: This high accuracy added to the completely automated classification procedure makes the authors' proposed technique highly suitable for clinical deployment and usage.
Resumo:
One of the most efficient approaches to generate the side information (SI) in distributed video codecs is through motion compensated frame interpolation where the current frame is estimated based on past and future reference frames. However, this approach leads to significant spatial and temporal variations in the correlation noise between the source at the encoder and the SI at the decoder. In such scenario, it would be useful to design an architecture where the SI can be more robustly generated at the block level, avoiding the creation of SI frame regions with lower correlation, largely responsible for some coding efficiency losses. In this paper, a flexible framework to generate SI at the block level in two modes is presented: while the first mode corresponds to a motion compensated interpolation (MCI) technique, the second mode corresponds to a motion compensated quality enhancement (MCQE) technique where a low quality Intra block sent by the encoder is used to generate the SI by doing motion estimation with the help of the reference frames. The novel MCQE mode can be overall advantageous from the rate-distortion point of view, even if some rate has to be invested in the low quality Intra coding blocks, for blocks where the MCI produces SI with lower correlation. The overall solution is evaluated in terms of RD performance with improvements up to 2 dB, especially for high motion video sequences and long Group of Pictures (GOP) sizes.
Resumo:
O presente projecto tem como objectivo a disponibilização de uma plataforma de serviços para gestão e contabilização de tempo remunerável, através da marcação de horas de trabalho, férias e faltas (com ou sem justificação). Pretende-se a disponibilização de relatórios com base nesta informação e a possibilidade de análise automática dos dados, como por exemplo excesso de faltas e férias sobrepostas de trabalhadores. A ênfase do projecto está na disponibilização de uma arquitectura que facilite a inclusão destas funcionalidades. O projecto está implementado sobre a plataforma Google App Engine (i.e. GAE), de forma a disponibilizar uma solução sob o paradigma de Software as a Service, com garantia de disponibilidade e replicação de dados. A plataforma foi escolhida a partir da análise das principais plataformas cloud existentes: Google App Engine, Windows Azure e Amazon Web Services. Foram analisadas as características de cada plataforma, nomeadamente os modelos de programação, os modelos de dados disponibilizados, os serviços existentes e respectivos custos. A escolha da plataforma foi realizada com base nas suas características à data de iniciação do presente projecto. A solução está estruturada em camadas, com as seguintes componentes: interface da plataforma, lógica de negócio e lógica de acesso a dados. A interface disponibilizada está concebida com observação dos princípios arquitecturais REST, suportando dados nos formatos JSON e XML. A esta arquitectura base foi acrescentada uma componente de autorização, suportada em Spring-Security, sendo a autenticação delegada para os serviços Google Acounts. De forma a permitir o desacoplamento entre as várias camadas foi utilizado o padrão Dependency Injection. A utilização deste padrão reduz a dependência das tecnologias utilizadas nas diversas camadas. Foi implementado um protótipo, para a demonstração do trabalho realizado, que permite interagir com as funcionalidades do serviço implementadas, via pedidos AJAX. Neste protótipo tirou-se partido de várias bibliotecas javascript e padrões que simplificaram a sua realização, tal como o model-view-viewmodel através de data binding. Para dar suporte ao desenvolvimento do projecto foi adoptada uma abordagem de desenvolvimento ágil, baseada em Scrum, de forma a implementar os requisitos do sistema, expressos em user stories. De forma a garantir a qualidade da implementação do serviço foram realizados testes unitários, sendo também feita previamente a análise da funcionalidade e posteriormente produzida a documentação recorrendo a diagramas UML.
Resumo:
As comportas de vigas de fundo, objecto de estudo no presente trabalho, são essenciais devido à sua capacidade de controlo do fluxo de água em casos de emergência. Assim este trabalho visou o dimensionamento e análise estrutural de uma comporta dessa natureza. Para o seu dimensionamento foi essencial a norma DIN19704-1:1998, que define todos os padrões que devem ser levados em conta numa construção hidráulica em aço. Deste modo, após uma breve descrição do enquadramento e do estado da arte relativamente a este assunto, foram apresentados ao longo do trabalho, os cálculos dos principais componentes mecânicos que fazem parte dum projecto de uma comporta de vigas. Para comprovar a validade do dimensionamento da comporta realizado através da norma, recorreu-se a um software de análise e simulação por elementos finitos, COSMOSWorks, no sentido de assim prever o comportamento mecânico em análise estática linear, que as solicitações mecânicas em presença têm sobre a comporta. Os resultados da comparação entre o dimensionamento teórico e a análise de tensões através do COSMOSWorks nos elementos mais críticos da estrutura, permitem concluir globalmente que a comporta está bem dimensionada tendo em conta os esforços que tem de suportar.
Resumo:
Este trabalho Final de Mestrado consiste na elaboração de um relatório de estágio que reportará o acompanhamento por parte do discente de um reforço estrutural de uma edificação pombalina. Desta forma são definidas as principais características construtivas destas edificações, fazendo um enquadramento histórico-cultural e urbanístico do edifício alvo deste trabalho. Uma vez estudado um tipo de construção especial, são mencionados diversos sistemas e metodologias de reforço que se adequam às características singulares destas construções, ilustrando-se procedimentos e técnicas que normalmente são utilizadas na reabilitação. Procedeu-se ao relato dos trabalhos executados na obra, desde a demolição dos elementos degradados e dissonantes com esta tipologia construtiva, a um estudo mais pormenorizado ao solo de fundação encontrado na zona da edificação e soluções de fundação adoptadas. São descritas neste trabalho quais as medidas adoptadas no reforço da estrutura da edificação, evidenciando os procedimentos e técnicas aplicadas pela empresa. No final deste trabalho, foi efectuada uma modelação do edifício da Rua do Carmo num software de análise estrutural SAP 2000, com o objectivo de modelar de forma aproximada a real geometria do edifício e, através da introdução das variadas acções actuantes na estrutura, fazer determinadas considerações do comportamento da mesma face às solicitações impostas. Pretendeu-se ainda estabelecer uma relação entres os resultados obtidos e as técnicas de reforço utilizadas na reabilitação destes edifícios.
Resumo:
Recently, several distributed video coding (DVC) solutions based on the distributed source coding (DSC) paradigm have appeared in the literature. Wyner-Ziv (WZ) video coding, a particular case of DVC where side information is made available at the decoder, enable to achieve a flexible distribution of the computational complexity between the encoder and decoder, promising to fulfill novel requirements from applications such as video surveillance, sensor networks and mobile camera phones. The quality of the side information at the decoder has a critical role in determining the WZ video coding rate-distortion (RD) performance, notably to raise it to a level as close as possible to the RD performance of standard predictive video coding schemes. Towards this target, efficient motion search algorithms for powerful frame interpolation are much needed at the decoder. In this paper, the RD performance of a Wyner-Ziv video codec is improved by using novel, advanced motion compensated frame interpolation techniques to generate the side information. The development of these type of side information estimators is a difficult problem in WZ video coding, especially because the decoder only has available some reference, decoded frames. Based on the regularization of the motion field, novel side information creation techniques are proposed in this paper along with a new frame interpolation framework able to generate higher quality side information at the decoder. To illustrate the RD performance improvements, this novel side information creation framework has been integrated in a transform domain turbo coding based Wyner-Ziv video codec. Experimental results show that the novel side information creation solution leads to better RD performance than available state-of-the-art side information estimators, with improvements up to 2 dB: moreover, it allows outperforming H.264/AVC Intra by up to 3 dB with a lower encoding complexity.
Resumo:
Este projecto pretende criar uma plataforma do tipo framework, para desenvolvimento de software que permita a implementação de sistemas biométricos de identificação e autenticação pessoal, usando sinais electrofisiológicos. O sinal electrocardiograma (ECG) é uma característica biométrica em ascensão, existindo fortes indícios de que contém informação suficiente para discriminar um indivíduo de um conjunto vasto de população. Usa-se a framework desenvolvida para criar aplicações que permitam avaliar o desempenho de várias abordagens do estado da arte do reconhecimento biométrico, baseadas no ECG. A arquitectura típica destes sistemas biométricos inclui blocos de aquisição, préprocessamento, extracção de características e classificação de sinais ECG, utilizando tipicamente duas abordagens distintas. Uma das abordagens (fiducial) assenta em pormenores dos diferentes segmentos da forma de onda do sinal ECG, enquanto que a outra abordagem (nonfiducial) tem a vantagem de não depender criticamente desses pormenores. Neste projecto ainda será explorada uma nova variante numa abordagem (non-fiducial) baseada em compressão de dados. Finalmente, pretende-se ainda estudar o desempenho destas abordagens em sinais ECG adquiridos nas mãos, o que constitui um desafio, dado não existirem actualmente estudos sistemáticos usando este tipo de sinais.
Resumo:
Em suma este trabalho de projeto visa a criação de uma ferramenta que permita a gestão dos transportes para a recolha de matéria-prima necessária ao bom funcionamento da fábrica de produção automóvel Volkswagen Autoeuropa num ambiente dinâmico, sendo esta desenvolvida para responder às necessidades da empresa. Assim foi desenvolvido o protótipo Milk Run Software que consiste basicamente na integração de informação fornecida pela empresa relativa a consumos de materiais provenientes de ordens de produção, fornecedores e transportes. Com base nestes dados e recurso a sistemas externos é efetuada a georreferenciação de fornecedores para que exista a noção de proximidade entre estes, além disso foi construído um sistema de decisão, para que com base nos consumos (peças, pesos e volumes), se consigam determinar e gerir as rotas de transportes da empresa Volkswagen Autoeuropa com base no conceito Milk Run, que consiste na otimização do transporte de peças para montagem de veículos, no qual tem em conta a localização geográfica, o volume ou peso a transportar, as limitações físicas dos veículos de transporte, bem como o número de paragens máximas (cargas a efetuar no percurso). Neste projeto são utilizadas diversas técnicas de análise protagonizadas para a construção de ferramentas com o recurso à Engenharia de Software, e a algumas técnicas na área de pesquisa em espaços de estado para auxiliar o conceito Milk Run para resolução dos problemas encontrados.
Resumo:
A realização deste trabalho permitiu disponibilizar uma plataforma de caracter inovador, que consegue colmatar muitos problemas existentes hoje em dia, na maior parte das aplicações Web, não só a nível de utilização eficiente de largura de banda, bem como a nível de interoperabilidade entre tecnologias. Devido às características cross-platform da plataforma, é possível realizar comunicação de baixa latência entre sistemas desenvolvidos em tecnologias completamente diferentes, como é o caso de Javascript e .NET. A implementação desta plataforma representou não só um desafio a nível de engenharia de software, mas também um desafio tecnológico, tendo em conta o número de tecnologias diferentes que são utilizadas nas diversas camadas. Neste trabalho é também disponibilizada uma Framework de comunicação assíncrona, cross-platform, que permite integrar componentes de várias tecnologias diferentes, como é o caso de NodeJS e .NET, através da exposição de serviços com o mesmo tipo de interfaces utilizados em WCF. A implementação desta Framework representou um grande desafio e poderá vir a ser evoluída no futuro, como projeto open source.
Resumo:
This paper presents an algorithm to efficiently generate the state-space of systems specified using the IOPT Petri-net modeling formalism. IOPT nets are a non-autonomous Petri-net class, based on Place-Transition nets with an extended set of features designed to allow the rapid prototyping and synthesis of system controllers through an existing hardware-software co-design framework. To obtain coherent and deterministic operation, IOPT nets use a maximal-step execution semantics where, in a single execution step, all enabled transitions will fire simultaneously. This fact increases the resulting state-space complexity and can cause an arc "explosion" effect. Real-world applications, with several million states, will reach a higher order of magnitude number of arcs, leading to the need for high performance state-space generator algorithms. The proposed algorithm applies a compilation approach to read a PNML file containing one IOPT model and automatically generate an optimized C program to calculate the corresponding state-space.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
In this paper, we propose a new technique that can identify transaction-local memory (i.e. captured memory), in managed environments, while having a low runtime overhead. We implemented our proposal in a well known STM framework (Deuce) and we tested it in STMBench7 with two different STMs: TL2 and LSA. In both STMs the performance improved significantly (4 times and 2.6 times, respectively). Moreover, running the STAMP benchmarks with our approach shows improvements of 7 times in the best case for the Vacation application.
Expert opinion on best practice guidelines and competency framework for visual screening in children
Resumo:
PURPOSE: Screening programs to detect visual abnormalities in children vary among countries. The aim of this study is to describe experts' perception of best practice guidelines and competency framework for visual screening in children. METHODS: A qualitative focus group technique was applied during the Portuguese national orthoptic congress to obtain the perception of an expert panel of 5 orthoptists and 2 ophthalmologists with experience in visual screening for children (mean age 53.43 years, SD ± 9.40). The panel received in advance a script with the description of three tuning competencies dimensions (instrumental, systemic, and interpersonal) for visual screening. The session was recorded in video and audio. Qualitative data were analyzed using a categorical technique. RESULTS: According to experts' views, six tests (35.29%) have to be included in a visual screening: distance visual acuity test, cover test, bi-prism or 4/6(Δ) prism, fusion, ocular movements, and refraction. Screening should be performed according to the child age before and after 3 years of age (17.65%). The expert panel highlighted the influence of the professional experience in the application of a screening protocol (23.53%). They also showed concern about the false negatives control (23.53%). Instrumental competencies were the most cited (54.09%), followed by interpersonal (29.51%) and systemic (16.4%). CONCLUSIONS: Orthoptists should have professional experience before starting to apply a screening protocol. False negative results are a concern that has to be more thoroughly investigated. The proposed framework focuses on core competencies highlighted by the expert panel. Competencies programs could be important do develop better screening programs.