972 resultados para Field video recording
Resumo:
Frame rate upconversion (FRUC) is an important post-processing technique to enhance the visual quality of low frame rate video. A major, recent advance in this area is FRUC based on trilateral filtering which novelty mainly derives from the combination of an edge-based motion estimation block matching criterion with the trilateral filter. However, there is still room for improvement, notably towards reducing the size of the uncovered regions in the initial estimated frame, this means the estimated frame before trilateral filtering. In this context, proposed is an improved motion estimation block matching criterion where a combined luminance and edge error metric is weighted according to the motion vector components, notably to regularise the motion field. Experimental results confirm that significant improvements are achieved for the final interpolated frames, reaching PSNR gains up to 2.73 dB, on average, regarding recent alternative solutions, for video content with varied motion characteristics.
Resumo:
A novel high throughput and scalable unified architecture for the computation of the transform operations in video codecs for advanced standards is presented in this paper. This structure can be used as a hardware accelerator in modern embedded systems to efficiently compute all the two-dimensional 4 x 4 and 2 x 2 transforms of the H.264/AVC standard. Moreover, its highly flexible design and hardware efficiency allows it to be easily scaled in terms of performance and hardware cost to meet the specific requirements of any given video coding application. Experimental results obtained using a Xilinx Virtex-5 FPGA demonstrated the superior performance and hardware efficiency levels provided by the proposed structure, which presents a throughput per unit of area relatively higher than other similar recently published designs targeting the H.264/AVC standard. Such results also showed that, when integrated in a multi-core embedded system, this architecture provides speedup factors of about 120x concerning pure software implementations of the transform algorithms, therefore allowing the computation, in real-time, of all the above mentioned transforms for Ultra High Definition Video (UHDV) sequences (4,320 x 7,680 @ 30 fps).
Resumo:
Video coding technologies have played a major role in the explosion of large market digital video applications and services. In this context, the very popular MPEG-x and H-26x video coding standards adopted a predictive coding paradigm, where complex encoders exploit the data redundancy and irrelevancy to 'control' much simpler decoders. This codec paradigm fits well applications and services such as digital television and video storage where the decoder complexity is critical, but does not match well the requirements of emerging applications such as visual sensor networks where the encoder complexity is more critical. The Slepian Wolf and Wyner-Ziv theorems brought the possibility to develop the so-called Wyner-Ziv video codecs, following a different coding paradigm where it is the task of the decoder, and not anymore of the encoder, to (fully or partly) exploit the video redundancy. Theoretically, Wyner-Ziv video coding does not incur in any compression performance penalty regarding the more traditional predictive coding paradigm (at least for certain conditions). In the context of Wyner-Ziv video codecs, the so-called side information, which is a decoder estimate of the original frame to code, plays a critical role in the overall compression performance. For this reason, much research effort has been invested in the past decade to develop increasingly more efficient side information creation methods. This paper has the main objective to review and evaluate the available side information methods after proposing a classification taxonomy to guide this review, allowing to achieve more solid conclusions and better identify the next relevant research challenges. After classifying the side information creation methods into four classes, notably guess, try, hint and learn, the review of the most important techniques in each class and the evaluation of some of them leads to the important conclusion that the side information creation methods provide better rate-distortion (RD) performance depending on the amount of temporal correlation in each video sequence. It became also clear that the best available Wyner-Ziv video coding solutions are almost systematically based on the learn approach. The best solutions are already able to systematically outperform the H.264/AVC Intra, and also the H.264/AVC zero-motion standard solutions for specific types of content. (C) 2013 Elsevier B.V. All rights reserved.
Resumo:
In distributed video coding, motion estimation is typically performed at the decoder to generate the side information, increasing the decoder complexity while providing low complexity encoding in comparison with predictive video coding. Motion estimation can be performed once to create the side information or several times to refine the side information quality along the decoding process. In this paper, motion estimation is performed at the decoder side to generate multiple side information hypotheses which are adaptively and dynamically combined, whenever additional decoded information is available. The proposed iterative side information creation algorithm is inspired in video denoising filters and requires some statistics of the virtual channel between each side information hypothesis and the original data. With the proposed denoising algorithm for side information creation, a RD performance gain up to 1.2 dB is obtained for the same bitrate.
Resumo:
Purpose: The aim of this paper is to promote qualitative methodology within the scientific community of management. The specific objective is oriented to propose an empirical research process based on case study method. This is to ensure rigor in the empirical research process, that future research may follow a similar procedure to that is proposed. Design/methodology/approach: Following a qualitative methodological approach, we propose a research process that develops according to four phases, each with several stages. This study analyses the preparatory and field work phases and their stages. Findings: The paper shows the influence that case studies have on qualitative empirical research process in management. Originality/value:. Case study method assumes an important role within qualitative research by allowing for the study and analysis of certain types of phenomena that occur inside organisations, and in respect of which quantitative studies cannot provide an answer.
Resumo:
Low-density parity-check (LDPC) codes are nowadays one of the hottest topics in coding theory, notably due to their advantages in terms of bit error rate performance and low complexity. In order to exploit the potential of the Wyner-Ziv coding paradigm, practical distributed video coding (DVC) schemes should use powerful error correcting codes with near-capacity performance. In this paper, new ways to design LDPC codes for the DVC paradigm are proposed and studied. The new LDPC solutions rely on merging parity-check nodes, which corresponds to reduce the number of rows in the parity-check matrix. This allows to change gracefully the compression ratio of the source (DCT coefficient bitplane) according to the correlation between the original and the side information. The proposed LDPC codes reach a good performance for a wide range of source correlations and achieve a better RD performance when compared to the popular turbo codes.
Resumo:
Purpose: The most recent Varian® micro multileaf collimator(MLC), the High Definition (HD120) MLC, was modeled using the BEAMNRCMonte Carlo code. This model was incorporated into a Varian medical linear accelerator, for a 6 MV beam, in static and dynamic mode. The model was validated by comparing simulated profiles with measurements. Methods: The Varian® Trilogy® (2300C/D) accelerator model was accurately implemented using the state-of-the-art Monte Carlo simulation program BEAMNRC and validated against off-axis and depth dose profiles measured using ionization chambers, by adjusting the energy and the full width at half maximum (FWHM) of the initial electron beam. The HD120 MLC was modeled by developing a new BEAMNRC component module (CM), designated HDMLC, adapting the available DYNVMLC CM and incorporating the specific characteristics of this new micro MLC. The leaf dimensions were provided by the manufacturer. The geometry was visualized by tracing particles through the CM and recording their position when a leaf boundary is crossed. The leaf material density and abutting air gap between leaves were adjusted in order to obtain a good agreement between the simulated leakage profiles and EBT2 film measurements performed in a solid water phantom. To validate the HDMLC implementation, additional MLC static patterns were also simulated and compared to additional measurements. Furthermore, the ability to simulate dynamic MLC fields was implemented in the HDMLC CM. The simulation results of these fields were compared with EBT2 film measurements performed in a solid water phantom. Results: Overall, the discrepancies, with and without MLC, between the opened field simulations and the measurements using ionization chambers in a water phantom, for the off-axis profiles are below 2% and in depth-dose profiles are below 2% after the maximum dose depth and below 4% in the build-up region. On the conditions of these simulations, this tungsten-based MLC has a density of 18.7 g cm− 3 and an overall leakage of about 1.1 ± 0.03%. The discrepancies between the film measured and simulated closed and blocked fields are below 2% and 8%, respectively. Other measurements were performed for alternated leaf patterns and the agreement is satisfactory (to within 4%). The dynamic mode for this MLC was implemented and the discrepancies between film measurements and simulations are within 4%. Conclusions: The Varian® Trilogy® (2300 C/D) linear accelerator including the HD120 MLC was successfully modeled and simulated using the Monte CarloBEAMNRC code by developing an independent CM, the HDMLC CM, either in static and dynamic modes.
Resumo:
Mestrado em Engenharia Geotécnica e Geoambiente
Resumo:
Este trabalho insere-se no domínio da calibração energética dos equipamentos SPT, dando seguimento ao disposto na norma EN ISO 22476-3, de aplicação obrigatória em Portugal. Para tal foi utilizada uma vara instrumentada, cuja instrumentação consiste em strain-gauges e acelerómetros piezoeléctricos. Esta instrumentação encontra-se fixa a um trecho de vara com comprimento de 60 cm e para a aquisição dos dados foi utilizado o sistema SPT Analyzer® comercializado pela firma PDI. O sistema permite registar os dados provenientes da instrumentação: sinais de um par de strain-gauges, transformados em registos de força (F1 e F2) e sinais de um par de acelerómetros, convertidos em registos de velocidade (V1 e V2) ao longo do tempo. O equipamento permite a avaliação, em tempo real, da qualidade dos registos e da energia máxima transmitida à vara em cada golpe e o conhecimento do deslocamento vertical do trem de varas ocorrido em cada golpe do martelo. Por outro lado, baseando-se no tema acima referido, pretende-se ainda desenvolver esforços no sentido de melhorar o novo método interpretativo dos resultados dos ensaios SPT e sua aplicação ao dimensionamento de estacas, dado que a previsão da capacidade de carga de estacas constitui um dos desafios da engenharia de fundações por requerer a estimativa de propriedades do solo, alterações pela execução da fundação e conhecimento do mecanismo de interacção solo-estaca. Este novo procedimento baseia-se nos princípios da dinâmica, rompendo com as metodologias até aqui consagradas, de natureza essencialmente empírica. A nova forma de interpretar os ensaios SPT, consubstanciada nos princípios de conservação de energia na cravação do amostrador SPT, irá permitir converter analiticamente o valor Nspt numa força dinâmica de reacção à penetração. A decomposição desta força dinâmica permite efectuar análises comparativas entre as resistências unitárias mobilizadas no amostrador SPT (modelo) e as mobilizadas na estaca (protótipo).
Resumo:
Este artigo abordará as relações sociais dos bebês a partir da brincadeira, no sentido de apresentar orientações para a docência na educação infantil com crianças bem pequenas. O quadro teórico metodológico se situa na interlocução entre as áreas da Pedagogia da Infância e da Sociologia da Infância. Toma por base uma investigação sobre a ação social dos bebês na creche, que tinha como preocupação central conhecer os bebês e as suas ações no sentido de pensar a prática pedagógica junto das crianças bem pequenas. Trata-se de um estudo etnográfico com um grupo de bebês e profissionais, que com eles atuavam, numa creche em Braga. Para a compreensão da estruturação das ações e relações sociais pelos bebês foram desenvolvidas observações participantes, com registos em diário de campo e vídeo, o que permitiu uma aproximação bastante profícua das experiências cotidianas das crianças.
Resumo:
Esta tese descreve o desenvolvimento do hardware e do software de um sistema com a capacidade de reconhecer o número de passos que uma pessoa efectua durante uma actividade física. O sistema consiste num acelerómetro controlado por um microcontrolador, que comunica com um dispositivo móvel através de Bluetooth. De modo a realizar o sistema foi necessário analisar uma vasta bibliografia, para conhecer o estado da arte desta tecnologia, entender o princípio de funcionamento do protocolo Bluetooth e os conceitos biomecânicos por detrás da marcha humana. A proposta deste trabalho apresentava como elemento diferenciador do estado da arte o uso de um acelerómetro em conjunto com sensores de pressão. Com a conjugação destes sensores pretendia-se aumentar a precisão de um equipamento que normalmente não é reconhecido por essa característica. Contudo, a indisponibilidade dos sensores de pressão levou a que o sistema só fosse constituído pelo acelerómetro. Embora, o sistema foi projectado considerando que os sensores de pressão serão incluídos num futuro desenvolvimento. Neste trabalho foram desenvolvidos dois algoritmos para detectar os passos que uma pessoa executa, com pé onde é colocado o sensor, quando caminha ou corre. Num dos testes realizados o algoritmo da “aceleração composta” detectou 84% dos passos, enquanto o algoritmo da “aceleração simples”detectou 99%. A plataforma para a interface gráfica pretendia-se que fosse um telemóvel, contudo não foi possível obter um telemóvel que suporta-se o perfil SPP (Serial Port Profile), necessário para a comunicação com o módulo Bluetooth usado. A solução passou por usar como plataforma um computador portátil com Bluetooth, para o qual foi desenvolvido a aplicação “Pedómetro ISEP” em Visual Basic. O “Pedómetro ISEP” apresenta várias funcionalidades, entre elas destaca-se o cálculo da distância percorrida, da velocidade, e das calorias consumidas, bem como, o registo desses valores em tabelas e da possibilidade de desenhar os gráficos representativos do progresso do utilizador.
Resumo:
A sociedade contemporânea tem acompanhado a evolução da Internet, ligando cada vez mais pessoas que exigem mais dela a cada dia que passa e desencadeando uma proliferação tecnológica nunca antes observada. A utilização de recursos, como vídeo e áudio na Internet, tem ganho nos últimos anos um crescente interesse. No entanto, constata-se a carência ou falta de recursos educativos digitais na área do áudio, que sejam capazes de apresentar uma pedagogia eficiente face a um tema muito complexo e extenso, para todos aqueles que queiram aprender de forma mais aprofundada o áudio como componente de engenharia. Na internet, sites de vídeos como Youtube ensinam a usar software de edição de áudio como Audacity, conceitos sobre som e áudio. Contudo, todos estão espalhados, sendo que a maior parte deles não possui fundamentos científicos ou uma bibliografia que acompanhe os conteúdos que leccionam. A proposta desta investigação é pesquisar sobre conhecimentos e recursos de áudio, integrando-os num produto Learning Object, Investigar noções teóricas sobre o som, equipamentos e técnicas usadas na área, assim como obter melhores resultados num espaço para a gravação que o aluno poderia fazer, aglomerando esses conceitos num protótipo mediamente desenvolvido. Foi necessária uma investigação extensa nesta área e avaliar e investigar a possibilidade de um recurso educativo, como o DALCH, capaz de proporcionar uma aprendizagem efectiva dos conceitos relacionados com áudio, que é um conceito complexo. Uma vez realizada essa investigação, foi necessário desenvolver, testar e avaliar um produto Learning Object, que apresentasse o áudio na sua globalidade, desde conceitos básicos até conceitos inerentes à própria produção. Foi possível aferir que esta solução pode contribuir para a formação desses alunos mediante uma experiência de aprendizagem agradável e intuitiva.
Resumo:
O telemóvel tem-se transformado numa ferramenta essencial no nosso dia-a-dia, constantemente são lançadas novas tecnologias que potenciam o uso do telemóvel nas tarefas do nosso quotidiano. Atualmente a grande tendência passa por fazer o download de aplicações com o objetivo de obter mais e diferentes tipos de informação, existe o desejo de ler de forma simples e intuitiva o mundo que nos rodeia, como se cada elemento fosse um objeto sobre o qual conseguiremos obter informação através do telemóvel. A tecnologia Near Field Communication (NFC) ajuda a transformar este desejo ou necessidade numa realidade de simples alcance. Podemos anexar “identificadores” nos objetos e “ver” estes identificadores através do telemóvel recorrendo a aplicações que fazem a ponte com os sistemas que nos permitem obter mais informação, por exemplo, internet. O NFC especifica um padrão de comunicação de redes sem fios, que permite a transferência de dados entre dois dispositivos separados por uma distância máxima de 10cm. NFC foi desenhado para ser integrado em telemóveis, que podem comunicar com outros telemóveis equipados com NFC ou ler informação de cartões ou tags. A dissertação avalia as oportunidades que a tecnologia NFC oferece ao mundo das telecomunicações móveis, nomeadamente na realidade do operador Vodafone Portugal, principalmente numa relação Empresa - Cliente. Esta tecnologia reúne o interesse dos fabricantes dos telemóveis, dos operadores e de parceiros críticos que vão ajudar a potenciar o negócio, nomeadamente entidades bancárias e interbancárias. A tecnologia NFC permite utilizar o telemóvel como um cartão de crédito/debito, ticketing, ler informação de posters (Smart Poster) que despoletem navegação contextualizada para outras aplicações ou para a internet para obter mais informação ou concretizar compras, estes são alguns cenários identificados que mais valor o NFC consegue oferecer. A dissertação foca-se na avaliação técnica do NFC na área de Smart Posters e resulta na identificação num conjunto de novos cenários de utilização, que são especificados e complementados com o desenvolvimento de um protótipo.
Resumo:
When a mixture is confined, one of the phases can condense out. This condensate, which is otherwise metastable in the bulk, is stabilized by the presence of surfaces. In a sphere-plane geometry, routinely used in atomic force microscope and surface force apparatus, it, can form a bridge connecting the surfaces. The pressure drop in the bridge gives rise to additional long-range attractive forces between them. By minimizing the free energy of a binary mixture we obtain the force-distance curves as well as the structural phase diagram of the configuration with the bridge. Numerical results predict a discontinuous transition between the states with and without the bridge and linear force-distance curves with hysteresis. We also show that similar phenomenon can be observed in a number of different systems, e.g., liquid crystals and polymer mixtures. (C). 2004 American Institute of Physics.
Resumo:
The Schwinger proper-time method is an effective calculation method, explicitly gauge-invariant and nonperturbative. We make use of this method to investigate the radiatively induced Lorentz- and CPT-violating effects in quantum electrodynamics when an axial-vector interaction term is introduced in the fermionic sector. The induced Lorentz- and CPT-violating Chern-Simons term coincides with the one obtained using a covariant derivative expansion but differs from the result usually obtained in other regularization schemes. A possible ambiguity in the approach is also discussed. (C) 2001 Published by Elsevier Science B.V.