69 resultados para compression reinforcement
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
The Wyner-Ziv video coding (WZVC) rate distortion performance is highly dependent on the quality of the side information, an estimation of the original frame, created at the decoder. This paper, characterizes the WZVC efficiency when motion compensated frame interpolation (MCFI) techniques are used to generate the side information, a difficult problem in WZVC especially because the decoder only has available some reference decoded frames. The proposed WZVC compression efficiency rate model relates the power spectral of the estimation error to the accuracy of the MCFI motion field. Then, some interesting conclusions may be derived related to the impact of the motion field smoothness and the correlation to the true motion trajectories on the compression performance.
Resumo:
Lossless compression algorithms of the Lempel-Ziv (LZ) family are widely used nowadays. Regarding time and memory requirements, LZ encoding is much more demanding than decoding. In order to speed up the encoding process, efficient data structures, like suffix trees, have been used. In this paper, we explore the use of suffix arrays to hold the dictionary of the LZ encoder, and propose an algorithm to search over it. We show that the resulting encoder attains roughly the same compression ratios as those based on suffix trees. However, the amount of memory required by the suffix array is fixed, and much lower than the variable amount of memory used by encoders based on suffix trees (which depends on the text to encode). We conclude that suffix arrays, when compared to suffix trees in terms of the trade-off among time, memory, and compression ratio, may be preferable in scenarios (e.g., embedded systems) where memory is at a premium and high speed is not critical.
Resumo:
Reinforcement Learning is an area of Machine Learning that deals with how an agent should take actions in an environment such as to maximize the notion of accumulated reward. This type of learning is inspired by the way humans learn and has led to the creation of various algorithms for reinforcement learning. These algorithms focus on the way in which an agent’s behaviour can be improved, assuming independence as to their surroundings. The current work studies the application of reinforcement learning methods to solve the inverted pendulum problem. The importance of the variability of the environment (factors that are external to the agent) on the execution of reinforcement learning agents is studied by using a model that seeks to obtain equilibrium (stability) through dynamism – a Cart-Pole system or inverted pendulum. We sought to improve the behaviour of the autonomous agents by changing the information passed to them, while maintaining the agent’s internal parameters constant (learning rate, discount factors, decay rate, etc.), instead of the classical approach of tuning the agent’s internal parameters. The influence of changes on the state set and the action set on an agent’s capability to solve the Cart-pole problem was studied. We have studied typical behaviour of reinforcement learning agents applied to the classic BOXES model and a new form of characterizing the environment was proposed using the notion of convergence towards a reference value. We demonstrate the gain in performance of this new method applied to a Q-Learning agent.
Resumo:
The effects of the Miocene through Present compression in the Tagus Abyssal Plain are mapped using the most up to date available to scientific community multi-channel seismic reflection and refraction data. Correlation of the rift basin fault pattern with the deep crustal structure is presented along seismic line IAM-5. Four structural domains were recognized. In the oceanic realm mild deformation concentrates in Domain I adjacent to the Tore-Madeira Rise. Domain 2 is characterized by the absence of shortening structures, except near the ocean-continent transition (OCT), implying that Miocene deformation did not propagate into the Abyssal Plain, In Domain 3 we distinguish three sub-domains: Sub-domain 3A which coincides with the OCT, Sub-domain 3B which is a highly deformed adjacent continental segment, and Sub-domain 3C. The Miocene tectonic inversion is mainly accommodated in Domain 3 by oceanwards directed thrusting at the ocean-continent transition and continentwards on the continental slope. Domain 4 corresponds to the non-rifted continental margin where only minor extensional and shortening deformation structures are observed. Finite element numerical models address the response of the various domains to the Miocene compression, emphasizing the long-wavelength differential vertical movements and the role of possible rheologic contrasts. The concentration of the Miocene deformation in the transitional zone (TC), which is the addition of Sub-domain 3A and part of 3B, is a result of two main factors: (1) focusing of compression in an already stressed region due to plate curvature and sediment loading; and (2) theological weakening. We estimate that the frictional strength in the TC is reduced in 30% relative to the surrounding regions. A model of compressive deformation propagation by means of horizontal impingement of the middle continental crust rift wedge and horizontal shearing on serpentinized mantle in the oceanic realm is presented. This model is consistent with both the geological interpretation of seismic data and the results of numerical modelling.
Resumo:
Purpose: Evaluate the type of breast compression (gradual or no gradual) that provides less discomfort to the patient. Methods and Materials: The standard projections were simulated [craniocaudal/(CC) and mediolateral-oblique/(MLO)] with the two breast compressions in 90 volunteers women aged between 19 and 86. The women were organised in groups according to the breast density. The intensity of discomfort was evaluated using the scale that have represented several faces (0-10) proposed by Wong Baker in the end of each simulation. It was also applied an interview using focus group to debate the score that were attributed during pain evaluation and to identify the criteria that were considered to do the classification. Results: The women aged between 19-29y (with higher breast density) classified the pain during no gradual compression as 4 and the gradual compression as 2 for both projections. The MLO projection was considered the most uncomfortable. During the focus group interview applied to this group was highlighted that compression did not promoted pain but discomfort. They considered that the high expectations of pain did not correspond to the discomfort that they felt. Similar results were identified for the older women (30-50y; > 50y). Conclusion: The radiographers should considerer the technique for breast compression. The gradual compression was considered for the majority of the women as the most comfortable regardless of breast density. The MLO projection was considered as uncomfortable due to the positioning (axila and inclusion of pectoral muscle) and due to the higher breast compression compared to the CC projection.
Resumo:
The incorporation of small amount of highly anisotropic nanoparticles into liquid crystalline hydroxypropylcellulose (LC-HPC) matrix improves its response when is exposed to humidity gradients due to an anisotropic increment of order in the structure. Dispersed nanoparticles give rise to faster order/disorder transitions when exposed to moisture as it is qualitatively observed and quantified by stress-time measurements. The presence of carbon nanotubes derives in a improvement of the mechanical properties of LC-HPC thin films.
Resumo:
Arguably, the most difficult task in text classification is to choose an appropriate set of features that allows machine learning algorithms to provide accurate classification. Most state-of-the-art techniques for this task involve careful feature engineering and a pre-processing stage, which may be too expensive in the emerging context of massive collections of electronic texts. In this paper, we propose efficient methods for text classification based on information-theoretic dissimilarity measures, which are used to define dissimilarity-based representations. These methods dispense with any feature design or engineering, by mapping texts into a feature space using universal dissimilarity measures; in this space, classical classifiers (e.g. nearest neighbor or support vector machines) can then be used. The reported experimental evaluation of the proposed methods, on sentiment polarity analysis and authorship attribution problems, reveals that it approximates, sometimes even outperforms previous state-of-the-art techniques, despite being much simpler, in the sense that they do not require any text pre-processing or feature engineering.
Resumo:
We use the first and second laws of thermodynamics to analyze the behavior of an ideal jet engine. Simple analytical expressions for the thermal efficiency, the overall efficiency, and the reduced thrust are derived. We show that the thermal efficiency depends only on the compression ratio r and on the velocity of the aircraft. The other two performance measures depend also on the ratio of the temperature at the turbine to the inlet temperature in the engine, T-3/T-i. An analysis of these expressions shows that it is not possible to choose an optimal set of values of r and T-3/T-i that maximize both the overall efficiency and thrust. We study how irreversibilities in the compressor and the turbine decrease the overall efficiency of jet engines and show that this effect is more pronounced for smaller T-3/T-i.
Resumo:
Neste trabalho efectuou-se o desenvolvimento de métodos de purificação de princípios activos farmacêuticos utilizando a cromatografia preparativa em coluna (eluição batch). Por motivos de confidencialidade as amostras tiveram a denominação de Amostra Projecto A, Amostra Projecto B, Amostra Projecto C e Amostra 2 - Projecto A. Estudou-se a performance de coluna para cada projecto utilizando colunas pré-preparadas e colunas preparadas com a tecnologia DAC (Dynamical Axial Compression). Elaborou-se o procedimento experimental de enchimento de colunas preparativas sob compressão axial. As impurezas isoladas por cromatografia preparativa foram sujeitas a caracterização HPLC e LC-MS. Com colunas pré-preparadas, obteve-se para a amostra do projecto A um rendimento de 70,59% e relativamente à amostra projecto B obteve-se u, rendimento de 15,39%. Relativamente à impureza isolada da amostra do projecto A, o estudo por HPLC revelou 98,69% de pureza, quanto à impureza da amostra projecto B obteve-se 88,80% de pureza. A impureza da amostra do projecto A exibiu por LC-MS a massa de 467,15 enquanto que a impureza da amostra do projecto B obteve 503,31. O enchimento de colunas preparativas sob pressão axial dinâmica foi realizado numa coluna de dimensão 260 X 25 mm, onde 76,60% da coluna foi compactada com o material de enchimento SepTech ST150-C18, 10 µm. A coluna foi testada com a impureza isolada do projecto A. Isolou-se o pico referente à impureza, e por LC-MS verificou-se que a impureza foi isolada eficientemente com 97,20& de pureza e massa 467,15 como indicado anteriormente. Em relação à preparação de colunas com a tecnologia DAC concluímos que, neste caso, é mais vantajoso realizar o enchimento das colunas do que efectuar a compra de colunas pré-preparadas. Com estes resultados pode-se concluir que a cromatografia preparativa é um método eficaz no isolamento de impurezas de APIs (Active Pharmaceutical Ingredients) face a métodos de purificação clássicos que foram realizados previamente noutros estudos. Com futuros desenvolvimentos e investimentos, facilmente poderá tornar-se num método de purificação indispensável na Indústria de Química Fina.
Resumo:
Wyner - Ziv (WZ) video coding is a particular case of distributed video coding (DVC), the recent video coding paradigm based on the Slepian - Wolf and Wyner - Ziv theorems which exploits the source temporal correlation at the decoder and not at the encoder as in predictive video coding. Although some progress has been made in the last years, WZ video coding is still far from the compression performance of predictive video coding, especially for high and complex motion contents. The WZ video codec adopted in this study is based on a transform domain WZ video coding architecture with feedback channel-driven rate control, whose modules have been improved with some recent coding tools. This study proposes a novel motion learning approach to successively improve the rate-distortion (RD) performance of the WZ video codec as the decoding proceeds, making use of the already decoded transform bands to improve the decoding process for the remaining transform bands. The results obtained reveal gains up to 2.3 dB in the RD curves against the performance for the same codec without the proposed motion learning approach for high motion sequences and long group of pictures (GOP) sizes.
Resumo:
A compactação dos equipamentos de tecnologia de informação e os aumentos simultâneos no consumo de energia dos processadores levam a que seja assegurada a distribuição adequada de ar frio, a remoção do ar quente, a capacidade adequada de arrefecimento e uma diminuição do consumo de energia. Considerando-se a cogeração como uma alternativa energeticamente eficiente em relação a outros métodos de produção de energia, com este trabalho faz-se a análise à rentabilidade de uma eventual integração de um sistema de cogeração num centro informático.
Resumo:
De entre todos os paradigmas de aprendizagem actualmente identificados, a Aprendizagem por Reforço revela-se de especial interesse e aplicabilidade nos inúmeros processos que nos rodeiam: desde a solitária sonda que explora o planeta mais remoto, passando pelo programa especialista que aprende a apoiar a decisão médica pela experiencia adquirida, até ao cão de brincar que faz as delícias da criança interagindo com ela e adaptando-se aos seus gostos, e todo um novo mundo que nos rodeia e apela crescentemente a que façamos mais e melhor nesta área. Desde o aparecimento do conceito de aprendizagem por reforço, diferentes métodos tem sido propostos para a sua concretização, cada um deles abordando aspectos específicos. Duas vertentes distintas, mas complementares entre si, apresentam-se como características chave do processo de aprendizagem por reforço: a obtenção de experiência através da exploração do espaço de estados e o aproveitamento do conhecimento obtido através dessa mesma experiência. Esta dissertação propõe-se seleccionar alguns dos métodos propostos mais promissores de ambas as vertentes de exploração e aproveitamento, efectuar uma implementação de cada um destes sobre uma plataforma modular que permita a simulação do uso de agentes inteligentes e, através da sua aplicação na resolução de diferentes configurações de ambientes padrão, gerar estatísticas funcionais que permitam inferir conclusões que retractem entre outros aspectos a sua eficiência e eficácia comparativas em condições específicas.
Resumo:
Um dos objetivos da presente dissertação consiste em estimar o recurso eólico num determinado local com base em dados de velocidade e direção de vento de outro local. Para esta estimativa, é utilizado um método que faz a extrapolação dos dados de vento do local onde as medições de velocidade e direção de vento foram realizadas para o local onde se quer estimar o recurso eólico, permitindo assim fazer uma avaliação da potência disponível que se pode obter para uma dada configuração de turbinas eólicas e tendo em consideração fatores topográficos tais como a rugosidade, orografia da superfície e também obstáculos em redor. Este método foi aplicado usando a ferramenta computacional, Wind Atlas Analysis and Aplication Program (WAsP), de modo a avaliar a potência média de um parque eólico na região de Osório, Brasil. O outro objetivo desta dissertação consiste no estudo e definição da melhor ligação do referido parque eólico à rede elétrica local. Para o efeito e após modelização da rede elétrica foram identificados os reforços de rede necessários na zona que irá receber a nova potência do parque eólico. No estudo em causa foram avaliadas quatro alternativas de ligação do parque eólico à rede. A escolha da melhor alternativa de ligação foi efetuada tendo por base uma análise de relação entre benefício de perdas da rede e custos de reforço da rede local.
Resumo:
Este trabalho Final de Mestrado consiste na elaboração de um relatório de estágio que reportará o acompanhamento por parte do discente de um reforço estrutural de uma edificação pombalina. Desta forma são definidas as principais características construtivas destas edificações, fazendo um enquadramento histórico-cultural e urbanístico do edifício alvo deste trabalho. Uma vez estudado um tipo de construção especial, são mencionados diversos sistemas e metodologias de reforço que se adequam às características singulares destas construções, ilustrando-se procedimentos e técnicas que normalmente são utilizadas na reabilitação. Procedeu-se ao relato dos trabalhos executados na obra, desde a demolição dos elementos degradados e dissonantes com esta tipologia construtiva, a um estudo mais pormenorizado ao solo de fundação encontrado na zona da edificação e soluções de fundação adoptadas. São descritas neste trabalho quais as medidas adoptadas no reforço da estrutura da edificação, evidenciando os procedimentos e técnicas aplicadas pela empresa. No final deste trabalho, foi efectuada uma modelação do edifício da Rua do Carmo num software de análise estrutural SAP 2000, com o objectivo de modelar de forma aproximada a real geometria do edifício e, através da introdução das variadas acções actuantes na estrutura, fazer determinadas considerações do comportamento da mesma face às solicitações impostas. Pretendeu-se ainda estabelecer uma relação entres os resultados obtidos e as técnicas de reforço utilizadas na reabilitação destes edifícios.
Resumo:
O presente trabalho aborda a questão do comportamento e influência estrutural da modelação de um núcleo de secção aberta de parede fina no modelo tridimensional de elementos finitos de um edifício de betão armado, composto por 5 pisos sujeito à acção sísmica regulamentar. Para o efeito, foram considerados os Eurocódigos estruturais, nomeadamente o Eurocódigo 0, Eurocódigo 1 e Eurocódigo 8. A fim de avaliar a importância do tipo de modelação destes elementos estruturais, elemento fundamental para a caracterização da resposta dinâmica, foi desenvolvido um estudo paramétrico, fazendo-se a análise de quatro formas distintas de modelação do mesmo núcleo. Para os mesmos casos de carregamento, é feita uma análise comparativa entre os resultados obtidos a nível de períodos, percentagem de armadura nos pilares e no próprio núcleo bem como os deslocamentos para os modelos em estudo, com recurso a um programa de cálculo automático. O edifício considerado neste trabalho foi modelado com base no programa comercial de cálculo automático SAP 2000 versão 14.4. Posteriormente apresentam-se e discutem-se os resultados obtidos nos vários modelos em causa e para as várias situações propostas ao longo do trabalho.