934 resultados para Minimum Entropy Deconvolution


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this work is to predict the minimum fluidization velocity Umf in a gas-solid fluidized bed. The study was carried out with an experimental apparatus for sand particles with diameters between 310μm and 590μm, and density of 2,590kg/m3. The experimental results were compared with numerical simulations developed in MFIX (Multiphase Flow with Interphase eXchange) open source code [1], for three different sizes of particles: 310mum, 450μm and 590μm. A homogeneous mixture with the three kinds of particles was also studied. The influence of the particle diameter was presented and discussed. The Ergun equation was also used to describe the minimum fluidization velocity. The experimental data presented a good agreement with Ergun equation and numerical simulations. Copyright © 2011 by ASME.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Voltage source inverters use large electrolytic capacitors in order to decouple the energy between the utility and the load, keeping the DC link voltage constant. Decreasing the capacitance reduces the distortion in the inverter input current but this also affects the load with low-order harmonics and generate disturbances at the input voltage. This paper applies the P+RES controller to solve the challenge of regulating the output current by means of controlling the magnitude of the current space vector, keeping it constant thus rejecting harmonic disturbances that would otherwise propagate to the load. This work presents a discussion of the switching and control strategy. © 2011 IEEE.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study reports the effects of dexmedetomidine on the minimum alveolar concentration of isoflurane (MAC iso) in cats. Six healthy adult female cats were used. MAC iso and dexmedetomidine pharmacokinetics had previously been determined in each individual. Cats were anesthetized with isoflurane in oxygen. Dexmedetomidine was administered intravenously using target-controlled infusions to maintain plasma concentrations of 0.16, 0.31, 0.63, 1.25, 2.5, 5, 10, and 20ng/mL. MAC iso was determined in triplicate at each target plasma dexmedetomidine concentration. Blood samples were collected and analyzed for dexmedetomidine concentration. The following model was fitted to the concentration-effect data: where MAC iso.c is MAC iso at plasma dexmedetomidine concentration C, MAC iso.0 is MAC iso in the absence of dexmedetomidine, I max is the maximum possible reduction in MAC iso, and IC 50 is the plasma dexmedetomidine concentration producing 50% of I max. Mean±SE MAC iso.0, determined in a previous study conducted under conditions identical to those in this study, was 2.07±0.04. Weighted mean±SE I max, and IC 50 estimated by the model were 1.76±0.07%, and 1.05±0.08ng/mL, respectively. Dexmedetomidine decreased MAC iso in a concentration-dependent manner. The lowest MAC iso predicted by the model was 0.38±0.08%, illustrating that dexmedetomidine alone is not expected to result in immobility in response to noxious stimulation in cats at any plasma concentration. © 2011 Blackwell Publishing Ltd.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The results of the histopathological analyses after the implantation of highly crystalline PVA microspheres in subcutaneous tissues of Wistar rats are here in reported. Three different groups of PVA microparticles were systematically studied: highly crystalline, amorphous, and commercial ones. In addition to these experiments, complementary analyses of architectural complexity were performed using fractal dimension (FD), and Shannon's entropy (SE) concepts. The highly crystalline microspheres induced inflammatory reactions similar to the ones observed for the commercial ones, while the inflammatory reactions caused by the amorphous ones were less intense. Statistical analyses of the subcutaneous tissues of Wistar rats implanted with the highly crystalline microspheres resulted in FD and SE values significantly higher than the statistical parameters observed for the amorphous ones. The FD and SE parameters obtained for the subcutaneous tissues of Wistar rats implanted with crystalline and commercial microparticles were statistically similar. Briefly, the results indicated that the new highly crystalline microspheres had biocompatible behavior comparable to the commercial ones. In addition, statistical tools such as FD and SE analyses when combined with histopathological analyses can be useful tools to investigate the architectural complexity tissues caused by complex inflammatory reactions. © 2012 WILEY PERIODICALS, INC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

AIM: To compare five different protocols for estimating the lactate minimum speed (LMS) with that for estimating the maximal lactate steady state (MLSS) in Arabian horses, in order to obtain a more rapid method for monitoring aerobic capacity and prescribing training schedules. METHODS: Eight purebred Arabian horses were conditioned to exercise on a treadmill for 12 days then submitted to three to five exercise sessions to determine the MLSS. Blood samples were collected from a jugular catheter at specific intervals for measurement of lactate concentrations. The MLSS was the velocity maintained during the last 20 minutes of constant submaximal exercise, at which the concentration of lactate increased by no more than 1.0 mmol/L. The LMS test protocols (P1 - P5) included a warm-up period followed by a high-intensity gallop. The speed was then reduced to 4 m/s, and the incremental portion of the test was initiated. In P1, P2, and P3, the velocity increment was 0.5 m/s, and the duration of each incremental stage was three, five and seven minutes, respectively. In P4 and P5, the velocity increments were 1.0 and 1.5 m/s, respectively, and the duration of the stages was fixed at five minutes each. A second-degree polynomial function was fitted to the lactate-velocity curve, and the velocity corresponding to the lowest concentration of lactate was the LMS. RESULTS: Only the mean LMS determined by P1 and P2 did not differ from the velocity determined by the MLSS test (p > 0.1). There was a strong correlation (r >0.6) between P1 and the MLSS velocity. A limits of agreement plot revealed that the best agreement occurred between the MLSS test and P1 (mean bias = 0.14 m/s), followed by P2 (bias = -0.22 m/s). The lactate concentrations associated with the various LMS protocols did not differ. CONCLUSIONS: This study shows the variation between protocols of the LMS test for determining the onset of blood lactate accumulation but also reveals that, at least for Arabian horses, the P1 protocol of the LMS has good agreement with the MLSS. © 2013 Copyright New Zealand Veterinary Association.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The influenza virus has been a challenge to science due to its ability to withstand new environmental conditions. Taking into account the development of virus sequence databases, computational approaches can be helpful to understand virus behavior over time. Furthermore, they can suggest new directions to deal with influenza. This work presents triplet entropy analysis as a potential phylodynamic tool to quantify nucleotide organization of viral sequences. The application of this measure to segments of hemagglutinin (HA) and neuraminidase (NA) of H1N1 and H3N2 virus subtypes has shown some variability effects along timeline, inferring about virus evolution. Sequences were divided by year and compared for virus subtype (H1N1 and H3N2). The nonparametric Mann-Whitney test was used for comparison between groups. Results show that differentiation in entropy precedes differentiation in GC content for both groups. Considering the HA fragment, both triplet entropy as well as GC concentration show intersection in 2009, year of the recent pandemic. Some conclusions about possible flu evolutionary lines were drawn. © 2013 Elsevier B.V.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The purpose of this study was to validate the lactate minimum test as a specific aerobic evaluation protocol for table tennis players. Using the frequency of 72 balls·min-1 for 90 sec, an exercise-induced metabolic acidosis was determined in 8 male table tennis players. The evaluation protocol began with a frequency of 40 balls·min-1 followed by an increase of 8 balls·min-1 every 3 min until exhaustion. The mean values that corresponded to the subjects' lactate minimum (Lacmin) were equal to 53.1 ± 1.5 balls·min-1 [adjusted for the time test (Lacmin_time)] and 51.6 ± 1.6 balls·min-1 [adjusted for the frequency of balls (Lacmin_Freq)], which resulted in a high correlation between the two forms of adjustment (r = 0.96 and (P = 0.01). The mean maximum lactate steady state (MLSS) was 52.6 ± 1.6 balls·min-1. Pearson's correlations between Lacmin_time vs. MLSS and Lacmin_freq vs. MLSS were statistically significant (P = 0.03 and r = 0.86, P = 0.03 and r = 0.85, respectively). These findings indicate that the Lacmin test predicts MLSS. Therefore, it is an excellent method to obtain the athletes' anaerobic threshold. Also, there is the advantage that it can be performed in 1 day in the game area. However, the Lacmin value does not depend on the Lacpeak value.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De origem asiática, a semente de linhaça (Linum usitatissimum L.) pertence à família das Lináceas e é obtida a partir do linho. A semente da linhaça é ainda a maior fonte alimentar de lignanas, compostos fotoquímicos parecidos com o estrogênio, que podem desempenhar ação anticancerígena. Rica em fibras solúveis tem aproximadamente 40% do seu peso composto por óleos ricos em Ômega 3, entre os quais se destaca o α-linolênico. A secagem é a operação unitária segundo o qual ocorre eliminação da água por evaporação ou sublimação, presente em um material, mediante a aplicação de calor com condições controladas. Visando averiguar o comportamento das sementes de linhaça durante a operação de secagem, o presente trabalho teve como objetivo principal realizar o planejamento experimental e analisar estatísticamente os resultados empregados para quantificar a influência da temperatura do ar (T), tempo de secagem (t), velocidade do ar de fluidização (Uf) e carga de sólidos (Cs), sobre a razão de umidade (Xr), rendimento em óleo (Rend.) e os parâmetros oleoquimicos. A estimativa do ponto ótimo de operação foi determinada em função das variáveis de entrada aplicando o conceito de desejabilidade global. Dentre as condições estabelecidas neste trabalho, o valor ótimo da Função Desejabilidade é quando T é deslocada próximo ao nível alto (72 oC), t para o mínimo (3 h), Uf para o ponto próximo ao central (0,83 m/s) e a Cs para o nível alto (500g), obtendo-se assim: 0,126 para Xr; 36,92 % para Rend.; 4,51 mg KOH/g para IA; 22,52 meqO2/Kg IP e 0,31% para DC. Foram obtidas as isotermas de dessorção das sementes de linhaça nas temperaturas de 40, 60 e 80°C. Os dados experimentais foram avaliados usando seis modelos matemáticos. A entalpia e a entropia diferencial de dessorção foram estimadas por meio das relações de Clausius-Clapeyron e Gibbs-Helmholtz, respectivamente. Os modelos de GAB e Peleg ajustaram adequadamente os dados experimentais. A teoria da compensação entalpia-entropia foi aplicada com sucesso às isotermas de dessorção e indica que o mecanismo de dessorção de umidade das sementes de linhaça pode ser considerado como controlado pela entalpia. A secagem das sementes de linhaça previamente umidificadas foram avaliadas em um secador de leito fixo e fluidizado, as corridas experimentais foram realizadas nas temperaturas de 40, 60 e 80°C, dentre dos cinco modelos propostos, o modelo de Midilli et al, foi o melhor modelo que melhor ajustou aos dados experimentais. Foi observado que a difusividade efetiva para as sementes de linhaça aumentou com a elevação da temperatura do ar de secagem para a secagem em leito fixo e fluidizado. A dependência da difusividade em relação à temperatura foi descrita pela equação de Arrhenius, por meio da qual se estimou para ambos os processos de secagem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo central deste trabalho é o estudo do desempenho do operador deconvolucional WHL na compressão do pulso-fonte sísmico, sob condições especiais de fase não-mínima e da densidade de eventos no traço, como casos advogados para dados reais e processamento em rotina. O método de ataque ao problema construído é centrado no conteúdo da informação da função autocorrelação submetida a diferentes condições: (a) de truncamento e tipo de janelas; (b) das características da fase do operador (se mínima ou não-mínima); (c) da medida de qualidade; (d) do nível de embranquecimento; (e) do ruído presente e da equalização; (f) do balanceamento do traço; (g) dos princípios físicos da propagação expressos e limitados pelo modelo convolutional. Os resultados obtidos são apenas na forma numérica, organizados na forma de álbuns com dificuldades crescentes, e demonstram como o uso de janelas na autocorrelação serve para diagnosticar e melhorar a performance dos operadores. Concluímos que muitas perguntas ainda surgem quando técnicas de deconvolução são aplicadas a seções sísmicas de bacias sedimentares, e que o modelo de Goupillaud é conveniente para simulações e análises devido a sua descrição matemática simples e completa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Um registro sísmico é frequentemente representado como a convolução de um pulso-fonte com a resposta do meio ao impulso, relacionada ao caminho da propagação. O processo de separação destes dois componentes da convolução é denominado deconvolução. Existe uma variedade de aproximações para o desenvolvimento de uma deconvolução. Uma das mais comuns é o uso da filtragem linear inversa, ou seja, o processamento do sinal composto, através de um filtro linear, cuja resposta de frequência é a recíproca da transformada de Fourier de um dos componentes do sinal. Obviamente, a fim de usarmos a filtragem inversa, tais componentes devem ser conhecidas ou estimadas. Neste trabalho, tratamos da aplicação a sinais sísmicos, de uma técnica de deconvolução não linear, proposta por Oppenheim (1965), a qual utiliza a teoria de uma classe de sistemas não lineares, que satisfazem um princípio generalizado de superposição, denominados de sistemas homomórficos. Tais sistemas são particularmente úteis na separação de sinais que estão combinados através da operação de convolução. O algoritmo da deconvolução homomórfica transforma o processo de convolução em uma superposição aditiva de seus componentes, com o resultado de que partes simples podem ser separadas mais facilmente. Esta classe de técnicas de filtragem representa uma generalização dos problemas de filtragem linear. O presente método oferece a considerável vantagem de que não é necessário fazer qualquer suposição prévia sobre a natureza do pulso sísmico fonte, ou da resposta do meio ao impulso, não requerendo assim, as considerações usuais de que o pulso seja de fase-mínima e que a distribuição dos impulsos seja aleatória, embora a qualidade dos resultados obtidos pela análise homomórfica seja muito sensível à razão sinal/ruído, como demonstrado.