922 resultados para Static verification
Resumo:
Prior theoretical studies indicate that the negative spatial derivative of the electric field induced by magnetic stimulation may he one of the main factors contributing to depolarization of the nerve fiber. This paper studies this parameter for peripheral nerve stimulation (PNS) induced by time.-varying gradient fields during MRI scans. The numerical calculations are based on an efficient, quasi-static, finite-difference scheme and an anatomically realistic human, full-body model. Whole-body cylindrical and planar gradient sets in MRI systems and various input signals have been explored. The spatial distributions of the induced electric field and their gradients are calculated and attempts are made to correlate these areas with reported experimental stimulation data. The induced electrical field pattern is similar for both the planar coils and cylindrical coils. This study provides some insight into the spatial characteristics of the induced field gradients for PNS in MRI, which may be used to further evaluate the sites where magnetic stimulation is likely to occur and to optimize gradient coil design.
Resumo:
In modern magnetic resonance imaging (MRI), patients are exposed to strong, nonuniform static magnetic fields outside the central imaging region, in which the movement of the body may be able to induce electric currents in tissues which could be possibly harmful. This paper presents theoretical investigations into the spatial distribution of induced electric fields and currents in the patient when moving into the MRI scanner and also for head motion at various positions in the magnet. The numerical calculations are based on an efficient, quasi-static, finite-difference scheme and an anatomically realistic, full-body, male model. 3D field profiles from an actively shielded 4T magnet system are used and the body model projected through the field profile with a range of velocities. The simulation shows that it possible to induce electric fields/currents near the level of physiological significance under some circumstances and provides insight into the spatial characteristics of the induced fields. The results are extrapolated to very high field strengths and tabulated data shows the expected induced currents and fields with both movement velocity and field strength. (C) 2003 Elsevier Science (USA). All rights reserved.
Influence of magnetically-induced E-fields on cardiac electric activity during MRI: A modeling study
Resumo:
In modern magnetic resonance imaging (MRI), patients are exposed to strong, time-varying gradient magnetic fields that may be able to induce electric fields (E-fields)/currents in tissues approaching the level of physiological significance. In this work we present theoretical investigations into induced E-fields in the thorax, and evaluate their potential influence on cardiac electric activity under the assumption that the sites of maximum E-field correspond to the myocardial stimulation threshold (an abnormal circumstance). Whole-body cylindrical and planar gradient coils were included in the model. The calculations of the induced fields are based on an efficient, quasi-static, finite-difference scheme and an anatomically realistic, whole-body model. The potential for cardiac stimulation was evaluated using an electrical model of the heart. Twelve-lead electrocardiogram (ECG) signals were simulated and inspected for arrhythmias caused by the applied fields for both healthy and diseased hearts. The simulations show that the shape of the thorax and the conductive paths significantly influence induced E-fields. In healthy patients, these fields are not sufficient to elicit serious arrhythmias with the use of contemporary gradient sets. However, raising the strength and number of repeated switching episodes of gradients, as is certainly possible in local chest gradient sets, could expose patients to increased risk. For patients with cardiac disease, the risk factors are elevated. By the use of this model, the sensitivity of cardiac pathologies, such as abnormal conductive pathways, to the induced fields generated by an MRI sequence can be investigated. (C) 2003 Wiley-Liss, Inc.
Resumo:
Time motion analysis is extensively used to assess the demands of team sports. At present there is only limited information on the reliability of measurements using this analysis tool. The aim of this study was to establish the reliability of an individual observer's time motion analysis of rugby union. Ten elite level rugby players were individually tracked in Southern Hemisphere Super 12 matches using a digital video camera. The video footage was subsequently analysed by a single researcher on two occasions one month apart. The test-retest reliability was quantified as the typical error of measurement (TEM) and rated as either good (10% TEM). The total time spent in the individual movements of walking, jogging, striding, sprinting, static exertion and being stationary had moderate to poor reliability (5.8-11.1% TEM). The frequency of individual movements had good to poor reliability (4.3-13.6% TEM), while the mean duration of individual movements had moderate reliability (7.1-9.3% TEM). For the individual observer in the present investigation, time motion analysis was shown to be moderately reliable as an evaluation tool for examining the movement patterns of players in competitive rugby. These reliability values should be considered when assessing the movement patterns of rugby players within competition.
Resumo:
This paper conducts a dynamic stability analysis of symmetrically laminated FGM rectangular plates with general out-of-plane supporting conditions, subjected to a uniaxial periodic in-plane load and undergoing uniform temperature change. Theoretical formulations are based on Reddy's third-order shear deformation plate theory, and account for the temperature dependence of material properties. A semi-analytical Galerkin-differential quadrature approach is employed to convert the governing equations into a linear system of Mathieu-Hill equations from which the boundary points on the unstable regions are determined by Bolotin's method. Free vibration and bifurcation buckling are also discussed as subset problems. Numerical results are presented in both dimensionless tabular and graphical forms for laminated plates with FGM layers made of silicon nitride and stainless steel. The influences of various parameters such as material composition, layer thickness ratio, temperature change, static load level, boundary constraints on the dynamic stability, buckling and vibration frequencies are examined in detail through parametric studies.
Resumo:
For dynamic simulations to be credible, verification of the computer code must be an integral part of the modelling process. This two-part paper describes a novel approach to verification through program testing and debugging. In Part 1, a methodology is presented for detecting and isolating coding errors using back-to-back testing. Residuals are generated by comparing the output of two independent implementations, in response to identical inputs. The key feature of the methodology is that a specially modified observer is created using one of the implementations, so as to impose an error-dependent structure on these residuals. Each error can be associated with a fixed and known subspace, permitting errors to be isolated to specific equations in the code. It is shown that the geometric properties extend to multiple errors in either one of the two implementations. Copyright (C) 2003 John Wiley Sons, Ltd.
Resumo:
In Part 1 of this paper a methodology for back-to-back testing of simulation software was described. Residuals with error-dependent geometric properties were generated. A set of potential coding errors was enumerated, along with a corresponding set of feature matrices, which describe the geometric properties imposed on the residuals by each of the errors. In this part of the paper, an algorithm is developed to isolate the coding errors present by analysing the residuals. A set of errors is isolated when the subspace spanned by their combined feature matrices corresponds to that of the residuals. Individual feature matrices are compared to the residuals and classified as 'definite', 'possible' or 'impossible'. The status of 'possible' errors is resolved using a dynamic subset testing algorithm. To demonstrate and validate the testing methodology presented in Part 1 and the isolation algorithm presented in Part 2, a case study is presented using a model for biological wastewater treatment. Both single and simultaneous errors that are deliberately introduced into the simulation code are correctly detected and isolated. Copyright (C) 2003 John Wiley Sons, Ltd.
Resumo:
In response to recent reports of contamination of the nearshore marine environment along the Queensland coast by herbicides (including areas inside the Great Barrier Reef Marine Park), an ecotoxicological assessment was conducted of the impact of the herbicides diuron and atrazine on scleractinian corals. Pulse-amplitude modulated (PAM) chlorophyll fluorescence techniques were used to assess the herbicide effects on the symbiotic dinoflagellates within the tissues (in hospite) of 4 species of coral (Acropora formosa, Montipora digitata, Porites cylindrica, Seriatopora hystrix) in static toxicity tests, and in freshly isolated symbiotic dinoflagellates from Stylophora pistillata. Using change in the effective quantum yield (DeltaF/F-m') as an effect criterion, diuron (no observable effect concentration, NOEC = 0.3 mug 1(-1); lowest observable effect concentration, LOEC = 1 mug 1(-1); median effective concentration, EC50 4 to 6 mug 1(-1)) was found to be more toxic than atrazine (NOEC = 1 mug 1(-1), LOEC = 3 mug 1(-1), EC50 40 to 90 mug 1(-1)) in short-term (10 h) toxicity tests. In the tests with isolated algae, significant reductions in DeltaF/F-m' were recorded as low as 0.25 mug 1(-1) diuron (LOEC, EC50 = 5 mug 1(-1)). Time-course experiments indicated that the effects of diuron were rapid and reversible. At 10 mug 1(-1) diuron, DeltaF/F-m' was reduced by 25% in 20 to 30 min, and by 50% in 60 to 90 min. Recovery of DeltaF/F-m' in corals exposed to 10 mug 1(-1) diuron and then transferred to running seawater was slower, returning to within 10% of control values inside 1 to 7 h. The effect of a reduction in salinity (35 to 27%) on diuron toxicity (at 1 and 3 mug 1(-1) diuron) was tested to examine the potential consequences of contaminated coastal flood plumes inundating inshore reefs. DeltaF/F-m' was reduced in the diuron-exposed corals, but there was no significant interaction between diuron and reduced salinity seawater within the 10 h duration of the test. Exposure to higher (100 and 1000 mug 1(-1)) diuron concentrations for 96 h caused a reduction in DeltaF/F-m' the ratio variable to maximal fluorescence (F,1F.), significant loss of symbiotic dinoflagellates and pronounced tissue retraction, causing the corals to pale or bleach. The significance of the results in relation to diuron contamination of the coastal marine environment from terrestrial sources (mainly agricultural) and marine sources (antifouling paints) are discussed.
Resumo:
Regional commodity forecasts are being used increasingly in agricultural industries to enhance their risk management and decision-making processes. These commodity forecasts are probabilistic in nature and are often integrated with a seasonal climate forecast system. The climate forecast system is based on a subset of analogue years drawn from the full climatological distribution. In this study we sought to measure forecast quality for such an integrated system. We investigated the quality of a commodity (i.e. wheat and sugar) forecast based on a subset of analogue years in relation to a standard reference forecast based on the full climatological set. We derived three key dimensions of forecast quality for such probabilistic forecasts: reliability, distribution shift, and change in dispersion. A measure of reliability was required to ensure no bias in the forecast distribution. This was assessed via the slope of the reliability plot, which was derived from examination of probability levels of forecasts and associated frequencies of realizations. The other two dimensions related to changes in features of the forecast distribution relative to the reference distribution. The relationship of 13 published accuracy/skill measures to these dimensions of forecast quality was assessed using principal component analysis in case studies of commodity forecasting using seasonal climate forecasting for the wheat and sugar industries in Australia. There were two orthogonal dimensions of forecast quality: one associated with distribution shift relative to the reference distribution and the other associated with relative distribution dispersion. Although the conventional quality measures aligned with these dimensions, none measured both adequately. We conclude that a multi-dimensional approach to assessment of forecast quality is required and that simple measures of reliability, distribution shift, and change in dispersion provide a means for such assessment. The analysis presented was also relevant to measuring quality of probabilistic seasonal climate forecasting systems. The importance of retaining a focus on the probabilistic nature of the forecast and avoiding simplifying, but erroneous, distortions was discussed in relation to applying this new forecast quality assessment paradigm to seasonal climate forecasts. Copyright (K) 2003 Royal Meteorological Society.
Resumo:
A procura por madeiras oriundas de reflorestamentos destinadas à serraria é uma realidade já há muitos anos, principalmente aquelas das espécies do gênero Eucalyptus. Visando buscar novas informações importantes para esse mercado, este trabalho objetivou determinar algumas propriedades mecânicas da madeira de um híbrido clonal de Eucalyptus urophylla x Eucalyptus grandis de duas idades e provenientes de talhadia simples e de reforma. Os resultados indicaram que a madeira desse híbrido apresenta boas características tecnológicas, destacando-se a segunda tora (a partir de 3 m) com as melhores propriedades de flexão estática (Módulo de Elasticidade - MOE e Módulo de Ruptura - MOR) e Compressão Axial das fibras. As árvores de maior idade (166 meses) e que sofreram dois desbastes apresentaram as melhores propriedades de flexão estática e compressão axial.
Resumo:
Este trabalho objetivou testar a variação da flexão estática da madeira de Eucalyptus grandis, ao longo da seção radial e sob quatro diferentes idades (10, 14, 20 e 25 anos), provenientes de talhões comerciais. As amostras foram retiradas da prancha diametral, de cada uma das 16 árvores (quatro para cada idade), tomadas de quatro posições eqüidistantes (0, 33, 66 e 100%), no sentido medula-casca, com oito repetições por posição. Verificou-se que os módulos de elasticidade (MOE) e de ruptura (MOR) apresentaram valores médios de 129.230 kgf/cm2 e 854 kgf/cm2, respectivamente, e ambos se mostraram positivamente correlacionados com a idade e com a posição radial, no sentido medula-casca. Os maiores valores foram conseguidos nas madeiras de 20 anos de idade e localizadas na região mais próxima da casca.
Resumo:
Avaliaram-se a ação transovariana do lufenuron em Spodoptera frugiperda e sua seletividade ao parasitóide de ovos Trichogramma pretiosum. Casais da praga foram isolados em gaiolas de PVC e alimentados com solução de mel a 10% na testemunha, e nos outros tratamentos, foi adicionado à solução de mel o regulador de crescimento de insetos Match® CE nas proporções de 12,5; 15,0 e 17,5 g i.a/l. Para verificação da ação transovariana, diariamente foram coletadas as posturas, contado o número de ovos e, posteriormente, o número de larvas eclodidas. Quarenta ovos provenientes de cada tratamento foram colados em cartelas de papel (cartolina) e expostos ao parasitismo, dentro de tubos de vidro de 1,0 x 3,5 cm, contendo uma fêmea de T. pretiosum no seu interior. Cartelas contendo 40 ovos de S. frugiperda foram imersas em soluções de lufenuron com a mesma concentração dos tratamentos anteriores e, posteriormente, expostas ao parasitismo por T. pretiosum. O lufenuron afetou consideravelmente a viabilidade dos ovos de S. frugiperda. Pelos resultados obtidos nos ensaios, relativos ao parasitóide, demonstram-se a seletividade do regulador de crescimento lufenuron e a possibilidade de sua utilização em programas de Manejo Integrado, juntamente com o parasitóide de ovos T. pretiosum.
Resumo:
Introdução: O alongamento muscular é frequentemente utilizado nas práticas desportivas, com o objetivo de aumentar a flexibilidade muscular e amplitude articular, assim como diminuir o risco de lesões e melhorar o desempenho atlético. Objetivo: Analisar o efeito agudo do alongamento com diferentes tempos no desempenho da força dinâmica de membros superiores e inferiores em homens jovens. Métodos: Participaram da amostra 14 voluntários do sexo masculino com idade de 23 ± 2 anos, peso corporal de 84 ± 10kg, estatura de178 ± 7cm, IMC de 26 ± 2kg/m2 e percentual de gordura de 11 ± 3%. Eles foram avaliados com o teste de 10RM em três situações distintas: condição sem alongamento (SA), aquecimento especifico seguido do teste de 10-RM; condição com oito minutos de alongamento (AL-8), uma sessão de alongamento estático com oito minutos de duração, seguido do aquecimento e teste de 10RM; e a condição alongamento 16 minutos (AL-16), 16 minutos de alongamento seguidos dos procedimentos descritos anteriormente. Os testes foram feitos no supino reto e leg-press 45º; os alongamentos foram selecionados de forma a atingir as musculaturas solicitadas nos respectivos exercícios. Resultados: Houve redução de 9,2% da força muscular dinâmica de membros superiores em comparação dos grupos SA e AL16, e entre os grupos AL8 e AL16 (p < 0,001). Em membros inferiores essa redução de força (p < 0,001) foi de 4,8% para AL-8 e de 14,3% para AL-16 em comparação com o grupo SA. Conclusão: Sessões de alongamentos estáticos efetuados antes de atividades que envolvam força dinâmica possuem a capacidade de alterar negativamente o desempenho dessa qualidade física, acarretando pior rendimento em longos períodos de alongamento.
Resumo:
Este estudo teve como foco inicial de investigação o modo como livros didáticos de alfabetização propõem o estudo das relações entre sons e letras e letras e sons, e como essa dimensão se articula (ou não) a uma concepção de alfabetização que toma o texto como unidade de ensino. Caracteriza-se como uma pesquisa de cunho documental, trazendo para estudo produções acadêmico-científicas acerca da temática de investigação, tendências teóricas no estudo da alfabetização, o processo histórico da política de avaliação de livros didáticos no Brasil, o Guia de livros didáticos – PNLD 2010 – letramento e alfabetização – língua portuguesa – 2009 e duas coleções de livros didáticos de alfabetização, quais sejam: A Escola é Nossa – Letramento e Alfabetização Linguística; e Porta Aberta – Letramento e Alfabetização Linguística, avaliadas e selecionadas pelo Programa Nacional do Livro Didático (PNLD), na edição de 2009, para o ano letivo de 2010. Assume a hipótese de que a proposta de trabalho com as relações sons e letras e letras e sons trazida pelos livros didáticos de alfabetização, no contexto do letramento, por não tomar o texto como unidade de ensino, acaba por criar obstáculos para a própria compreensão dessas relações pelos estudantes. Toma como princípios teóricos e metodológicos a abordagem bakhtiniana de linguagem, bem como a concepção de alfabetização que baliza este estudo (GONTIJO; SCHWARTZ, 2009). Conclui que, ao não trazer os textos (gêneros discursivos) como enunciados, indiferentes à alternância dos sujeitos do discurso, os livros analisados, não obstante as poucas diferenças existentes entre um e outro, que se referem mais especificamente a informações que tangem à linguística, vão ao encontro de uma concepção de linguagem como um sistema de normas que devem ser anteriormente internalizadas pelo estudante para que este possa proceder à leitura e à escrita. Tratam, pois, a língua materna como uma língua estrangeira ou morta, como se esta fosse estática, permanecendo imune à evolução histórica. O estudo corroborou a hipótese de investigação, uma vez que, desconsiderando e/ou desconhecendo o aspecto dialógico do enunciado, os livros analisados minimizam a possibilidade da instauração de uma abordagem discursiva de linguagem, o que incide no tratamento das relações sons e letras e letras e sons que acabam por apresentarem-se dicotomizadas do texto e seu contexto discursivo e, dessa forma, sua reflexão e sistematização pelos estudantes distancia-se de um estudo dessas relações no bojo dos aspectos sócio-históricos, ideológicos, linguísticos, estilísticos, dentre outros que perpassam seu ensino. Logo, por não propiciarem um tratamento discursivo da linguagem, pouco contribuem para um tratamento “linguístico” adequado, acabando por criar obstáculos para a compreensão dessas relações pelos estudantes. Entende que conhecimentos linguísticos, principalmente referentes às variedades linguísticas e dialetais, tornam-se importantes quando da abordagem dessas relações, entretanto, estes por si sós não garantem sua apropriação. Ressalta o necessário conhecimento por parte dos professores (e autores) acerca da abordagem linguística tomada pelo livro didático de alfabetização e o resgate da autoria docente diante do ensino da língua materna, instaurando um processo autoral-dialógico da produção de conhecimentos junto aos estudantes.
Resumo:
Diante de uma discussão não consensual a respeito da existência ou não de um trade-off entre inflação e desemprego (curva de Phillips), esta dissertação analisa a evolução desta relação na economia brasileira no período 1980-2010 através de duas análises diferentes: A primeira é uma análise considerada estática, realizada com a utilização de uma regressão linear simples. A segunda consiste em uma análise dinâmica, onde é utilizada uma regressão com coeficientes time-varying, com a estimação dos coeficientes sendo realizada com a aplicação do filtro de Kalman. Os resultados econométricos mostraram que a relação entre inflação e desemprego de fato se alterou ao longo do período analisado: A curva de Phillips se torna horizontal após o Plano Real e fica levemente positiva após o Regime de Metas de Inflação. Sendo assim, este trabalho basicamente se divide em duas partes: A primeira consiste de uma contextualização teórica da relação entre inflação e desemprego e do regime de metas de inflação. A segunda parte traz a análise econométrica, onde é descrita a evolução do trade-off. Diante dos resultados encontrados, são apresentadas suas possíveis causas e é realizada uma análise qualitativa da atual política monetária praticada pelo Banco Central do Brasil.