909 resultados para Time-to-collision
Resumo:
This article, which is part of a larger historical study of infant-feeding advice received by mothers in Queensland, Australia, identifies and examines print materials that were used by mothers, or that influenced other texts, during the postwar period from 1945 to 1965. The texts are described within the context of their environmental influences and the medical knowledge and research of the time to assess what effect, if any, these latter materials had on the established system of infant-feeding advice. Two innovations that were employed are the use of interviews to identify the most-used texts and the comparison of popular advice books with medical journal material.
Resumo:
Two forms of the activated beta(1)-adrenoceptor exist, one that is stabilized by (-)-noradrenaline and is sensitive to blockade by (-)-propranolol and another which is stabilized by partial agonists such as (-)-pindolol and (-)-CGP 12177 but is relatively insensitive to (-)-propranolol. We investigated the effects of stimulation of the propranolol-resistant PI-adrenoceptor in the human heart. Myocardium from non-failing and failing human hearts were set up to contract at 1 Hz. In right atrium from non-ailing hearts in the presence of 200 nM (-)-propranolol, (-)-CGP 12177 caused concentration-dependent increases in contractile force (-logEC(50)[M] 7.3+/-0.1, E-max 23+/-1% relative to maximal (-)-isoprenaline stimulation of beta(1)- and beta(2)-adrenoceptors, n=86 patients), shortening of the time to reach peak force (-logEC(50)[M] 7.4+/-0.1, E-max 37+/-5%, n=61 patients) and shortening of the time to reach 50% relaxation (t(50%), -logEC(50)[M] 7.3+/-0.1, E-max 33+/-2%, n=61 patients). The potency and maxima of the positive inotropic effects were independent of Ser49Gly- and Gly389Arg-beta(1)-adrenoceptor polymorphisms but were potentiated by the phosphodiesterase inhibitor 3-isobutyl-1-methylxanthine (-logEC(50)[M] 7.7+/-0.1, E-max 68+/-6%, n=6 patients, P
Resumo:
Background Patients with known or suspected coronary disease are often investigated to facilitate risk assessment. We sought to examine the cost-effectiveness of strategies based on exercise echocardiography and exercise electrocardiography. Methods and results We studied 7656 patients undergoing exercise testing; of whom half underwent exercise echocardiography. Risk was defined with the Duke treadmill score for those undergoing exercise electrocardiography alone, and by the extent of ischaemia by exercise echocardiography. Cox proportional hazards models, risk adjusted for pretest likelihood of coronary artery disease, were used to estimate time to cardiac death or myocardial infarction. Costs (including diagnostic and revascularisation procedures, hospitalisations, and events) were calculated, inflation-corrected to year 2000 using Medicare trust fund rates and discounted at a rate of 5%. A decision model was employed to assess the marginal cost effectiveness (cost/life year saved) of exercise echo compared with exercise electrocardiography. Exercise echocardiography identified more patients as low-risk (51% vs 24%, p<0.001), and fewer as intermediate- (27% vs 51%, p<0.001) and high-risk (22% vs 4%); survival was greater in low- and intermediate- risk and less in high-risk patients. Although initial procedural costs and revascularisation costs (in intermediate- high risk patients) were greater, exercise echocardiography was associated with a greater incremental life expectancy (0.2 years) and a lower use of additional diagnostic procedures when compared with exercise electrocardiography (especially in lower risk patients). Using decision analysis, exercise echocardiography (Euro 2615/life year saved) was more cost effective than exercise electrocardiography. Conclusion Exercise echocardiography may enhance cost-effectiveness for the detection and management of at risk patients with known or suspected coronary disease. (C) 2003 Published by Elsevier Science Ltd on behalf of The European Society of Cardiology.
Resumo:
Frequency deviation is a common problem for power system signal processing. Many power system measurements are carried out in a fixed sampling rate assuming the system operates in its nominal frequency (50 or 60 Hz). However, the actual frequency may deviate from the normal value from time to time due to various reasons such as disturbances and subsequent system transients. Measurement of signals based on a fixed sampling rate may introduce errors under such situations. In order to achieve high precision signal measurement appropriate algorithms need to be employed to reduce the impact from frequency deviation in the power system data acquisition process. This paper proposes an advanced algorithm to enhance Fourier transform for power system signal processing. The algorithm is able to effectively correct frequency deviation under fixed sampling rate. Accurate measurement of power system signals is essential for the secure and reliable operation of power systems. The algorithm is readily applicable to such occasions where signal processing is affected by frequency deviation. Both mathematical proof and numerical simulation are given in this paper to illustrate robustness and effectiveness of the proposed algorithm. Crown Copyright (C) 2003 Published by Elsevier Science B.V. All rights reserved.
Resumo:
The aim of this study was to compare the cycling performance of cyclists and triathletes. Each week for 3 weeks, and on different days, 25 highly trained male cyclists and 18 highly trained male triathletes performed: (1) an incremental exercise test on a cycle ergometer for the determination of peak oxygen consumption ((V) over dot O-2peak), peak power output and the first and second ventilatory thresholds, followed 15 min later by a sprint to volitional fatigue at 150% of peak power output; (2) a cycle to exhaustion test at the (V) over dot O-2peak power output; and (3) a 40-km cycle time-trial. There were no differences in (V) over dot O-2peak, peak power output, time to volitional fatigue at 150% of peak power output or time to exhaustion at (V) over dot O-2peak power output between the two groups. However, the cyclists had a significantly faster time to complete the 40-km time-trial (56:18 +/- 2:31 min:s; mean +/- s) than the triathletes (58:57 +/- 3:06 min:s; P < 0.01), which could be partially explained (r = 0.34-0.51; P < 0.05) by a significantly higher first (3.32 +/- 0.36 vs 3.08 +/- 0.36 l . min(-1)) and second ventilatory threshold (4.05 +/- 0.36 vs 3.81 +/- 0.29 l . min(-1); both P < 0.05) in the cyclists compared with the triathletes. In conclusion, cyclists may be able to perform better than triathletes in cycling time-trial events because they have higher first and second ventilatory thresholds.
Resumo:
This paper uses three films adapted from the novels of John Grisham, The Firm, The Rainmaker and A Time To Kill, as well as associated television series like Ed to map a vernacular theory of what I have termed the 'postmaterial' lawyer. Grisham's work has been the focus of much critique by legal scholars who suggests he hates lawyers, is critical of the concept of law, and provides 'outlandishly' happy endings. I will challenge these critiques and, in tracing the history of legal thrillers and trial movies, suggest that Grisham and the related texts' explorations of how a just practitioner can operate in an unjust system constitute a powerful interrogation of what law can be.
Unexpected clobetasol propionate profile in human stratum corneum after topical application in vitro
Resumo:
Purpose. The validity of using drug amount-depth profiles in stratum corneum to predict uptake of clobetasol propionate into stratum corneum and its transport into deeper skin layers was investigated. Methods. In vitro diffusion experiments through human epidermis were carried out using Franz-type glass diffusion cells. A saturated solution of clobetasol propionate in 20% (V/V) aqueous propylene glycol was topically applied for 48 h. Steady state flux was calculated from the cumulative amount of drug permeated vs. time profile. Epidermal partitioning was conducted by applying a saturated drug solution to both sides of the epidermis and allowing time to equilibrate. The tape stripping technique was used to define drug concentration-depth profiles in stratum corneum for both the diffusion and equilibrium experiments. Results. The concentration-depth profile of clobetasol propionate in stratum corneum for the diffusion experiment is biphasic. A logarithmic decline of the drug concentration over the first four to five tape strips flattens to a relatively constant low concentration level in deeper layers. The drug concentration-depth profile for the equilibrium studies displays a similar shape. Conclusions. The shape of the concentration-depth profile of clobetasol propionate is mainly because of the variable partitioning coefficient in different stratum corneum layers.
Resumo:
Apenesia aurita sp. nov., from southeastern Brazil, is described and illustrated. Apenesia angusticeps Evans, 1963, A. tenebrosa Evans, 1963, A. pallidicornis Evans, 1963, A. quadrimera Leal & Azevedo, 2001 and A. crenulata Kieffer, 1910 are recorded for the first time to the State of Espírito Santo.
Resumo:
Epyris rotundus sp. nov. and Epyris cochlear sp. nov., from southern Brazil, are described and illustrated. Epyris longus Corrêa & Azevedo, 2002, E. argentinicus Evans, 1969, E. angustatus Evans, 1969, E. perpolitus Evans, 1969, E. parallelus Evans, 1969, E. distinctus Corrêa & Azevedo, 2002, E. variatus Corrêa & Azevedo, 2002, E. jugatus Evans, 1969, E. intermedius Evans, 1969 and E. depressigaster Evans, 1966 are recorded for the first time to Paraná, Brazil.
Resumo:
Rede é o nome dado para se referenciar qualquer forma que seja composta por linhas interligadas por pontos, sendo assim essa denominação é utilizada para participar de nomes e conceitos em diversas área do conhecimento. Na geografia isso não ocorre de forma diferente. As redes geográficas são a denominação dada as ligações feitas no espaço articuladas por pontos, notadamente são usadas para se fazer referência a redes materiais, mas podem ser mais imateriais ou abstratas a depender do objeto de pesquisa e do adjetivo adotado. A noção de redes urbanas nasceu vinculada aos objetos materiais, entretanto com a evolução da técnica passou a abranger objetos cada vez mais virtuais. As redes urbanas são compostas pelo conjunto de cidades, cada qual com sua centralidade representadas por pontos ou nós na rede, e pelas ligações entre elas, rodovias, hidrovias, infovias etc. As cidades que compõem a rede, por mais semelhanças que possam ter entre si, tem diferentes tipos e graus de centralidade, de poder de atração de pessoas, de recursos; sendo uma região de influência singular, que muda de tempos em tempos, face a evolução do território onde se insere. Tanto as centralidades quanto as redes de urbanas estão em constante mudança, necessitando sempre de atualização tornando o estudo das redes e das centralidades uma questão sempre nova; em especial quando considerado um território tão vasto e complexo como o brasileiro. Neste trabalho relatamos os resultados do estudo das especificidades da centralidade da cidade de Viçosa, que está localizada no interior do estado de Minas Gerais, Brasil. Este estudo fez uso de dados numéricos, fotográficos e cartográficos coletados em diversos momentos da evolução do município e da região onde este se insere, que revelaram as mudanças de qualidade e de intensidade na centralidade dessa cidade, hoje tipificada como média ou intermediária, inserida na rede urbana mineira. No período compreendido entre os anos de 1850 e 1930, Viçosa passou de uma inexpressiva localidade rural, a importante centro de produção de café, galgando ganhos políticos nesse período. Seguiu-se um período de menor pujança, por cerca de setenta anos, para depois, na virada do século XX para XXI, ressurgi como uma localidade especializada em oferecer serviços, notadamente vinculados ao ensino superior e à produção de ciência e tecnologia. Essa nova centralidade, ao contrário do que muitas vezes ocorre, não foi fruto nem de um recurso natural inerente ao território e nem, tão pouco, pela atuação de grandes grupos capitalistas. Foi galgado principalmente pela atuação do Estado que construiu ali as bases de uma especialização funcional, através da implantação de uma universidade pública.
Resumo:
A resistência a fármacos antituberculose tem constituído uma grande ameaça ao controle da tuberculose em âmbito mundial. A sua detecção precoce permite ao médico instituir um esquema de tratamento mais adequado ao paciente e consequentemente quebrar a cadeia de transmissão dos bacilos. Os testes de sensibilidade a antimicrobianos atuais, embora eficientes, são caros e/ou demorados e/ou trabalhosos. Com base nesta premissa, nos propusemos a desenvolver e padronizar um método fenotípico direto para determinação da sensibilidade do Mycobacterium tuberculosis a antimicrobianos de primeira linha do tratamento da tuberculose. Para o desenvolvimento deste novo teste, utilizaram-se os princípios do método das proporções e do exame de cultura pelo método de Ogawa–Kudoh. O estudo foi dividido em duas fases. A primeira, caracterizada pelo desenvolvimento e padronização do método proposto e a segunda, pela análise da concordância entre o método desenvolvido e o método do MGIT (padrão-ouro). Na primeira fase, foram realizados diversos ensaios para definir: os volumes de absorção e de liberação de líquidos de diferentes tipos de swab, o meio de cultura, as concentrações dos antimicrobianos e o tempo de leitura/interpretação das culturas. Além disso, foi verificado se a amostra deveria ou não ser diluída. Com base nos resultados destes ensaios, padronizou-se o método com: swab comercial, em meio de cultura Ogawa- Kudoh contendo separadamente 0,2 μg/mL de isoniazida, 40,0 μg/mL de rifampicina, 10,0 μg/mL de estreptomicina e 500,0 μg/mL de ácido para-nitrobenzóico. Padronizou-se ainda a inoculação da amostra de escarro de forma direta, ou seja, sem diluir e a leitura/interpretação do resultado do teste no período entre 21 e 28 dias. A análise comparativa entre este método e o teste de sensibilidade a antimicrobianos no sistema MGIT realizada na segunda fase do projeto indicou um índice kappa igual a 1,000, ou seja, uma concordância muito boa em relação ao padrão-ouro. Diante desses resultados promissores, acreditamos que o método desenvolvido apresente um grande potencial para ser utilizado em laboratórios com pouca infra-estrutura, por ser de baixo custo, fácil execução e relativamente rápido.
Resumo:
Diversos fatores têm contribuído para o aumento da demanda por transporte ferroviário no Brasil. Dentre eles, citam-se: o aumento das exportações brasileiras nos últimos anos e a aprovação do novo marco regulatório para o setor ferroviário brasileiro que permitiu o uso da capacidade ociosa das ferrovias e o compartilhamento da malha por diversos operadores. Investimentos para construção de novas ferrovias e melhorias nas já existentes são muito elevados, o que dificulta a implantação de novos projetos. Assim, faz-se necessário melhorar o planejamento da circulação de trens visando o aumento de capacidade sem a necessidade de novos investimentos, otimizando o uso da estrutura já existente. Esta dissertação tem como objetivo propor um modelo matemático para realizar o planejamento da circulação de trens em uma ferrovia de linha singela, que minimize o transit time, isto é, o tempo total de viagem de todos os trens e consequentemente reduza o tempo parado em pátios de cruzamento. O modelo proposto permite que os trens sejam atrasados ou adiantados na partida visando reduzir o tempo parado em pátios de cruzamento. O modelo é resolvido de forma ótima usando o solver CPLEX 12.6. Foram realizados testes com dados reais da Ferrovia Centro Atlântica (FCA) e os resultados alcançados pelo CPLEX foram comparados com os resultados do planejamento manual da FCA. O modelo obteve redução do tempo de viagem dos trens em todos os cenários testados.
Resumo:
A N-acetiltransferase 2 é a principal enzima responsável pelo metabolismo e inativação da isoniazida no organismo humano. Mutações no gene NAT2 levam a 3 perfis genotípicos de acetilação que alteram os níveis séricos do fármaco: acetiladores lentos, intermediários e rápidos, o que pode alterar o desfecho terapêutico. O objetivo do estudo foi investigar se os diferentes perfis podem influenciar no tempo de negativação da cultura de escarro, e se existe correlação entre carga bacilar e gravidade da doença com tempo de conversão da cultura. A população de estudo foi composta por 62 pacientes, que tiveram seus DNAs sequenciados para identificação de mutações no gene NAT2 e seus perfis de acetilação determinados. A análise genotípica detectou 10 SNPs, sendo as mutações 341 T>C (39,65%) e 481 C>T (38,71%) as mais frequentes. A determinação das variantes alélicas identificou NAT2*5B (29,03%), NAT2*6A (23,39%) e NAT2*4 (24,19%) como os alelos mais frequentes e NAT2*5B/*5B como o genótipo mais frequente (20,4%). Dentre os 62 pacientes, foi possível correlacionar tempo de negativação da cultura e perfil de acetilação entre 43 deles, os quais 58,3% e 55,6% tiveram o genótipo lento com maior frequência no mês 1 e mês 3, respectivamente. Por meio de dados microbiológicos, a carga bacilar e a gravidade da doença também foram comparadas com o tempo de negativação, indicando que os pacientes com doença moderada ou avançada (76,7%) e aqueles com carga bacilar alta (60,4%), não tiveram associação estatística com o tempo de conversão da cultura. Por último, curvas de crescimento de isolados de M. tuberculosis de pacientes foram construídas para verificar possíveis diferenças na duração da fase lag entre os isolados, porém não foi observada diferença estatística entre elas. Com base nos resultados encontrados, verifica-se que não existe associação entre o perfil de acetilação do paciente, a carga bacilar, a gravidade da doença e o tempo de negativação da cultura de escarro
Resumo:
O objetivo do presente estudo foi elaborar e caracterizar um extrato hidrossolúvel à base de gergelim para ser usado como possível substituto do leite de vaca e extrato de soja. Foi proposto um modelo de cinética de absorção de água durante a etapa de maceração no qual estimou o tempo ideal de batimento do gergelim macerado e se essa etapa influencia no rendimento do produto. Posteriormente com o objetivo de saber a influência do tempo de batimento (0,45 min a 14,55 min) e a concentração do extrato (1,925% a 23,07%) foram avaliadas através de um delineamento composto central rotacional (DCCR), ou seja, um delineamento 22 incluindo 4 ensaios nas condições axiais e 5 repetições no ponto central, totalizando 13 experimentos. Para todos os ensaios do delineamento realizou-se análises de viscosidade, cor, sólidos solúveis totais e rendimento. As mesmas análises foram realizadas em amostras comerciais de leite de vaca e extrato hidrossolúvel de soja com o intuito de comparação. Após a realização dessa etapa foi possível à seleção de algumas amostras para elaboração do extrato hidrossolúvel de gergelim e então realizou-se análises físico-químicas (proteína, cinzas, lipídios, carboidratos) e determinou-se a capacidade antioxidante por ABTS e teor de compostos fenólicos de tais amostras. Quanto à análise de rendimento não houve diferença significativa da quantidade de extrato obtido em diferentes temperaturas de maceração pelo teste de Tukey (p> 0,05). O DCCR foi realizado no programa Statistica e selecionaram-se os ensaios 1, 2, 6, 7, PC (ponto central) que foram as amostras que mais se assemelharam com as amostras comerciais estudadas. Nessas amostras realizou-se as análises físico-químicas além de capacidade antioxidante e compostos fenólicos. O conteúdo de sólidos totais na amostra 6 foi superior as demais amostras, diferindo estatisticamente das demais amostras (p> 0,05). Já para o teor de lipídios, cinzas e proteínas encontrados nas amostras 6 e PC foram maiores que as demais amostras, enquanto a amostra 7 exibiu o menor teor de lipídios e proteínas, considerando que o teor de cinzas das amostras 1, 2 e 7 foram estatisticamente iguais. O teor de carboidratos calculado por diferença foi superior nas amostras 1, 2 e 7 e com o menor valor na amostra 6. Os valores de capacidade antioxidante e compostos fenólicos não se diferenciaram estatisticamente entre si ao nível de 5% de probabilidade. Concluiu-se portanto que a etapa de maceração não influenciou no rendimento do produto final. A partir das análises físico-químicas pode-se concluir que o extrato hidrossolúvel de gergelim em determinadas amostras apresentou um melhor desempenho quanto ao valor nutricional comparado ao extrato de soja.
Resumo:
A propagação de uma frente de combustão ocorre numa variedade de situações e para diferentes propósitos industriais. O desempenho desses processos precisa melhorar e ao mesmo tempo reduzir os níveis de emissões para atender às normas de emissões internacionais. Para isso é necessário um certo grau de conhecimento tanto do processo como dos fenômenos da combustão. Em todos as situações envolvendo a combustão, a propagação é iniciada por uma fonte de calor e, após a ignição do combustível, a frente de combustão alcança o combustível adjacente. Estudos anteriores mostraram a ignição e propagação de uma frente de combustão como um fenômeno complexo que depende de processos químicos, térmicos e físicos. O presente trabalho abordou os desafios encontrados durante uma abordagem empírica para análise da propagação de uma frente de combustão em leito fixo. A partir da utilização de combustíveis simulados foram analisados: a influência da composição do combustível no comportamento da ignição do mesmo, as características da propagação da frente de combustão (regime de combustão, retração do leito e estrutura da frente) e a influência da ignição do combustível na propagação da frente de combustão. Foi possível realizar um mapeamento, para diferentes composições, do comportamento da ignição de combustíveis sólidos. A partir dos resultados de propagação da frente verificou-se que ocorrem basicamente três estágios de combustão no leito: ignição, propagação e oxidação do carbono fixo remanescente. Através das análises de gás notou-se a existência de dois regimes de combustão no leito: limitada pela reação e limitada pelo oxigênio. Foi obtido que em leitos com alta porcentagem de material inerte, onde há maior estabilidade, há uma maior influência da ignição na frente de combustão. Assim, mostrou-se como esses conhecimentos são úteis em diversas aplicações e processos industriais.