999 resultados para Validação - Validation
Resumo:
The biological reactions during the settling and decant periods of Sequencing Batch Reactors (SBRs) are generally ignored as they are not easily measured or described by modelling approaches. However, important processes are taking place, and in particular when the influent is fed into the bottom of the reactor at the same time (one of the main features of the UniFed process), the inclusion of these stages is crucial for accurate process predictions. Due to the vertical stratification of both liquid and solid components, a one-dimensional hydraulic model is combined with a modified ASM2d biological model to allow the prediction of settling velocity, sludge concentration, soluble components and biological processes during the non-mixed periods of the SBR. The model is calibrated on a full-scale UniFed SBR system with tracer breakthrough tests, depth profiles of particulate and soluble compounds and measurements of the key components during the mixed aerobic period. This model is then validated against results from an independent experimental period with considerably different operating parameters. In both cases, the model is able to accurately predict the stratification and most of the biological reactions occurring in the sludge blanket and the supernatant during the non-mixed periods. Together with a correct description of the mixed aerobic period, a good prediction of the overall SBR performance can be achieved.
Resumo:
A detailed analysis procedure is described for evaluating rates of volumetric change in brain structures based on structural magnetic resonance (MR) images. In this procedure, a series of image processing tools have been employed to address the problems encountered in measuring rates of change based on structural MR images. These tools include an algorithm for intensity non-uniforniity correction, a robust algorithm for three-dimensional image registration with sub-voxel precision and an algorithm for brain tissue segmentation. However, a unique feature in the procedure is the use of a fractional volume model that has been developed to provide a quantitative measure for the partial volume effect. With this model, the fractional constituent tissue volumes are evaluated for voxels at the tissue boundary that manifest partial volume effect, thus allowing tissue boundaries be defined at a sub-voxel level and in an automated fashion. Validation studies are presented on key algorithms including segmentation and registration. An overall assessment of the method is provided through the evaluation of the rates of brain atrophy in a group of normal elderly subjects for which the rate of brain atrophy due to normal aging is predictably small. An application of the method is given in Part 11 where the rates of brain atrophy in various brain regions are studied in relation to normal aging and Alzheimer's disease. (C) 2002 Elsevier Science Inc. All rights reserved.
Resumo:
Evaluation of the performance of the APACHE III (Acute Physiology and Chronic Health Evaluation) ICU (intensive care unit) and hospital mortality models at the Princess Alexandra Hospital, Brisbane is reported. Prospective collection of demographic, diagnostic, physiological, laboratory, admission and discharge data of 5681 consecutive eligible admissions (1 January 1995 to 1 January 2000) was conducted at the Princess Alexandra Hospital, a metropolitan Australian tertiary referral medical/surgical adult ICU. ROC (receiver operating characteristic) curve areas for the APACHE III ICU mortality and hospital mortality models demonstrated excellent discrimination. Observed ICU mortality (9.1%) was significantly overestimated by the APACHE III model adjusted for hospital characteristics (10.1%), but did not significantly differ from the prediction of the generic APACHE III model (8.6%). In contrast, observed hospital mortality (14.8%) agreed well with the prediction of the APACHE III model adjusted for hospital characteristics (14.6%), but was significantly underestimated by the unadjusted APACHE III model (13.2%). Calibration curves and goodness-of-fit analysis using Hosmer-Lemeshow statistics, demonstrated that calibration was good with the unadjusted APACHE III ICU mortality model, and the APACHE III hospital mortality model adjusted for hospital characteristics. Post hoc analysis revealed a declining annual SMR (standardized mortality rate) during the study period. This trend was present in each of the non-surgical, emergency and elective surgical diagnostic groups, and the change was temporally related to increased specialist staffing levels. This study demonstrates that the APACHE III model performs well on independent assessment in an Australian hospital. Changes observed in annual SMR using such a validated model support an hypothesis of improved survival outcomes 1995-1999.
Resumo:
Today, the standard approach for the kinetic analysis of dynamic PET studies is compartment models, in which the tracer and its metabolites are confined to a few well-mixed compartments. We examine whether the standard model is suitable for modern PET data or whether theories including more physiologic realism can advance the interpretation of dynamic PET data. A more detailed microvascular theory is developed for intravascular tracers in single-capillary and multiple-capillary systems. The microvascular models, which account for concentration gradients in capillaries, are validated and compared with the standard model in a pig liver study. Methods: Eight pigs underwent a 5-min dynamic PET study after O-15-carbon monoxide inhalation. Throughout each experiment, hepatic arterial blood and portal venous blood were sampled, and flow was measured with transit-time flow meters. The hepatic dual-inlet concentration was calculated as the flow-weighted inlet concentration. Dynamic PET data were analyzed with a traditional single-compartment model and 2 microvascular models. Results: Microvascular models provided a better fit of the tissue activity of an intravascular tracer than did the compartment model. In particular, the early dynamic phase after a tracer bolus injection was much improved. The regional hepatic blood flow estimates provided by the microvascular models (1.3 +/- 0.3 mL min(-1) mL(-1) for the single-capillary model and 1.14 +/- 0.14 min(-1) mL(-1) for the multiple-capillary model) (mean +/- SEM mL of blood min(-1) mL of liver tissue(-1)) were in agreement with the total blood flow measured by flow meters and normalized to liver weight (1.03 +/- 0.12 mL min(-1) mL(-1)). Conclusion: Compared with the standard compartment model, the 2 microvascular models provide a superior description of tissue activity after an intravascular tracer bolus injection. The microvascular models include only parameters with a clear-cut physiologic interpretation and are applicable to capillary beds in any organ. In this study, the microvascular models were validated for the liver and provided quantitative regional flow estimates in agreement with flow measurements.
Resumo:
Modeling physiological processes using tracer kinetic methods requires knowledge of the time course of the tracer concentration in blood supplying the organ. For liver studies, however, inaccessibility of the portal vein makes direct measurement of the hepatic dual-input function impossible in humans. We want to develop a method to predict the portal venous time-activity curve from measurements of an arterial time-activity curve. An impulse-response function based on a continuous distribution of washout constants is developed and validated for the gut. Experiments with simultaneous blood sampling in aorta and portal vein were made in 13 anesthetized pigs following inhalation of intravascular [O-15] CO or injections of diffusible 3-O[ C-11] methylglucose (MG). The parameters of the impulse-response function have a physiological interpretation in terms of the distribution of washout constants and are mathematically equivalent to the mean transit time ( T) and standard deviation of transit times. The results include estimates of mean transit times from the aorta to the portal vein in pigs: (T) over bar = 0.35 +/- 0.05 min for CO and 1.7 +/- 0.1 min for MG. The prediction of the portal venous time-activity curve benefits from constraining the regression fits by parameters estimated independently. This is strong evidence for the physiological relevance of the impulse-response function, which includes asymptotically, and thereby justifies kinetically, a useful and simple power law. Similarity between our parameter estimates in pigs and parameter estimates in normal humans suggests that the proposed model can be adapted for use in humans.
Resumo:
Multiple HLA class I alleles can bind peptides with common sequence motifs due to structural similarities in the peptide binding cleft, and these groups of alleles have been classified into supertypes. Nine major HLA supertypes have been proposed, including an A24 supertype that includes A*2301, A*2402, and A*3001. Evidence for this A24 supertype is limited to HLA sequence homology and/or similarity in peptide binding motifs for the alleles. To investigate the immunological relevance of this proposed supertype, we have examined two viral epitopes (from EBV and CMV) initially defined as HLA-A*2301-binding peptides. The data clearly demonstrate that each peptide could be recognized by CTL clones in the context of A*2301 or A*2402; thus validating the inclusion of these three alleles within an A24 supertype. Furthermore, CTL responses to the EBV epitope were detectable in both A*2301(+) and A*2402(+) individuals who had been previously exposed to this virus. These data substantiate the biological relevance of the A24 supertype, and the identification of viral epitopes with the capacity to bind promiscuously across this supertype could aid efforts to develop CTL-based vaccines or immunotherapy. The degeneracy in HLA restriction displayed by some T cells in this study also suggests that the dogma of self-MHC restriction needs some refinement to accommodate foreign peptide recognition in the context of multiple supertype alleles.
Resumo:
Measurement of Health-Related Quality of Life (HRQoL) of the elderly requires instruments with demonstrated sensitivity, reliability, and validity, particularly with the increasing proportion of older people entering the health care system. This article reports the psychometric properties of the 12-item Assessment of Quality of Life (AQoL) instrument in chronically ill community-dwelling elderly people with an 18-month follow-up. Comparator instruments included the SF-36 and the OARS. Construct validity of the AQoL was strong when examined via factor analysis and convergent and divergent validity against other scales. Receiver Operator Characteristic (ROC) curve analyses and relative efficiency estimates indicated the AQoL is sensitive, responsive, and had the strongest predicative validity for nursing home entry. It was also sensitive to economic prediction over the follow-up. Given these robust psychometric properties and the brevity of the scale, AQoL appears to be a suitable instrument for epidemiologic studies where HRQoL and utility data are required from elderly populations. (C) 2003 Elsevier Science Inc. All rights reserved.
Resumo:
Despite its widespread use, the Coale-Demeny model life table system does not capture the extensive variation in age-specific mortality patterns observed in contemporary populations, particularly those of the countries of Eastern Europe and populations affected by HIV/AIDS. Although relational mortality models, such as the Brass logit system, can identify these variations, these models show systematic bias in their predictive ability as mortality levels depart from the standard. We propose a modification of the two-parameter Brass relational model. The modified model incorporates two additional age-specific correction factors (gamma(x), and theta(x)) based on mortality levels among children and adults, relative to the standard. Tests of predictive validity show deviations in age-specific mortality rates predicted by the proposed system to be 30-50 per cent lower than those predicted by the Coale-Demeny system and 15-40 per cent lower than those predicted using the original Brass system. The modified logit system is a two-parameter system, parameterized using values of l(5) and l(60).
Resumo:
Este estudo buscou cartografar as estratégias de resistência construídas por professores de uma escola pública municipal de ensino infantil da cidade de Vitória, considerando a dinamicidade da produção de saúde e doença. A cartografia se efetivou por meio de vivência institucional, entrevistas, construção de um diário de campo, questionários, fotografias e confrontação-validação dos resultados com o coletivo de trabalhadores. Apesar de todas as nocividades do ambiente de trabalho, os professores não se deixam paralisar e criam estratégias, novas formas de fazer seu trabalho, buscando condições menos adoecedoras para o desenvolvimento de suas atividades que, quando coletivizadas, potencializam o processo inventivo desses trabalhadores. Os resultados da pesquisa indicam a importância dessas discussões, uma vez que dão visibilidade a essas formas de luta, o que pode promover transformação do que é vivido nas escolas hoje.
Resumo:
O intuito inicial desta pesquisa foi acompanhar processos de trabalho à luz do referencial teórico da Ergologia e, portanto, concebendo o trabalho como relação dialética entre técnica e ação humana. O objetivo era cartografar o trabalho no processo de beneficiamento de granitos em uma organização de grande porte localizada no Espírito Santo e, após algum tempo em campo, o problema delineou- se do seguinte modo: como se constitui a competência industriosa no beneficiamento de granitos em uma organização de grande porte? A pesquisa justifica-se uma vez que, a despeito da relevância econômica, o cenário capixaba de rochas ornamentais apresenta problemas precários no que diz respeito à gestão. Para os Estudos Organizacionais, a relevância é reforçada pelo fato de aproximar desta área a abordagem ergológica e demarcar no debate sobre competência a noção de competência industriosa, ainda não explorada nesse campo de estudo. Para realização da pesquisa, foi praticada uma cartografia ergológica, a partir da articulação das pistas cartográficas com o referencial teórico-conceitual da Ergologia, sendo utilizadas como técnicas: observação participante durante 6 meses, com uma média de 3 visitas a campo por semana; 8 entrevistas semiestruturadas e em profundidade de cerca de 50 minutos cada com trabalhadores operacionais; uma entrevista com gerente de produção e outra com representante da área de Gestão de Pessoas; conversas com os demais trabalhadores, a fim de enriquecer o diário de campo; novas conversas e observações ao final da análise, para confrontação-validação com os trabalhadores. A sistematização dos procedimentos de análise pode ser assim descrita: a) leituras flutuantes com objetivo de fazer emergirem aspectos centrais relacionados às duas dimensões do trabalho, técnica e ação humana; b) leituras em profundidade com objetivo de fazer emergirem singularidades e especificidades relativas à dialética entre ambas; c) leituras em profundidade com objetivo de fazer emergirem aspectos relativos aos ingredientes da competência industriosa. A despeito da não delimitação de categorias analíticas e subcategorias, a partir da análise emergiram cinco eixos analíticos: 1) os procedimentos a serem empregados no processo de beneficiamento de granitos, englobando: as etapas do beneficiamento; as funções a serem desempenhadas e as tarefas a serem desenvolvidas; as normas regulamentadoras; os conhecimentos técnicos necessários para programação e operação de máquinas; a ordem de produção prescrita pelo setor comercial; 2) o trabalho real, diferenciado do trabalho como emprego de procedimentos pelo foco dado à ação humana no enfrentamento de situações reais, repletas de eventos e variabilidades, em todo o processo, englobando: preparo de carga; laminação; serrada; levigamento; resinagem; polimento-classificação; retoque; fechamento de pacote; ovada de contêiner; 3) diferentes modos de usos de si que, em tendência, são responsáveis pela constituição do agir em competência em cada etapa do processo, na dialética entre técnica e ação humana; 4) o modo como cada ingrediente da competência industriosa atua e se constitui, bem como sua concentração, em tendência, em cada etapa do processo, a partir dos tipos de usos de si que, também em tendência, são mais responsáveis pelo agir em competência, apresentando assim o perfil da competência industriosa no beneficiamento de granitos na empresa em análise; 5) dois possíveis fatores potencializadores dos ingredientes da competência industriosa, a saber, a transdução e os não-humanos. A partir de todo o exposto, as últimas considerações problematizam aspectos relativos ao debate sobre competências e práticas de gestão de pessoas a partir da competência compreendida da seguinte forma: mestria no ato de tirar partido do meio e de si para gerir situações de trabalho, em que a ação consiste na mobilização de recursos dificilmente perceptíveis e descritíveis, inerentes ao trabalhador, porém constituídos e manifestos por usos de si por si e pelos outros no e para o ato real de trabalho, marcadamente num nível infinitesimal, diante de situações que demandam aplicação de protocolos concomitante à gestão de variabilidades e eventos em parte inantecipáveis e inelimináveis.
Resumo:
Um algoritmo numérico foi criado para apresentar a solução da conversão termoquímica de um combustível sólido. O mesmo foi criado de forma a ser flexível e dependente do mecanismo de reação a ser representado. Para tanto, um sistema das equações características desse tipo de problema foi resolvido através de um método iterativo unido a matemática simbólica. Em função de não linearidades nas equações e por se tratar de pequenas partículas, será aplicado o método de Newton para reduzir o sistema de equações diferenciais parciais (EDP’s) para um sistema de equações diferenciais ordinárias (EDO’s). Tal processo redução é baseado na união desse método iterativo à diferenciação numérica, pois consegue incorporar nas EDO’s resultantes funções analíticas. O modelo reduzido será solucionado numericamente usando-se a técnica do gradiente bi-conjugado (BCG). Tal modelo promete ter taxa de convergência alta, se utilizando de um número baixo de iterações, além de apresentar alta velocidade na apresentação das soluções do novo sistema linear gerado. Além disso, o algoritmo se mostra independente do tamanho da malha constituidora. Para a validação, a massa normalizada será calculada e comparada com valores experimentais de termogravimetria encontrados na literatura, , e um teste com um mecanismo simplificado de reação será realizado.
Resumo:
O presente trabalho teve como objetivo central a elaboração de uma unidade de ensino sobre conceitos de eletricidade e validação desse material como uma Unidade de Ensino Potencialmente Significativa (UEPS). Assim, foi desenvolvida uma unidade de ensino sobre os temas diferença de potencial, corrente elétrica e suas aplicações sob a luz da Teoria da Aprendizagem Significativa de Ausubel e aplicada em seis turmas do terceiro ano do ensino médio de uma escola estadual do Espírito Santo. A fim de investigação das potencialidades desse método de ensino, utilizou-se metodologias de pesquisa qualitativa descritiva interpretativa e quantitativa préexperimental. Tendo em vista a importância dos conhecimentos prévios dos estudantes para promover aprendizagem significativa, no início do estudo foram aplicados questionários de opinião, realizados diálogos prévios e construções de mapas conceituais, sendo esses importantes instrumentos para a adequação do material apresentado ao aluno em relação ao seu perfil e à sua estrutura cognitiva. Para coleta de dados da pesquisa foram feitas gravações em áudio das principais etapas, diários de bordo, fotografias dos trabalhos, questionários e mapas conceituais prévios e finais e, finalmente, avaliação escrita. A análise dos mapas conceituais constituiu um dos principais instrumentos para avaliação sob o ponto de vista do desenvolvimento cognitivo dos estudantes, no sentido de classificar os mapas, associá-los às estruturas cognitivas de quem os construiu e identificar variações estatisticamente válidas em relação às construções de novos significados. A investigação revelou que, de modo geral, a unidade foi responsável por melhorias significativas na predisposição dos alunos em aprender e na promoção da aprendizagem significativa, possibilitando sua a validação como uma UEPS.
Resumo:
Este trabalho tem como objetivo geral apresentar mecanismos de análise e validação de propostas de material didático na forma de Webquests e, com base nesses mecanismos, elaborar e validar três propostas de material didático em forma de WebQuests criticamente situados para a ensinagem de inglês como língua adicional. As WebQuests elaboradas visam priorizar o desenvolvimento do letramento digital crítico e da competência comunicativa em inglês como língua adicional do aprendiz. A WebQuest se insere na perspectiva de uma metodologia que tem esse mesmo nome e consiste na proposta de uma pesquisa orientada e organizada em etapas em que toda ou grande parte do conteúdo a ser acessado e necessário para a realização da(s) tarefa(s) encontra-se disponível online (DODGE, 1995). A metodologia deste estudo é de cunho qualitativo e também se insere na perspectiva da metodologia de desenvolvimento. O design metodológico dessa investigação foi organizado em três etapas, quais sejam, a análise de necessidades, a elaboração de três WebQuests e a análise das WebQuests elaboradas a partir de uma rubrica. A revisão de literatura, que constituiu parte da análise de necessidades, sugere que as demandas do século XXI exigem maior atenção e investimento para o desenvolvimento de letramentos múltiplos e críticos, de competências comunicativas e interacionais e de formação de cidadania. A análise de WebQuests disponíveis para ensinagem de inglês no principal sítio brasileiro de WebQuests, que compôs a segunda parte da análise de necessidades desse estudo, evidenciou a escassez de WebQuests que abordam de forma significativa tanto as questões do letramento digital crítico quanto os aspectos da competência comunicativa na língua adicional do indivíduo. A análise de necessidades como um todo forneceu subsídios relevantes para o processo de elaboração das WebQuests propostas neste estudo, que também se embasou nas diretrizes e princípios do modelo WebQuest e em grande parte do seu embasamento teórico. Como fase final deste estudo, as três WebQuests elaboradas foram submetidas à validação a partir de uma rubrica criada especialmente para esse propósito. Os resultados das análises de validação das três WebQuests elaboradas sugerem que a proposta desses materiais é válida sob o ponto de vista teórico, pois mostram que as ferramentas criadas vão ao encontro da proposta do modelo WebQuests de Dodge (1995, 2001) e das recomendações de qualidade sugeridas por Bottentuit Junior e Coutinho (2008a, 2012), bem como estão ancoradas na teoria sócio-construtivista e do ensino situado e nos princípios metodológicos da abordagem de ensino baseada em tarefas e da abordagem de ensino de conteúdos diversos por meio da língua (CLIL). Concluímos que as três WebQuests são materiais de ensinagem de inglês que fogem do enfoque tradicional conteudista historicamente voltado para o ensino de vocabulário e gramática na língua-alvo, extrapolando os objetivos linguísticos para alcançar também objetivos sociais e culturais da ensinagem de inglês como língua adicional, na medida em que se trabalha paralelamente (e intencionalmente, por entender que ambos se complementam) o desenvolvimento da competência comunicativa e do letramento digital crítico do indivíduo, contribuindo, assim, para a sua formação cidadã e colaborando para a “inclusão” do aprendiz no mundo social e digital.