973 resultados para Metric access method
Resumo:
Neste trabalho é apresentado um modelo de redes neurais que será utilizado como ferramenta para uso no planejamento energético e na construção de cenários energéticos através da identificação e agrupamento de pixels representativos de classes de água, vegetação e antropização no entorno do reservatório de Tucuruí, Estado do Pará (bacia do rio Tocantins). Para o estudo, foram utilizadas fotografias aéreas ortorretificadas e um recorte da imagem do satélite Landsat, ambos obtidos em agosto de 2001 e classificados utilizando a métrica da mínima distância no software Matlab 7.3.0 (Matrix Laboratory - software de matemática aplicada) e no Arcview 3.2a (programa de Sistemas de Informações Geográficas). Para classificação da área no Matlab, foram utilizadas redes neurais competitivas, mais especificamente as redes de Kohonen que são caracterizadas por realizar um mapeamento de um espaço de dimensão n (número de entradas) para um espaço de dimensão m (número de saídas). Os resultados obtidos no classificador utilizando rede neural e no classificador do Arcview foram semelhantes, mas houve uma divergência no que diz respeito à imagem de alta e média resolução que pode ser justificada pelo fato de que a imagem de alta resolução espacial ocasiona muita variação espectral em algumas feições, gerando dificuldades nas classificações. Esse classificador automático é uma ferramenta importante para identificar oportunidades e potenciais a serem desenvolvidos na construção de cenários energéticos programados. Os resultados deste trabalho confirmam que a imagem de média resolução ainda é a mais indicada para resolver a maioria dos problemas que envolvem identificação de cobertura do solo para utilização em planejamento energético.
Resumo:
ABSTRACT: Related momentum and energy equations describing the heat and fluid flow of Herschel-Bulkley fluids within concentric annular ducts are analytically solved using the classical integral transform technique, which permits accurate determination of parameters of practical interest in engineering such as friction factors and Nusselt numbers for the duct length. In analyzing the problem, thermally developing flow is assumed and the duct walls are subjected to boundary conditions of first kind. Results are computed for the velocity and temperature fields as well as for the parameters cited above with different power-law indices, yield numbers and aspect ratios. Comparisons are also made with previous work available in the literature, providing direct validation of the results and showing that they are consistent.
Resumo:
ABSTRACT: Analytical procedures for U-Pb isotope dilution analyses at the Pará-Iso isotope geology laboratory of the Federal University of Pará (UFPA) are described in detail. The procedures are applied to zircon, titanite, rutile, apatite, columbite-tantalite and whole rock. Reagent preparation and chemical processing are done in clean-room conditions. Samples are dissolved using Teflon™ microcapsules in steel jacket Teflon™ Parr Instrument™ bomb or Teflon™ screw cap containers. U and Pb are separated using anion exchange AG 1x8 resin columns. Typical blanks for mineral sample amounts of 0.01 to 1.0 mg are less than 1 pg U and 20-30 pg Pb. Isotope analysis of the U and Pb from the same filament are carried out using a Finnigan MAT 262 mass-spectrometer in static and dynamic modes. The current analytical level is demonstrated on analyses of international standard zircon 91500 with three different 235U-205Pb and 235U-208Pb isotope tracers and whole rock standards. Results of analyses of two zircon samples are also presented.
Resumo:
ABSTRACT: The present work uses multivariate statistical analysis as a form of establishing the main sources of error in the Quantitative Phase Analysis (QPA) using the Rietveld method. The quantitative determination of crystalline phases using x ray powder diffraction is a complex measurement process whose results are influenced by several factors. Ternary mixtures of Al2O3, MgO and NiO were prepared under controlled conditions and the diffractions were obtained using the Bragg-Brentano geometric arrangement. It was possible to establish four sources of critical variations: the experimental absorption and the scale factor of NiO, which is the phase with the greatest linear absorption coefficient of the ternary mixture; the instrumental characteristics represented by mechanical errors of the goniometer and sample displacement; the other two phases (Al2O3 and MgO); and the temperature and relative humidity of the air in the laboratory. The error sources excessively impair the QPA with the Rietveld method. Therefore it becomes necessary to control them during the measurement procedure.
Resumo:
Usando o formalismo relativístico no estudo da propagação de perturbações lineares em fluidos ideais, obtêm-se fortes analogias com os resultados encontrados na Teoria da Relatividade Geral. Neste contexto, de acordo com Unruh [W. Unruh, Phys. Rev. Letters 46, 1351 (1981)], é possível simular um espaço-tempo dotado de uma métrica efetiva em um fluído ideal barotrópico, irrotacional e perturbado por ondas acústicas. Esse espaço-tempo efetivo é chamado de espaço-tempo acústico e satisfaz as propriedades geométricas e cinemáticas de um espaço-tempo curvo. Neste trabalho estudamos os modos quasinormais (QNs) e os pólos de Regge (PRs) para um espaço-tempo acústico conhecido como buraco acústico canônico (BAC). No nosso estudo, usamos o método de expansão assintótica proposto por Dolan e Ottewill [S. R. Dolan e A. C. Ottewill, Class. Quantum Gravity 26, 225003 (2009)] para calcularmos, em termos arbitrários do número de overtone n, as frequências QNs e os momentos angulares para os PRs, bem como suas respectivas funções de onda. As frequências e as funções de onda dos modos QNs são expandidas em termos de potências inversas de L = l + 1/2 , onde l é o momento angular, enquanto que os momentos angulares e funções de onda dos PRs são expandidos em termos do inverso das frequências de oscilação do buraco acústico canônico. Comparamos os nossos resultados com os já existentes na literatura, que usam a aproximação de Wentzel-Kramers-Brillouin (WKB) como método de determinação dos modos QNs e dos PRs, e obtemos uma excelente concordância dentro do limite da aproximação eikonal (l ≥ 2 e l > n).
Resumo:
O método de empilhamento sísmico CRS simula seções sísmicas ZO a partir de dados de cobertura múltipla, independente do macro-modelo de velocidades. Para meios 2-D, a função tempo de trânsito de empilhamento depende de três parâmetros, a saber: do ângulo de emergência do raio de reflexão normal (em relação à normal da superfície) e das curvaturas das frentes de onda relacionadas às ondas hipotéticas, denominadas NIP e Normal. O empilhamento CRS consiste na soma das amplitudes dos traços sísmicos em dados de múltipla cobertura, ao longo da superfície definida pela função tempo de trânsito do empilhamento CRS, que melhor se ajusta aos dados. O resultado do empilhamento CRS é assinalado a pontos de uma malha pré-definida na seção ZO. Como resultado tem-se a simulação de uma seção sísmica ZO. Isto significa que para cada ponto da seção ZO deve-se estimar o trio de parâmetros ótimos que produz a máxima coerência entre os eventos de reflexão sísmica. Nesta Tese apresenta-se fórmulas para o método CRS 2-D e para a velocidade NMO, que consideram a topografia da superfície de medição. O algoritmo é baseado na estratégia de otimização dos parâmetros de fórmula CRS através de um processo em três etapas: 1) Busca dos parâmetros, o ângulo de emergência e a curvatura da onda NIP, aplicando uma otimização global, 2) busca de um parâmetro, a curvatura da onda N, aplicando uma otimização global, e 3) busca de três parâmetros aplicando uma otimização local para refinar os parâmetros estimados nas etapas anteriores. Na primeira e segunda etapas é usado o algoritmo Simulated Annealing (SA) e na terceira etapa é usado o algoritmo Variable Metric (VM). Para o caso de uma superfície de medição com variações topográficas suaves, foi considerada a curvatura desta superfície no algoritmo do método de empilhamento CRS 2-D, com aplicação a dados sintéticos. O resultado foi uma seção ZO simulada, de alta qualidade ao ser comparada com a seção ZO obtida por modelamento direto, com uma alta razão sinal-ruído, além da estimativa do trio de parâmetros da função tempo de trânsito. Foi realizada uma nálise de sensibilidade para a nova função de tempo de trânsito CRS em relação à curvatura da superfície de medição. Os resultados demonstraram que a função tempo de trânsito CRS é mais sensível nos pontos-médios afastados do ponto central e para grandes afastamentos. As expressões da velocidade NMO apresentadas foram aplicadas para estimar as velocidades e as profundidades dos refletores para um modelo 2-D com topografia suave. Para a inversão destas velocidades e profundidades dos refletores, foi considerado o algoritmo de inversão tipo Dix. A velocidade NMO para uma superfície de medição curva, permite estimar muito melhor estas velocidades e profundidades dos refletores, que as velocidades NMO referidas as superfícies planas. Também apresenta-se uma abordagem do empilhamento CRS no caso 3-D. neste caso a função tempo de trânsito depende de oito parâmetros. São abordadas cinco estratégias de busca destes parâmetros. A combinação de duas destas estratégias (estratégias das três aproximações dos tempos de trânsito e a estratégia das configurações e curvaturas arbitrárias) foi aplicada exitosamente no empilhamento CRS 3-D de dados sintéticos e reais.
Resumo:
O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.
Resumo:
Rochas siliciclásticas da Formação Raizama, unidade basal do Grupo Alto Paraguai de idade ediacarana-cambriana (635 – 541 Ma), ocorrem distribuídas descontinuamente ao longo da margem sul do Cráton Amazônico e segmento norte da Faixa Paraguai, centro-oeste do Brasil, estado do Mato Grosso. Estas recobrem discordantemente os depósitos de plataforma carbonática do Grupo Araras, onde foram registrados evidências do evento glacial Marinoano (635 Ma). O Grupo Alto Paraguai representa os estágios finais da colisão entre os blocos Amazônico e Paranapanema que culminaram no fechamento do Oceano Clymene (540-520 Ma). A Formação Raizama com espessura de aproximadamente 570 m é constituída por pelitos, arenitos finos a grossos, e arenitos com cimento dolomítico previamente interpretados como depósitos flúvio-costeiros distribuídos nos membros inferior (270 m) e superior (300 m). O estudo faciológico e estratigráfico desta unidade na região de Nobres, Estado do Mato Grosso, foi focado principalmente na seção aflorante de 600 m no leito do rio Serragem, que inclui a Cachoeira da Serra do Tombador. Foram definidas 17 fácies sedimentares, agrupadas em cinco associações de fácies (AF) representativas de uma sucessão costeira progradante iniciando por depósitos de shoreface inferior, os quais recobrem em conformidade correlativa os depósitos de plataforma carbonática da Formação Serra do Quilombo (Grupo Araras). A AF1 consiste em arenitos com laminação plano-paralela e laminação truncada por onda (microhummocky), individualizada por camadas de pelito laminado interpretadas como depósitos de shoreface inferior. Destaca-se na AF1 a primeira ocorrência de níveis centimétricos bioturbados por Skolithos em depósitos neoproterozoicos – cambrianos na Faixa Paraguai. A AF2 é formada por arenitos com estratificação cruzada swaley e estratificação plano-paralela interpretada como depósitos de shoreface superior. A AF3 é composta por arenitos com estratificações cruzadas tangenciais e acanaladas com recobrimentos de siltito/arenito muito fino representativos de depósitos de canal e barras de submaré. A AF4 é caracterizada por arenitos com estratificações cruzadas tangencial e sigmoidal, laminação plano-paralela a cruzadas de baixo-ângulo, ritmito arenito muito fino/siltito com acamamento flaser e gretas de contração, organizados em ciclos métricos de raseamento ascendente de planície de maré. A AF5 é constituída por arenito com estratificação cruzada acanalada marcada por lags residuais na base da associação, arenito com estratificações plano-paralela e cruzada de baixo-ângulo, interpretados como depósitos fluviais distais de rios entrelaçados, parcialmente retrabalhados por ondas. Grãos detríticos de zircão foram obtidos da AF3 e datados pelo método U-Pb, sendo a idade de 1001±9 Ma interpretada como a idade de máxima deposição da Formação Raizama. Aliado a tal análise, as paleocorrentes NE-SE mostram que estes grãos teriam como áreas fontes principais a Faixa Sunsás, SW do Cráton Amazônico, não sendo descartada contribuições oriundas da parte NW desse Cráton. A idade mesoproterozóica obtida serviu principalmente para desvendar a proveniência da Formação Raizama, enquanto que as datações da base do Grupo Araras, em torno de 627-622 Ma, associada à presença inequívoca do icnogênero Skolithos, tornam esta unidade muito mais próxima do limite com o Cambriano Inferior. Traços fósseis do Proterozoico são caracterizados quase que exclusivamente por traços horizontais, sendo que bioturbações verticais praticamente são ausentes ao longo do Neoproterozoico. Esta inferência vem de encontro com a idade máxima de 541 Ma obtida para a Formação Diamantino, a qual recobre a unidade estudada. Os dados radiométricos aliados com as interpretações paleoambientais, que incluem o registro das primeiras atividades de organismos perfurantes na Faixa Paraguai, abrem perspectivas de entender com maiores detalhes a sequência de eventos que tipificam os estratos do limite Ediacarano-Cambriano do Brasil, ainda pouco conhecidos.
Resumo:
In this letter, a methodology is proposed for automatically (and locally) obtaining the shape factor c for the Gaussian basis functions, for each support domain, in order to increase numerical precision and mainly to avoid matrix inversion impossibilities. The concept of calibration function is introduced, which is used for obtaining c. The methodology developed was applied for a 2-D numerical experiment, which results are compared to analytical solution. This comparison revels that the results associated to the developed methodology are very close to the analytical solution for the entire bandwidth of the excitation pulse. The proposed methodology is called in this work Local Shape Factor Calibration Method (LSFCM).
Resumo:
Purpose: There is no consensus on the optimal method to measure delivered dialysis dose in patients with acute kidney injury (AKI). The use of direct dialysate-side quantification of dose in preference to the use of formal blood-based urea kinetic modeling and simplified blood urea nitrogen (BUN) methods has been recommended for dose assessment in critically-ill patients with AKI. We evaluate six different blood-side and dialysate-side methods for dose quantification. Methods: We examined data from 52 critically-ill patients with AKI requiring dialysis. All patients were treated with pre-dilution CWHDF and regional citrate anticoagulation. Delivered dose was calculated using blood-side and dialysis-side kinetics. Filter function was assessed during the entire course of therapy by calculating BUN to dialysis fluid urea nitrogen (FUN) ratios q/12 hours. Results: Median daily treatment time was 1,413 min (1,260-1,440). The median observed effluent volume per treatment was 2,355 mL/h (2,060-2,863) (p<0.001). Urea mass removal rate was 13.0 +/- 7.6 mg/min. Both EKR (r(2)=0.250; p<0.001) and K-D (r(2)=0.409; p<0.001) showed a good correlation with actual solute removal. EKR and K-D presented a decline in their values that was related to the decrease in filter function assessed by the FUN/BUN ratio. Conclusions: Effluent rate (ml/kg/h) can only empirically provide an estimated of dose in CRRT. For clinical practice, we recommend that the delivered dose should be measured and expressed as K-D. EKR also constitutes a good method for dose comparisons over time and across modalities.
Resumo:
Background: Handling Totally Implantable Access Ports (TIAP) is a nursing procedure that requires skill and knowledge to avoid adverse events. No studies addressing this procedure with undergraduate students were identified prior to this study. Communication technologies, such as videos, have been increasingly adopted in the teaching of nursing and have contributed to the acquisition of competencies for clinical performance. Objective: To evaluate the effect of a video on the puncture and heparinization of TIAP in the development of cognitive and technical competencies of undergraduate nursing students. Method: Quasi-experimental study with a pretest-posttest design. Results: 24 individuals participated in the study. Anxiety scores were kept at levels 1 and 2 in the pretest and posttest. In relation to cognitive knowledge concerning the procedure, the proportion of correct answers in the pretest was 0.14 (SD=0.12) and 0.90 in the posttest (SD=0.05). After watching the video, the average score obtained by the participants in the mock session was 27.20. Conclusion: The use of an educational video with a simulation of puncture and heparinization of TIAP proved to be a strategy that increased both cognitive and technical knowledge. This strategy is viable in the teaching-learning process and is useful as a support tool for professors and for the development of undergraduate nursing students. (C) 2011 Elsevier Ltd. All rights reserved.
Resumo:
Abstract Background The aim of the present study was to investigate the relationship between speed during maximum exercise test (ET) and oxygen consumption (VO2) in control and STZ-diabetic rats, in order to provide a useful method to determine exercise capacity and prescription in researches involving STZ-diabetic rats. Methods Male Wistar rats were divided into two groups: control (CG, n = 10) and diabetic (DG, n = 8). The animals were submitted to ET on treadmill with simultaneous gas analysis through open respirometry system. ET and VO2 were assessed 60 days after diabetes induction (STZ, 50 mg/Kg). Results VO2 maximum was reduced in STZ-diabetic rats (72.5 ± 1 mL/Kg/min-1) compared to CG rats (81.1 ± 1 mL/Kg/min-1). There were positive correlations between ET speed and VO2 (r = 0.87 for CG and r = 0.8 for DG), as well as between ET speed and VO2 reserve (r = 0.77 for CG and r = 0.7 for DG). Positive correlations were also obtained between measured VO2 and VO2 predicted values (r = 0.81 for CG and r = 0.75 for DG) by linear regression equations to CG (VO2 = 1.54 * ET speed + 52.34) and DG (VO2 = 1.16 * ET speed + 51.99). Moreover, we observed that 60% of ET speed corresponded to 72 and 75% of VO2 reserve for CG and DG, respectively. The maximum ET speed was also correlated with VO2 maximum for both groups (CG: r = 0.7 and DG: r = 0.7). Conclusion These results suggest that: a) VO2 and VO2 reserve can be estimated using linear regression equations obtained from correlations with ET speed for each studied group; b) exercise training can be prescribed based on ET in control and diabetic-STZ rats; c) physical capacity can be determined by ET. Therefore, ET, which involves a relatively simple methodology and low cost, can be used as an indicator of cardio-respiratory capacity in future studies that investigate the physiological effect of acute or chronic exercise in control and STZ-diabetic male rats.
Resumo:
Abstract Background Air pollution in São Paulo is constantly being measured by the State of Sao Paulo Environmental Agency, however there is no information on the variation between places with different traffic densities. This study was intended to identify a gradient of exposure to traffic-related air pollution within different areas in São Paulo to provide information for future epidemiological studies. Methods We measured NO2 using Palmes' diffusion tubes in 36 sites on streets chosen to be representative of different road types and traffic densities in São Paulo in two one-week periods (July and August 2000). In each study period, two tubes were installed in each site, and two additional tubes were installed in 10 control sites. Results Average NO2 concentrations were related to traffic density, observed on the spot, to number of vehicles counted, and to traffic density strata defined by the city Traffic Engineering Company (CET). Average NO2concentrations were 63μg/m3 and 49μg/m3 in the first and second periods, respectively. Dividing the sites by the observed traffic density, we found: heavy traffic (n = 17): 64μg/m3 (95% CI: 59μg/m3 – 68μg/m3); local traffic (n = 16): 48μg/m3 (95% CI: 44μg/m3 – 52μg/m3) (p < 0.001). Conclusion The differences in NO2 levels between heavy and local traffic sites are large enough to suggest the use of a more refined classification of exposure in epidemiological studies in the city. Number of vehicles counted, traffic density observed on the spot and traffic density strata defined by the CET might be used as a proxy for traffic exposure in São Paulo when more accurate measurements are not available.
Resumo:
Abstract Background To establish the correlation between quantitative analysis based on B-mode ultrasound images of vulnerable carotid plaque and histological examination of the surgically removed plaque, on the basis of a videodensitometric digital texture characterization. Methods Twenty-five patients (18 males, mean age 67 ± 6.9 years) admitted for carotid endarterectomy for extracranial high-grade internal carotid artery stenosis (≥ 70% luminal narrowing) underwent to quantitative ultrasonic tissue characterization of carotid plaque before surgery. A computer software (Carotid Plaque Analysis Software) was developed to perform the videodensitometric analysis. The patients were divided into 2 groups according to symptomatology (group I, 15 symptomatic patients; and group II, 10 patients asymptomatic). Tissue specimens were analysed for lipid, fibromuscular tissue and calcium. Results The first order statistic parameter mean gray level was able to distinguish the groups I and II (p = 0.04). The second order parameter energy also was able to distinguish the groups (p = 0,02). A histological correlation showed a tendency of mean gray level to have progressively greater values from specimens with < 50% to >75% of fibrosis. Conclusion Videodensitometric computer analysis of scan images may be used to identify vulnerable and potentially unstable lipid-rich carotid plaques, which are less echogenic in density than stable or asymptomatic, more densely fibrotic plaques.
Resumo:
Abstract Background Educational computer games are examples of computer-assisted learning objects, representing an educational strategy of growing interest. Given the changes in the digital world over the last decades, students of the current generation expect technology to be used in advancing their learning requiring a need to change traditional passive learning methodologies to an active multisensory experimental learning methodology. The objective of this study was to compare a computer game-based learning method with a traditional learning method, regarding learning gains and knowledge retention, as means of teaching head and neck Anatomy and Physiology to Speech-Language and Hearing pathology undergraduate students. Methods Students were randomized to participate to one of the learning methods and the data analyst was blinded to which method of learning the students had received. Students’ prior knowledge (i.e. before undergoing the learning method), short-term knowledge retention and long-term knowledge retention (i.e. six months after undergoing the learning method) were assessed with a multiple choice questionnaire. Students’ performance was compared considering the three moments of assessment for both for the mean total score and for separated mean scores for Anatomy questions and for Physiology questions. Results Students that received the game-based method performed better in the pos-test assessment only when considering the Anatomy questions section. Students that received the traditional lecture performed better in both post-test and long-term post-test when considering the Anatomy and Physiology questions. Conclusions The game-based learning method is comparable to the traditional learning method in general and in short-term gains, while the traditional lecture still seems to be more effective to improve students’ short and long-term knowledge retention.