462 resultados para Acurácia Posicional
Resumo:
En la escuela Emili Carles-Tolrà de Castellar del Vallès (Barcelona) se han desarrollado dos experiencias educativas para mostrar la importancia del lenguaje en el área de las matemáticas. Una de las experiencias se basa en la lectura colectiva de un comprobante de caja de las entradas al zoo de Barcelona en una clase de primero de educación primaria, la otra experiencia consiste en descubrir a través del diálogo algunas propiedades del sistema de numeración posicional. A través de esta experiencia se demuestra que los niños y niñas de ciclo inicial tienen muchos conocimientos matemáticos y a través del diálogo se produce una modificación de los puntos de vista de cada niño llegando a acuerdos que se pueden aplicar en diferentes contextos.
Resumo:
La investigación pretende ofrecer un tratamiento de una serie de problemas planteados en el estudio de los adverbios. El primero se centra en la existencia o no del adverbio como categoría independiente en la lengua. El segundo aspecto abordado guarda relación con el tipo de proyección en que se generan los adverbios, así como con su modo de ensamblarse en la estructura, es decir si estos constituyentes son adjuntos o especificadores. El tercer tema se relaciona con los principios que regulan la legitimación y la movilidad posicional de los adverbios.. Este trabajo, desde un punto de vista teórico, responde a dos motivos. En primer lugar, el desarrollo en los últimos años de un nuevo modelo de creación de estructura, que abre nuevas vías a un tratamiento de los adverbios, en el que es posible compararlo con el análisis de los adverbios como especificadores únicos o múltiples de las categorías léxico-funcionales de la cláusula, todo ello sin dejar de lado la opción de la adjudicación. En segundo lugar, los avances en el estudio de la estructura conceptual de las piezas léxicas ayudan a profundizar en la relación existente entre la modificación adverbial y la estructura semántica de los predicados.. Por otro lado, desde un punto de vista empírico, el autor considera necesario actualizar el análisis descriptivo de los adverbios en español..
Resumo:
Hipótesis: ¿la inversión es tomada en consideración por los sujetos vascófonos? ¿en qué momento su influencia es perceptible? ¿hay otros caracteres pragmáticos que ejercen una influencia en la comprensión de frases simples vascas?. ¿En qué momento las flexiones casuales comienzan a ser tomadas en consideración, y cuando son dominadas? ¿la categorización flexional de las funciones casuales es adquirida antes de la categorización posicional? ¿Las reglas de orden que han sido sacadas de experiencias efectuadas en inglés y francés, se aplican al tratamiento del vasco?, y en caso afirmativo, ¿cuál es la naturaleza de estos tratamientos?. 480 sujetos vasco parlantes entre 3 años y 11 años pertenecientes a ikastolas de Rentería y Oyarzun, y 80 adultos. Estudia la organización y evolución de los procedimientos de tratamiento relativos a las funciones casuales fundamentales de la frase simple, sin tener en cuenta los parámetros discursivos implicados. Cuestionario realizado ad hoc sobre aspectos familiares. Seis enunciados: los cinco primeros contienen dos lexemas nominales y un verbo, y el sexto contiene tres nombres y un verbo (A,B,C,D,E,F). Prueba de Chi cuadrado. Índice descriptivo de dependencia: coeficiente de Crámer. Coeficiente de contingencia. Para los lexemas nominales de los enunciados de tipo D (hija-perro-invertir), el perro es elegido tres veces más como agente que la hija. Entre la hija y el muchacho de los enunciados de tipo A, el muchacho es muchas más veces considerado como agente que la hija. De los tres lexemas animales de los enunciados F, el hombre es también interpretado más como agente que el perro y el pájaro. En los enunciados C (coche-camión-entrar-introducir), se constata que la atribución del rol depende de la interpretación transitiva o intransitiva del verbo. En Euskera la utilización apropiada de signos morfológicos casuales es muy tardía: los sujetos no se refieren a ellos antes de los 10 años y medio. Los tratamientos de tipo posicional tienen una presencia limitada pero netamente perceptible, sobre todo en el caso de los enunciados de procesos transitivo y reversible.
Resumo:
Resumen tomado de la publicación
Resumo:
Resúmen basado en el del autor. Resúmen en castellano y en inglés
Resumo:
Los objetivos concretos son: analizar qu?? tipo de d??ficits muestran los ni??os con dificultades espec??ficas en el c??lculo, partiendo de los estudios cognitivos que describen los mecanismos implicados en tareas de c??lculo y especificando c??mo se deben desarrollar esos procesos; describir cu??l es el curso evolutivo que siguen estos d??ficits; estudiar qu?? factores cognitivos se relacionan con los d??ficits encontrados. 99 alumnos de educaci??n primaria de diferentes colegios p??blicos de Salamanca. El m??todo usado se basa en la cronometr??a mental, en el an??lisis de los procesos b??sicos a partir de los tiempos de respuesta a las distintas tareas propuestas. Se analizan los tiempos de respuesta a distintas tareas relacionadas con el c??lculo para inferir dos aspectos: los procesos cognitivos y estrategias que subyacen a la resoluci??n de las operaciones y la organizaci??n o representaci??n de las distintas combinaciones num??ricas en la memoria. Adem??s de los an??lisis descriptivos comparando el rendimiento de los alumnos, se lleva a cabo an??lisis correlacionales desde la l??gica de la predicci??n de los tiempos de respuesta en funci??n de distintas variables estructurales relacionadas con los procesos b??sicos de c??lculo. An??lisis de varianza, para comprobar el tipo de estrategias que utilizan los alumnos. An??lisis de regresi??n. Prueba de combinaciones num??ricas b??sicas para medir la cronometr??a mental. Prueba de activaci??n autom??tica de hechos num??ricos, para evaluar la automatizaci??n de los procesos que subyacen a las operaciones simples. Prueba de comparaci??n de magnitudes, para evaluar la velocidad del procesamiento num??rico. Prueba de operaciones multid??gitos (sumas y restas). Tareas de memoria de trabajo. Se constatan dos tipos de d??ficits: procedimentales y de recuperaci??n de hechos desde la memoria. En cuanto a los d??ficits en la recuperaci??n de hechos, se comprueba que nos se deben a un retraso sino a diferencias en el desarrollo. Se observa otro problema asociado con el concepto de valor posicional: las llevadas. Otro aspecto que se encuentra en los alumnos con dificultades es la velocidad de procesamiento. Los alumnos con dificultades tienen un rendimiento inferior en tareas relacionadas con la memoria de trabajo. Los alumnos con d??ficits espec??ficos en la recuperaci??n de hechos desde la memoria, y estos d??ficits se mantienen en el tiempo, por lo que pueden ser considerados una diferencia en el desarrollo con respecto a los alumnos sin dificultades. Se constata la evidencia de que el mundo de las dificultades espec??ficas en el aprendizaje de una de las materias instrumentales b??sicas, el c??lculo, se encuentra infradesarrollado con respecto al otro ??rea instrumental: la lectoescritura. Se afirma que se necesitan m??s estudios que profundicen en los distintos factores espec??ficos que pueden estar influyendo en estas dificultades.
Resumo:
Elaboración de un cuestionario que recoja la respuesta de los alumnos a los distintos aspectos de contenido de las matemáticas en el Primer Ciclo de Educación Primaria. El cuestionario está diseñado como un test de potencia basado en la práctica docente. Recoge las aportaciones de distintos profesionales y tendencias en el proceso didáctico. Pretende identificar carencias de los alumnos en cada uno de los bloques temáticos y tipos de contenido que componen el currículo de matemáticas para el Primer Ciclo de Educación Primaria. El cuestionario se administró a alumnos de la Región de Murcia según la distribución territorial de la Consejería de Educación y Cultura. Una vez en disposición de los datos procedentes de la muestra de 682 alumnos, se procede al análisis de los cuestionarios tomando como punto de partida los supuestos de la Teoría de la Respuesta al Ítem, que es un compendio de modelos matemáticos que tratan de establecer, a partir de una función estadística, la probabilidad de que un sujeto acierte o falle un ítem. No se vincula a teorías sobre la inteligencia sino a problemas técnicos derivados de la construcción de test y a la estadística matemática. Se realiza un análisis factorial exploratorio para comprobar la hipótesis de partida. Al confirmarse, se procede a la realización de los correspondientes estudios de validez y a la confección de la ficha técnica del cuestionario. La hipótesis formulada partía de que la competencia matemática se estructura de forma multifactorial con factores ligados a aspectos numéricos, componentes heurísticos y a aspectos reacionados con la organización espacio-temporal.. Se ha realizado un Análisis de Componentes Principales con la finalidad de determinar el número de componentes que pueden explicar mayoritariamente la covariación entre los items. Los tres componentes encontrados son: el componente operativo, que hace referencia a las competencias en el manejo de algoritmos y la aplicación de los mismos en la solución de problemas. El componente estimativo, que hace referencia a las competencias en estimación y medida, así como a la localización mediante posiciones relativas y reconocimiento de formas y figuras y el componente de dominio local que hace referencia a las competencias en el manejo del valor posicional de las cifras de un número en lo referente al dominio de la semirecta de los números naturales. A la vista de los resultados, la competencia matemática se expresa en función de las componentes señaladas. El autor presenta aportaciones psicopedagógicas para la didáctica de las matemáticas en el Primer Ciclo de Educación Primaria, que se derivan de los resultados de su investigación..
Resumo:
Resumen tomado de la publicaci??n
Resumo:
OpenStreetMap se inició en 2004 y ha crecido de forma paralela a los proyectos de software libre hasta convertirse en el ejemplo más veterano y de mayor envergadura dentro de lo que se conoce como información geográfica voluntaria (VGI en su acrónimo inglés). El auge del uso de este tipo de datos deja, sin embargo, ciertas preguntas abiertas como por ejemplo: ¿Hasta qué punto son fiables los datos así obtenidos? ¿Cuál es su calidad? En el presente trabajo se ha realizado una comparación de los datos geográficos producidos por voluntarios dentro del proyecto de colaboración OpenStreetMap, con los datos producidos por instituciones y armonizados dentro del proyecto Cartociudad. La intención de la comparación es evaluar la calidad de los primeros respecto de los segundos. Para ello se ha definido el término de calidad cartográfica y se han evaluado los diferentes elementos de calidad cartográfica de OpenStreetMap: precisión espacial y de atributos, compleción, calidad temporal y consistencia lógica. El trabajo se realiza con los datos a dos niveles: municipio y/o provincia de Valencia. Los resultados de este análisis muestran que OpenStreetMap tiene una precisión posicional y temporal más que adecuada para usos geocodificación y cálculo de rutas. Sin embargo la heterogeneidad de la cobertura de datos y ciertas inconsistencias internas pueden comprometer su uso. A pesar de ello, se destaca el potencial del proyecto y de una solución de cálculo de rutas óptimas (OpenRouteService) que utiliza con éxito los datos de OpenStreetMap
Resumo:
Os métodos de diagnóstico sorológico são ainda as ferramentas mais realistas e aplicáveis para identificação de cães com leishmaniose visceral. A pesquisa por métodos sorológicos mais eficientes e de produção simplificada é importante para a identificação do reservatório canino, ação primordial para o controle da doença. Este estudo teve por objetivo o desenvolvimento e a avaliação do desempenho de um ELISA para leishmaniose visceral canina, utilizando como conjugado enzimático uma IgY anti-IgG canina. Para isto, galinhas poedeiras foram imunizadas com IgG canina purificada e a IgY anti-IgG foi isolada das gemas dos ovos por precipitação com polietilenoglicol e purificada por meio de adsorção tiofílica. A especificidade frente ao antígeno imunizante foi verificada por imunodifusão radial dupla, ELISA e western-blot. O ELISA foi desenvolvido utilizando IgY conjugada a enzima peroxidase, tendo seus parâmetros de acurácia avaliados e comparados com o ELISA utilizando IgG de mamíferos conjugada a peroxidase. A concentração total de IgY isolada nas gemas foi constante, sem diferença significativa nos meses analisados (...), com média de 97,55 mg de IgY/ gema. A IgY produzida reconheceu a IgG canina, demonstrando uma forte sensibilidade e especificidade no ELISA, porém na imunodifusão não foi detectada ligação da IgY produzida a IgG canina. Após a imunização, houve um aumento significante da produção de IgY específica do primeiro para o segundo mês (...) onde ocorreu um pico estável sem queda de produção até o final do período analisado (...). A IgY demonstrou ainda, forte reatividade no western-Blot frente a IgG canina purificada e a presente no soro de cão clinicamente saudável, não sendo capaz de reconhecer IgG de outras espécies animais.
Resumo:
Em 2007-2008, o Rio de Janeiro viveu uma epidemia de dengue com 80.404 notificações, com 109 óbitos, 42% em < 15 anos. Objetivos: 1. Descrever a distribuição espacial e o perfil clínico-epidemiológico da epidemia de dengue por faixa etária no município do Rio de Janeiro. 2. Avaliar os fatores clínicos e laboratoriais preditivos de dengue grave em uma coorte de crianças internadas. Métodos: Esta tese foi formatada com dois artigos: 1) Distribuição espacial e caracterização clínico-epidemiológico do dengue no município do Rio de Janeiro; 2) Sinais clínicos e laboratoriais associados ao dengue grave em crianças hospitalizadas. Artigo 1: estudo ecológico com base no Sistema de Informação de Agravos de Notificação do município do Rio de Janeiro (2007-2008). Foram incluídos todos os casos de dengue confirmados pelo critério clínico-laboratorial dos residentes do município do Rio de Janeiro. Foram descritas as variáveis sócio demográficas e clínicas (classificação do caso, hospitalização e evolução) segundo a idade. Foi utilizado o critério de classificação de caso do Ministério da Saúde de 2005 (febre do dengue, dengue com complicações e febre hemorrágica do dengue - FHD). Autocorrelação espacial das taxas de incidência, mortalidade e letalidade foi verificada pelos índices de Moran e de Geary Artigo 2: coorte retrospectiva das hospitalizações por dengue (até 18 anos) em uma unidade de referência (2007-2008). Dengue grave foi definido pelo uso de terapia de suporte avançado de vida ou óbito. Diferenças de medianas e de proporções foram avaliadas, respectivamente, pelo teste de Mann-Whitney e pelo exato de Fisher (p<0,05). Foram calculados os parâmetros de acurácia dos sinais e sintomas. Resultados: Artigo 1: De 159887 notificações, 151527 eram residentes do município do Rio de Janeiro, 38.808 preencheram os critérios de inclusão. Destes, 8897 (22,9%) tiveram complicações e 1051 (2,7%) FHD; 16.436 (42,4%) eram < 18 anos e 15.288 (39,4%) foram confirmados laboratorialmente. A letalidade foi maior em lactentes (1,4%) e nos casos de FHD (7,7%). Extravasamento plasmático foi mais comum de 2 a 11 anos. Houve autocorrelação espacial global quanto à mortalidade e letalidade e autocorrelação local para os três índices (p<0,05). Artigo 2: De 145 pacientes, 53,1% eram do sexo feminino, com mediana de idade de 8,7 anos (IIQ=7,2-11,5); 15,9% evoluíram para gravidade A duração da febre em dias foi menor no grupo grave (G: Mediana Md=3,0, IIQ= 2,0\20134,5; NG: Md=4,0, IIQ=3,0\20135,0; p=0.062). Letargia, irritabilidade, sangramento, dispneia, ausculta pulmonar alterada, derrame pleural, distensão abdominal e edema foram associados à evolução para gravidade (p<0,05). Níveis de hematócrito (p=008) e de albumina sérica (p<0,001) foram menores nos graves. Letargia apresentou Valor Preditivo Negativo (VPN) > 90%, com Valor Preditivo Positivo (VPP) de 80%. As demais variáveis com p-valor <0,05 apresentaram VPN próximo ou > 90%, com baixo VPP. Conclusão: Apesar da incidência de FHD ter sido maior entre escolares, os lactentes tiveram maior letalidade. Extravasamento plasmático foi mais frequente em escolares e pré-escolares. Sangramento, sonolência e irritabilidade na admissão hospitalar associaram-se à gravidade e o derrame cavitário obteve maior acurácia do que a hemoconcentração como sinal de extravasamento plasmático
Resumo:
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
Resumo:
Este estudo é de cunho qualitativo, em nível exploratório, descritivo e interpretativo, e teve como objetivo analisar as concepções de discentes e docentes sobre competências e sua relação com o processo ensino-aprendizagem do diagnóstico de enfermagem. O Referencial Teórico norteador contemplou os três focos que constituem a Área Temática da investigação: o diagnóstico de enfermagem, as competências e o processo ensino-aprendizagem. A investigação foi realizada na Escola de Enfermagem da Universidade Federal do Rio Grande do Sul cujo hospital universitário introduziu o diagnóstico de enfermagem informatizado na sistematização da assistência aos pacientes. Participaram do estudo onze discentes do último ano do curso de graduação e dez docentes que orientavam alunos, ambos em atividades de ensino teórico-prático no hospital com a utilização do diagnóstico de enfermagem informatizado. As informações foram coletadas em duas etapas, primeiramente através de oito entrevistas individuais semi-estruturadas. Num segundo momento, foram realizados dois grupos focais, um de docentes e outro de discentes, cada um com quatro sessões para a coleta de informações e uma para validação dos resultados. Utilizei Análise de Conteúdo proposta por Moraes (1999) como metodologia de análise. Na identificação e contextualização das concepções dos discentes e docentes sobre competências na enfermagem, emergiram três categorias: significações (função própria de um profissional e capacidade para desempenhar uma tarefa com qualidade, envolvendo conhecimento, experiência e valores pessoais), atributos (do profissional enfermeiro e do docente de enfermagem. Os atributos da competência coincidem com as características do pensador crítico) e dimensões (técnicocientífica; humanística – ética, estética e cultural -; de relacionamento interpessoal; comunicativa – verbal, escrita e computacional -; sociopolítica; educacional) de competência. Ao relacionar as concepções que os participantes possuem sobre competências com o processo ensino-aprendizagem do diagnóstico de enfermagem, as categorias foram: relação com os saberes/conhecimentos (ênfase do ensino ainda saber técnico, ambigüidade diante do conhecimento específico do diagnóstico de enfermagem, importância do desenvolvimento da dimensão humanística para a elaboração de diagnósticos individualizados), estratégias de ensino-aprendizagem (trabalhar com estudos de caso, desenvolver postura metacognitiva, enfatizar o processo diagnóstico e não só sua denominação, desenvolver acurácia diagnóstica, exercitar o processo diagnóstico previamente ao uso da informática, realizar pesquisas visando propor novos diagnósticos adequados à nossa realidade sociocultural), e contexto institucional do curso (implicações curriculares - o diagnóstico de enfermagem é complexo e exige conhecimentos pouco trabalhados no currículo, e política institucional da Escola de Enfermagem - trabalhar com os diagnósticos de enfermagem no ensino implica decisão institucional, e não só individual ou das disciplinas). Os resultados apontaram para a necessidade de formação de professores acerca dos diagnósticos de enfermagem com vistas à construção de competência do discente e do docente, da competência coletiva, com a partilha de
Resumo:
O Estado do Rio Grande do Sul é grande produtor e exportador de grãos, sendo responsável por, aproximadamente, 20% da produção nacional de soja. No entanto, os rendimentos desta cultura apresentam alta variabilidade interanual, conseqüência da também alta variabilidade interanual da precipitação pluvial. O objetivo deste trabalho foi ajustar e validar um modelo agrometeorológico-espectral de estimativa do rendimento da soja para o Rio Grande do Sul, para ser utilizado em programas de previsão de safras. O modelo proposto é composto por um termo agrometeorológico, obtido pelo ajuste do modelo multiplicativo de Jensen (1968), modificado por Berlato (1987) ao qual foi introduzido um fator de correção, e um termo espectral, obtido pela média do NDVI máximo dos meses de dezembro e janeiro. Os dados de rendimento médio da soja (estatísticas oficiais do IBGE) e os dados de estações meteorológicas (obtenção da evapotranspiração relativa - ETr/ETo) foram referentes ao período de 1975 a 2000, enquanto que as imagens de NDVI/NOAA foram do período de 1982 a 2000. A aplicação do modelo de Jensen modificado permite a obtenção das estimativas do rendimento da cultura da soja, no Estado do Rio Grande do Sul, com precisão, rapidez, praticidade, objetividade e baixo custo, cerca de um mês antes do final da colheita, conferindo ao mesmo um caráter preditivo. A aplicação do modelo agrometeorológico-espectral, entretanto, promove melhoria na acurácia das estimativas dos rendimentos, permitindo a geração de mapas de rendimento de soja para a região de produção significativa desta cultura no Estado, considerando, além da evapotranspiração relativa, outros fatores que influenciam na determinação dos rendimentos. A utilização de imagens de satélite, recursos de informática e de geoprocessamento permite rapidez na análise de dados para a avaliação do desenvolvimento das culturas agrícolas.
Resumo:
A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.