828 resultados para Otimização Multiobjetivo (MOO)
Resumo:
Este trabalho tem por finalidade analisar de forma sintética os diversos recursos colocados a disposição no ordenamento jurídico e discutir a eficácia do sistema recursal a fim de demonstrar a necessidade de critérios técnicos na valoração de alternativas que podem facilitar o alcance do resultado jurídico. O termo efetividade advém do latim efficere, que significa produzir , realizar, estar ativo de fato. A questão da realização efetiva do processo vem tomando espaço, cada vez maior, junto aos operadores do direito, que passaram a preocupar-se com um valor fundamental, qual seja, a indispensabilidade da efetividade do processo, enquanto instrumento de realização da justiça. O Estado, na posição de titular da Jurisdição, assume importante papel, na medida em que deve assegurar, a todos os cidadãos, a efetivação dos seus direitos, mediante o instrumento do processo. O processo deve propiciar, à parte que lhe invocar, a efetividade do resultado que a mesma poderia alcançar, caso lhe fosse permitido usar dos recursos próprios para exigir o cumprimento da lei. Atualmente, a efetividade é tida como o maior desígnio do processo moderno. Cada vez mais, percebe-se que não basta, ao direito processual, a pureza conceitual de seus institutos e de seus remédios, mas sim, deve ser observado o resultado prático que tais institutos propiciam, pois, nos tempos modernos, o que se espera é um processo de resultado que satisfaça a pretensão dos que acionam. Apesar da crescente preocupação quanto à efetividade do processo, nota-se, também, acentuado interesse no que diz respeito à segurança jurídica do processo, a qual deve, igualmente , ser observada e assegurada, para que não se atropele princípios básicos do direito, como o Devido Processo Legal. Diversas são as causas que emperram a celeridade da justiça: o enorme número de processos que sobrecarregam o trabalho nos tribunais, a grande possibilidade de recursos dada às partes, à falta de comprometimento na elaboração das leis. Conhecendo as causas, é preciso que se busque a solução. Os operadores do direito devem ser preparados para tomarem decisões eficazes. Conseguir a máxima eficiência técnica somente se torna viável se for demonstrada a máxima eficiência administrativa. Deve-se procurar a eficiência técnica do Judiciário compatível com a eficiência Administrativa. O presente estudo propõe a aplicação de técnicas administrativas para elaboração de modelos de auxílio aos problemas de gestão, bastante desenvolvida em grandes empresas. Entretanto, por carência de apoio técnico especializado, seu emprego no sistema judiciário é muito limitado, apesar de seu potencial como fator de otimização de desempenho ser similar.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.
Resumo:
Compreender o comportamento de compra das organizações é um importante desafio, tanto para os meios acadêmicos quanto empresariais, não apenas pela abrangência e complexidade do tema, mas também pelos volumes de negócios envolvidos entre empresas. Com o intuito de contribuir com o aprofundamento dos conhecimentos atinentes ao assunto, o presente estudo objetivou descrever as variáveis organizacionais referentes ao comportamento de compra das grandes empresas industriais associadas à Federação das Indústrias do Estado do Rio Grande do Sul. Foram pesquisadas 82 organizações com mais de 500 funcionários e analisados seus comportamentos relativos à compra de itens considerados "A" de estoque e utilizados diretamente em seus processos produtivos. Buscou-se verificar a utilização da tecnologia como forma de otimização de processos, o nível de prúfissionalização dos funcionários dos departamentos, a fonnalização e centralização empregadas nas atividades de compras, as principais políticas, regras e procedimentos da área, a participação da mesma em decisões consideradas de alto nível relativas a fontes de suprimentos e a predominância de atividades estratégicas ou operacionais no funcionamento dos setores de compras. Visou-se também identificar a existência de associações entre tais aspectos e o tamanho das empresas. Verificou-se que as empresas preocupam-se com o investimento em recursos para os setores de compras, através do oferecimento de treinamentos a seus funcionários e da disponibilização de tecnologias para a otimização de rotinas. Constatou-se também que as organizações são, em geral, bastante formalizadas e centralizadas, e que o comprador dispõe de pouca autonomia. Com relação às políticas relativas a fontes de fornecimento, observou-se que a maioria das empresas pratica a terceirização de seus processos produtivos e possui relacionamentos mais estreitos com seus fornecedores, sem entretanto, limitar-se a uma base local de suprimento, pois reconhecem e adquirem insumos de acordo com as alternativas globais. Identificou-se ainda a prevalência de atividades operacionais em relação às estratégicas no funcionamento dos setores de aquisição pesquisados. Com relação ao tamanho das organizações, foi possível constatar que as maiores tendem a oferecer mais treinamentos a seus profissionais de compras, possuem mais recursos tecnológicos alocados a estes setores, mais comumente estabelecem relacionamentos de longo prazo com os fornecedores e importam componentes.
Resumo:
A utilização de programas de processamento de imagens digitais e de sistemas de informações geográficas que admitem a importação e exportação de inúmeros formatos de apresentação de dados, aliado a modernos equipamentos de computação, tem tornado a integração de dados, de diferentes sensores, um caminho padrão em Geociências, pela otimização da relação custo/tempo na execução de serviços de mapeamento. Neste contexto, esse trabalho resulta da análise da integração de dados de sensoriamento remoto e geofísica, com o objetivo de verificar sua aplicabilidade na identificação e caracterização litológica e estrutural de uma área-teste, localizada na Região de Quitéria -Várzea do Capivarita, no Estado do Rio Grande do Sul. A metodologia usada, em um primeiro momento, priorizou o processamento e análise individual de dados cartográficos, de imagens TM/LANDSAT-5 e dados de aeromagnetometria e aerogamaespectrometria nos canais Contagem Total (CT), Potássio (K), Tório (Th) e Urânio (U). Os dados foram, a seguir, convertidos para o formato digital na forma de imagens (“raster”) com resolução espacial de 30 x 30 m, a fim de permitir o cruzamento de informações através de técnicas de Processamento Digital de Imagens e de Sistemas de Informações Geográficas (SIG’s). A integração das imagens TM e geofísicas foi realizada com o uso da Transformação IHS, através da conversão das bandas TM para as componentes individuais I, H e S; substituindo-se a componente H, pela imagem geofísica no retorno ao espaço RGB. A análise dos produtos de sensoriamento remoto e geofísica obtidos nessa pesquisa, permitiram identificar os Domínios Morfoestruturais; identificar e delimitar as diferentes Unidades Fotolitológicas; reconhecer os principais sistemas estruturais a partir da extração e análise de lineamentos; obter informações do padrão de relevo magnético; e, principalmente, a geração de imagens temáticas de teores de radioelementos com a identificação de áreas promissoras de mineralizações. Os resultados comprovam a eficiência do emprego de técnicas de integração de dados digitais, via computador, tanto para fins de mapeamento litoestrutural, como em caráter prospectivo, em serviços geológicos de grandes áreas.
Resumo:
Este trabalho apresenta novos resultados matemáticos sobre a positividade local de funções escalares multivariáveis. Estes resultados são usados para resolver de forma quantitativa o problema de controle +¥ não-linear. Por solução quantitativa, entende-se uma solução (uma lei de controle) associada a uma região de validade. A região de validade é a região do espaço de estados onde os requerimentos de estabilidade e desempenho são satisfeitos. Para resolver o problema de forma eficiente, foi desenvolvido um procedimento que visa maximizar a região de validade do controlador enquanto garante um desempenho mínimo. A solução deste problema de otimização é estudada e alternativas para sua simplificação são apresentadas. Uma aplicação experimental a um sistema de controle de pH é apresentada. A utilidade dos resultados teóricos desenvolvidos na teoria de estabilidade de Lyapunov também é estudada.
Resumo:
A crescente demanda por produtos de melhor qualidade, diferenciados e com custos competitivos tem forçado as manufaturas a se tornarem flexíveis, capacitando-as a responder às mudanças impostas pelo mercado. A flexibilidade permite que as empresas alcancem a customização desejada através da capacitação do sistema de responder e atuar em tempo real, mesmo em um ambiente de incertezas. Para atuar em tempo real, os sistemas de manufatura precisam de representações eficientes dos planos de produção. Muitas vezes, a atuação em tempo real torna-se inviável devido ao crescimento exponencial no número de planos de produção para cada máquina ou operação adicionada ao sistema. Uma possível solução para este problema é uso de representações adequadas para o espaço de estados. A escolha de uma representação adequada para o espaço de estados influencia na capacidade de reposta em tempo real, pois determina o desempenho computacional do sistema através da utilidade e eficiência dos algoritmos desenvolvidos, tornando possível explorar problemas clássicos de flexibilidade, tais como, seqüenciamento, otimização, etc. Entretanto, a geração de uma representação que trabalhe com o espaço de estados completo de uma manufatura é considerada um problema não polinomial (NP). Esta particularidade dificulta o desenvolvimento de algoritmos que trabalhem com uma manufatura flexível. Assim, a geração de uma representação, que trabalhe com pouca memória computacional e permita o desenvolvimento de heurísticas eficientes, é um importante desafio para uma avaliação efetiva da flexibilidade. Este trabalho objetiva o desenvolvimento de uma representação para o espaço de estados de uma manufatura com flexibilidade de seqüência. Na construção desta representação são aplicadas técnicas de modelagem baseadas na teoria dos grafos e nos princípios de álgebra booleana. Inicialmente, os grafos são utilizados para representar todas as seqüências de operações de uma manufatura, posteriormente estas seqüências são convertidas em formas normais disjuntivas (FND). Por fim, é apresentada uma possível aplicação da representação na FND em modelos de programação linear.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
Esse trabalho apresenta um estudo envolvendo uma proposta para os procedimentos de projeto de redes de acesso, aplicado à telefonia móvel celular. O trabalho foi desenvolvido através de uma pesquisa-ação. O projeto de redes de acesso é um assunto bastante antigo em telefonia, mas, em se tratando de telefonia móvel, passa a ser uma novidade. Inicialmente, foi realizado um estudo teórico, buscando as tecnologias disponíveis no mercado, tais como as sugeridas por fornecedores de equipamentos. Foram consideradas também as modificações feitas em teorias das redes de acesso da telefonia fixa. O resultado do estudo teórico forneceu uma base para seguir o trabalho, aplicando o modelo em um estudo real. Posteriormente, foi desenvolvido um estudo prático, envolvendo o planejamento da rede de acesso ao anel óptico norte. A abordagem proposta contempla as seguintes etapas: (i) estudo detalhado das configurações, em busca de uma configuração básica a ser expandida em toda a rede; (ii) desenho da rede, propondo um método de desenho de rede de acesso, aplicado à rede da Telefônica Celular nas estações existentes; (iii) otimização do desenho da rede, buscando soluções para as inviabilidades apresentadas no desenho ideal; e (iv) a concretização do trabalho, com o desenho de rede proposto para implementação em campo. A abordagem desenvolvida neste estudo auxilia o projetista nas etapas de planejamento de redes de acesso. Seguindo a abordagem proposta, desenvolvida junto à telefonia celular, tem-se maior facilidade no gerenciamento e nas tomadas de decisão, principalmente em momentos de expansão da rede.
Resumo:
Esta dissertação tem por objeto a Didática do Ensino da Tradução. Partindo do pressuposto que tradução pode ser ensinada, pretende, através dos postulados teóricos de DELISLE e HURTADO, chegar à concepção da melhor abordagem didática para esse ensino. Considerando a realidade organizacional e didática de um curso de formação de tradutores, analisa a sua situação atual e oferece sugestões para a otimização do seu trabalho, levando em conta a opinião de estudantes e professores que a ele estão vinculados. Neste trabalho, a perspectiva escolhida foi a do Ensino por Objetivos de Aprendizagem, desenvolvida por meio do Enfoque por Tarefas de Tradução. Inicialmente faz-se uma revisão bibliográfica sobre o ensino da tradução e suas perspectivas em âmbito nacional e institucional; em seguida, retomam-se várias tendências didáticas dessa área de estudo e chega-se ao posicionamento por uma nova proposta didática que encare a tradução como processo mental peculiar, ou seja, um conhecimento procedimental - o saber como - que fundamentado em princípios teóricos que serão fixados pela prática, é processado de forma essencialmente automática. Esses princípios, oriundos da psicologia cognitiva, encaminham o trabalho para a proposição de novas possibilidades de ensino e aprendizagem. O estudo realizado propiciou o surgimento de diversas questões sobre a situação do ensino da tradução, em sentido amplo, mas principalmente no Bacharelado em Tradução da UFRGS. A reflexão que a partir daí se faz resulta em sugestões sobre procedimentos didáticos que poderão subsidiar esse curso, não só nos seus aspectos pedagógicos, mas também na sua estrutura organizacional.
Resumo:
O setor orizícola do Rio Grande Sul está inserido em um ambiente de constantes mudanças e acirrada competitividade. Isto tem forçado os produtores a buscar ganhos contínuos de eficiência em termos de redução de custos, maior produtividade, diferenciação de produtos e menor impacto ambiental. Com o objetivo de atender aos referidos requisitos, alguns produtores adotaram como estratégia a inovação tecnológica. O tema desta pesquisa refere-se às vantagens e desvantagens dos sistemas inovadores de cultivo de arroz irrigado no Rio Grande do Sul. O objetivo da pesquisa foi identificar as principais vantagens e desvantagens percebidas pelos orizicultores, na utilização dos sistemas inovadores de cultivo de arroz irrigado – plantio direto, cultivo mínimo, prégerminado, rizipiscicultura, transplante de mudas e arroz biodinâmico - no que diz respeito ao custo de produção, produtividade, controle do “arroz vermelho” e impacto ambiental. Efetuou-se uma revisão bibliográfica visando colher subsídios para identificar as relações existentes entre inovação, competitividade e desenvolvimento sustentável. Considerando que as empresas pesquisadas pertencem ao setor do agribusiness, estudou-se a cadeia produtiva do arroz. O método de pesquisa utilizado foi o estudo de caso de onze propriedades rurais, localizadas no Estado do Rio Grande do Sul. O resultado deste estudo indica que, apesar de algumas desvantagens, os produtores mostraram-se satisfeitos com as vantagens obtidas, mediante a utilização dos sistemas inovadores de cultivo, destacando-se os aspectos: (1) o “controle do arroz vermelho”, por meio dos sistemas: pré-germinado, cultivo mínimo e biodinâmico; (2) o baixo custo de produção proporcionado pela rizipiscicultura; (3) a produtividade proporcionada pela rizipiscicultura; e (4) o baixo impacto ambiental resultante da rizipiscicultura e do sistema biodinâmico. Evidenciou-se, ainda, que, para a otimização dos resultados, fazem-se necessárias algumas ações, como melhor difusão das tecnologias, maior interação dos agentes da cadeia produtiva e maiores investimentos em pesquisas.
Resumo:
O estudo descreve, analisa e discute o manejo odontológico do paciente com insuficiência renal crônica, em hemodiálise, no método clínico de intervenção, em uma perspectiva de saúde pública. Trabalhou-se com o conceito ampliado de cura, resolutividade e integralidade enquanto construtores da excelência do método clínico de intervenção. A discussão se faz através dos seguintes eixos: o doente renal crônico, as dificuldades no seu manejo quanto ao tratamento curativo/reabilitador, a construção da consciência sanitária, bem como a aproximação da teoria da Reforma Sanitária brasileira à prática do Sistema Único de Saúde. Abordou-se a excelência do método clínico, para este grupo populacional específico, como uma das formas de contribuição para a implementação e implantação do S.U.S. democrático oriundo da Reforma Sanitária brasileira. Conclui-se que para o conceito ampliado de cura e formação da consciência sanitária é preciso trabalhar com o paciente sujeito, enquanto doente renal crônico, assumindo que esta é a identidade social do paciente, o que lhe confere o status de grupo populacional específico. O auto-cuidado e o tratamento odontológico adquirem sentido quando vinculados à doença renal crônica e, em especial, ao transplante renal. Trabalhar de forma resolutiva foi uma condição "sine qua non", sendo que a resolutividade, inclusive com reabilitação protética, foi uma mediação para o auto-cuidado. Sugere-se trabalhar com a otimização dos tempos clínicos objetivando a alta e a constituição de centros de referência clínica para este grupo específico da população, com trabalho multi e interdisciplinar.
Resumo:
Nos últimos anos a economia mundial e a economia brasileira têm sofrido mudanças importantes. Fusões e aquisições estratégicas têm se multiplicado na busca de estratégias para a competitividade envolvendo a integração de todas as atividades na agregação de valor que seja percebido pelo cliente. No presente trabalho, a adoção do planejamento e do gerenciamento do processo logístico pode tornar-se uma ferramenta competitiva para a efetiva sustentação de estratégias na busca de novos mercados e novos objetivos de negócios. Sendo uma das competências necessárias para criar valores para o cliente a logística evolui da sua base conceitual, para a obtenção da vantagem competitiva e parte fundamental da estratégia empresarial. O objetivo desta dissertação é caracterizar e analisar o processo de gestão da cadeia logística e a de suas atividades nos processos como fator competitivo e de estratégia empresarial em uma agroindústria. A pesquisa é de caráter exploratório através de um estudo de caso e busca-se como resultado uma análise acerca de estratégias para a competitividade e do seu relacionamento logístico, sua estrutura e mudanças, tendo como base para o levantamento desses dados e análise, o modelo desenvolvido por BOWERSOX (1989). Como conclusão tem-se uma mostra de como os conceitos de logística têm uma função muito mais relacional e estratégica nas estruturas das organizações dentro de um contexto competitivo. O uso maciço da tecnologia, a otimização, o oportunismo e a eficiência nas habilidades de gerenciamento das estratégias logísticas e na integração funcional como elementos prioritários tem como objetivo criar valor – em lucratividade e retorno sobre o investimento - tanto para a empresa como para o seu cliente.
Resumo:
A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.