995 resultados para Herdeiros necessários
Resumo:
A economia atual vem exigindo cada vez mais das empresas e instituições uma constante adequação de seus modelos e processos de gestão como forma de adequarem-se a cenários que se alteram em crescente velocidade. Fomentada por essa velocidade, a informação se estabelece como um dos principais insumos dos gestores, tornando-se ao mesmo tempo uma alternativa de gestão e um novo problema a ser gerenciado, qual seja: a sua obtenção e seu uso como diferencial competitivo. Identificar, produzir, selecionar e gerir informação como forma de proporcionar suporte a processos decisórios é um dos grande desafios da atualidade, onde, muitas vezes, Sistemas de Informações (SI) e Tecnologia da Informação (TI) são erroneamente confundidos, da mesma forma que freqüentemente também são confundidos SI voltados a processos e decisões táticas ou operacionais e aqueles destinados a suportar processos decisórios que conduzem a escolhas estratégicas. Sob esse enfoque, o presente estudo avalia o processo de identificação de requisitos informacionais destinados à construção de um SI voltado ao suporte de decisões estratégicas. Avalia desde a etapa de identificação do principal problema a ser abordado até o mapeamento dos requisitos informacionais necessários às principais atividades desenvolvidas. Com o apoio da metodologia de soft systems (SSM) foram constituídos dois grupos de trabalho. O primeiro, composto pelos principais gestores da instituição, com o objetivo de identificar o principal problema a ser tratado por um SI, ou seja, o foco do estudo, e o segundo grupo, constituído a partir das indicações do primeiro, com o objetivo de analisar o problema identificado e mapear a necessidade de informações destinadas à perfeita gestão do referido problema. Durante o desenvolvimento do estudo, identificaram-se, não só os requisitos informacionais necessários à construção do SI, como também um rol de ações e atividades que podem contribuir para o processo de solução do problema priorizado ou melhoria da situação problemática. O uso da SSM mostrou-se adequado e flexível o suficiente para permitir a harmonização das percepções e a identificação dos principais focos a serem abordados. Proporcionou um meio coerente de condução de todas as etapas do trabalho ao mesmo tempo que conduziu a resultados que superaram as expectativas iniciais.
Resumo:
o artigo descreve o programa de rastreamento de câncer de colo de útero em uma população de mulheres de 20-59 anos, usuárias de um serviço de Atenção Primária à Saúde (APS), em Porto Alegre. Esta coorte histórica de 5 anos foi constituída usando os registros de família de três unidades do Serviço de Saúde Comunitária do Grupo Hospitalar Conceição, em Porto Alegre, Brasil. O estudo caracteriza a associação entre a detecção de hipertensão, diabetes, depressão e ansiedade nestas mulheres, e as freqüências de sua captação e adesão ao programa de rastreamento do câncer de colo de útero. As mulheres com 50 anos ou mais tiveram um risco relativo de 1,70 (IC95%=1,40-2,06) de não serem captadas pelo programa de rastreamento, quando comparadas com as mais jovens. Os resultados sugerem a necessidade de intensificar o rastreamento de rotina às mulheres de 50 anos ou mais. A captação e a adesão de usuárias poderiam ser usadas como indicadores da qualidade do processo de trabalho. São necessários novos estudos para o estabelecimento de inferência causal e para definir a captação e a adesão como indicadores da qualidade do processo de trabalho em Atenção Primária à Saúde.
Resumo:
Planejamento, Previsão e Suprimento Integrado (Collaborative Planning Forecasting and Replenisement- CPFR)é um tema que está evoluindo a nível mundial, onde aplicaçõespráticastêm indicadopotencialparapromovera economiae a melhoriano nível de serviço das empresas. O CPFR une a demanda final de produtos com a cadeia produtiva dos mesmos, criando, assim, um processo único em que todos os envolvidos são beneficiados através de relações colaborativas de parceria. A pesquisa apresenta uma revisão teórica sobre o tema, abordando os níveis de colaboração possíveis entre empresas, exemplos de aplicação do CPFR e os resultados obtidos, as diretrizes de implementação com ênfase nos nove passos propostos pela VICS (The Voluntary Interindustry Commerce Standards), os habilitadores necessários para implementação, as etapas envolvidas no desenvolvimento de um projeto piloto e as barreiras para uma implementação. Um estudo de caso é apresentado com uma proposta de aplicação da metodologia CPFR efetuada por uma empresa ligada à produção de insumos para um varejista atuante no mercado moveleiro, onde são destacados os indicadores críticos de performance do processo CPFR. As conclusões obtidas referem-se à aplicabilidade do modelo sugerido pela VICS no Brasil, para a obtenção de resultados semelhantes aos atingidos pelas empresas que já estão utilizando CPFR em seus processos colaborativos de relacionamento.
Resumo:
No Brasil, a idéia original era de se utilizar o gás natural como substituto do óleo diesel para o uso na frota de veículos pesados nos centros urbanos. Esta idéia deu lugar a uma maior difusão do uso de gás natural na frota de veículos leves, em função de algumas dificuldades inerentes ao mercado do gás natural como substituto do óleo diesel, tais como a pequena diferença de preços entre o óleo diesel e o gás natural. Com a liberação do uso de gás natural para veículos a gasolina, a partir de 1992, e o crescimento de postos de abastecimento, tem-se notado um grande aumento de veículos convertidos, nas cidades onde o combustível encontra-se disponível, como Porto Alegre. Devido ao aumento de veículos convertidos, decidiu-se elaborar um trabalho que descreve os principais componentes dos “Kits” de conversão encontrados atualmente no mercado para os veículos equipados com carburador e injeção eletrônica, assim como procedimentos para a correta instalação destes componentes. Simultaneamente efetuou-se testes em veículos convertidos para o uso do gás natural, com a obtenção de curvas de potência as quais estabelecem um comparativo entre a utilização de gasolina e gás natural. Também foram feitas análises quanto a emissões de gases tóxicos dos veículos convertidos e a verificação do fator Lambda responsável pela máxima potência ao utilizar-se gás natural como combustível Sendo assim, tem-se como objetivos neste trabalho, a análise do desempenho de veículos adaptados para o uso do gás natural em relação a veículos alimentados com combustíveis líquidos, descrevendo detalhadamente os elementos necessários para a conversão de um veículo, procedimentos básicos para uma conversão eficiente e segura, e vários testes de veículos relacionando o uso do gás natural comparativamente ao uso de combustível líquido. O trabalho é concluído com a indicação dos “Kits” de conversão mais eficientes além da demonstração de algumas técnicas de regulagem baseadas nos resultados obtidos nos testes com os veículos convertidos, as quais visam a redução da perda demasiada de potência, a redução do consumo de combustível gás e a redução das emissões de gases tóxicos.
Resumo:
Esta dissertação apresenta uma contribuição à compreensão e quantificação do amortecimento em amortecedores, como uma base para o projeto e construção de um amortecedor viscoelástico e determinação experimental de suas propriedades, para aplicação na redução das amplitudes de vibração, em estruturas submetidas a excitações dinâmicas. Uma breve revisão histórica do uso de amortecedores viscoelásticos, na indústria de construções, é inicialmente apresentada. Modelos reológicos são então discutidos, com ênfase sobre a influência da temperatura, freqüência, amplitude de deslocamento, envelhecimento e pré-carga sobre os parâmetros de amortecimento. Modelos matemáticos disponíveis necessários para a descrição do fenômeno e métodos para a medida do amortecimento são, a seguir, descritos. Finalmente, um amortecedor viscoelástico é projetado e construído, utilizando-se recursos locais. Seu comportamento é experimentalmente determinado em uma máquina de teste servo-hidráulica MTS-810. A influência de vários fatores, tais como temperatura, freqüência e amplitude de vibração são avaliados, e conclusões são tiradas sobre a aplicação deste tipo de amortecedor, em construções e estruturas industriais.
Resumo:
O comportamento hidrológico de grandes bacias envolve a integração da variabilidade espacial e temporal de um grande número de processos. No passado, o desenvolvimento de modelos matemáticos precipitação – vazão, para representar este comportamento de forma simplificada, permitiu dar resposta às questões básicas de engenharia. No entanto, estes modelos não permitiram avaliar os efeitos de modificações de uso do solo e a variabilidade da resposta em grandes bacias. Este trabalho apresenta o desenvolvimento e a validação de um modelo hidrológico distribuído utilizado para representar os processos de transformação de chuva em vazão em grandes bacias hidrográficas (maiores do que 10.000 km2). Uma grade regular de células de algumas dezenas ou centenas de km2 é utilizada pelo modelo para representar os processos de balanço de água no solo; evapotranspiração; escoamentos: superficial, sub-superficial e subterrâneo na célula; e o escoamento na rede de drenagem em toda a bacia hidrográfica. A variabilidade espacial é representada pela distribuição das características da bacia em células regulares ao longo de toda a bacia, e pela heterogeneidade das características no interior de cada célula. O modelo foi aplicado na bacia do rio Taquari Antas, no Rio Grande do Sul, na bacia do rio Taquari, no Mato Grosso do Sul, e na bacia do rio Uruguai, entre Rio Grande do Sul e Santa Catarina. O tamanho destas bacias variou entre, aproximadamente, 30.000 km2 e 75.000 km2. Os parâmetros do modelo foram calibrados de forma manual e automática, utilizando uma metodologia de calibração automática multi-objetivo baseada em um algoritmo genético. O modelo foi validado pela aplicação em períodos de verificação diferentes do período de calibração, em postos fluviométricos não considerados na calibração e pela aplicação em bacias próximas entre si, com características físicas semelhantes. Os resultados são bons, considerando a capacidade do modelo de reproduzir os hidrogramas observados, porém indicam que novas fontes de dados, como os fluxos de evapotranspiração para diferentes coberturas vegetais, serão necessários para a plena utilização do modelo na análise de mudanças de uso do solo.
Resumo:
Nesta dissertação organizo e registro os resultados de minha pesquisa, cujo tema central é a Educação Profissional, mas que me proporcionou incursionar por diferentes aspectos da crise societária contemporânea a fim de compreender a realidade da educação profissional em sua origem e seu desenvolvimento, no contexto da totalidade sócio-histórica em que está inserida. Nesta pesquisa, focalizo a Educação Profissional de nível técnico, investigando as repercussões da Reforma da Educação Profissional brasileira sobre as atividades pedagógicas desenvolvidas na Fundação Escola Técnica Liberato Salzano Vieira da Cunha, situada em Novo Hamburgo – RS. De modo geral, me pergunto sobre como as mudanças ocorridas no mundo do trabalho estão impactando esta escola. Investigo como essa instituição vem se constituindo no âmbito da educação profissional, como está de adaptando ou resistindo às exigências da nova LDB, às demandas oriundas da reestruturação do setor produtivo e às aspirações de seus professores e alunos. Entrevisto professores desta comunidade, procurando apreender, entre outras coisas, como estão concebendo as relações entre educação e trabalho e, em particular, como articulam a necessidade de formação geral e formação específica, especialmente após a promulgação da Nova Lei de Diretrizes e Bases da Educação Nacional (Lei nº 9394/96) e do Decreto nº 2208/97 que institui a Reforma da Educação Profissional Analiso as propostas desta instituição, através das falas de seus professores, de pesquisa documental e observação participante. O enfoque metodológico que utilizo é de natureza qualitativa e dialética. Analiso as alternativas que esta escola construiu como tentativa de responder às demandas, dirigidas à Escola Técnica, advindas das transformações do mundo do trabalho. Entre estas alternativas, encontra-se a concepção de formação integral. A escolha deste tema surgiu a partir de minha experiência profissional na referida escola, onde exerço atividade docente há 14 anos. Os resultados encontrados evidenciam contradições e disputas, no campo ideológico, entre diferentes projetos e concepções de educação profissional. Diferentes orientações ético-políticas coabitam o cotidiano escolar , as práticas e falas dos professores. Procuro oferecer subsídios que possam contribuir para aprimorar as atividades desenvolvidas na Fundação Escola Técnica Liberato Salzano Vieira da Cunha, à serviço da comunidade, e orientar a formulação de políticas públicas para a educação profissional no Rio Grande do Sul, mas são necessários, ainda, outros estudos. O texto está organizado em quatro capítulos. Na introdução, inicio com uma delimitação dos aspectos da educação profissional que enfoquei e do contexto no qual o problema se insere. Na primeiro capítulo comento os estudos já realizados nesta área, em especial dissertações e teses. No segundo capítulo desenvolvo alguns conceitos e categorias teórico-metodológicas que orientam o estudo. No terceiro capítulo descrevo, interpreto e analiso os resultados encontrados, agrupando-os nos seguintes aspectos: a) mudanças no mundo do trabalho, impactos sobre a escola e demandas das empresas; b) a formação integral atualmente desenvolvida na Fundação Liberato . No quarto capítulo faço considerações finais, apresentando algumas conclusões e sugestões.
Resumo:
A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.
Resumo:
Mecanismos de comunicação entre processos são fundamentais no desenvolvimento de sistemas distribuídos, já que constituem o único meio de compartilhar dados entre processos que não dispõem de memória comum. Um dos principais mecanismos de comunicação utilizados é a troca de mensagens entre os processos componentes do sistema. Existem muitas aplicações que são compostas por um conjunto de processos que cooperam para realizar uma determinada tarefa e que são mais facilmente construídas se o sistema operacional oferecer a possibilidade de se enviar uma mensagem a diversos destinos. Neste caso são necessários mecanismos que permitam a difusão confiável de uma mensagem para um grupo de processos em uma única operação. Tendo em vista esta necessidade, diversos protocolos têm sido apresentados na literatura para permitir a comunicação entre um grupo de processos com diferentes graus de complexidade e de desempenho. Este trabalho apresenta um ambiente para desenvolvimento e utilização de protocolos de comunicação em grupo, denominado FlexGroup. O ambiente divide os protocolos em suas características fundamentais, permitindo que estas características possam ser desenvolvidas separadamente como subprotocolos. Os subprotocolo são interligados através de uma interface comum e gerenciados pelo núcleo do ambiente. A comunicação entre as diversas máquinas da rede é gerenciada pelo FlexGroup, permitindo que o desenvolvedor de um novo subprotocolo possa somente se focar nas características específicas do seu protocolo. Esta modularidade permite, ainda, que apenas as partes de interesse de um novo protocolo precisem ser implementadas, além de também viabilizar a criação de um protocolo baseado nos já existentes no ambiente. Além disso, o ambiente permite que as aplicações de comunicação em grupo possam definir, através de uma biblioteca, o conjunto de subprotocolos que desejam utilizar, em tempo de execução, sem necessidade de conhecer a implementação interna dos subprotocolos.. Da mesma forma, alguém que se proponha a realizar comparações com os protocolos existentes, pode utilizar os diversos subprotocolos e as aplicações existentes, bastando alterar os protocolos utilizados em tempo de execução e avaliando somente as características que deseje analisar.
Resumo:
No cenário atual, onde a globalização, aliada a um maior nível de exigência por parte do cliente, impõem às empresas um maior empenho por competitividade, a agdidade no desenvolvimento e otimização de produtos torna-se crucial para a sobrevivência das mesmas no mercado. Neste contexto, procurou-se compilar várias técnicas utilizadas em E n g e h dd Qd& em um método integrado para a Ot+o Expmmid de MWtwa. Essas técnicas fornecem resultados muito mais rápidos e econômicos do que a tradicional prática de variar um componente de cada vez na mistura, devido ao menor número de ensaios necessários. Entretanto, apesar de não serem tão recentes, as ferramentas aplicáveis à otimização de misturas não têm sido utilizadas pelo seu maior beneficiário (a indústria), provavelmente por falta de divulgação de sua existência, ou, principalmente, devido à complexidade dos cálculos envolvidos. Dessa forma, além do método proposto, desenvolveu-se também um sofiwa~q ue irnplementa todas os passos sugeridos, com o intuito de facilitar ainda mais a aplicação dos mesmos por pessoas não especializadas em técnicas estatísticas. Através do software (OptiMix), o método foi testado em uma situação real e em um estudo comparativo com um relato da literatura, a fim de testar sua validade, necessidade de adaptações e consistência dos resultados. A avaliaçio dos estudos de caso demonstrou que o método proposto fornece resultados coerentes com os de outras técnicas alternativas, com a vantagem de o usuário não precisar realizar cálculos, evitando assim, erros e agilizando o processo de otimização.
Resumo:
Este trabalho teve por objetivo o levantamento dos principais fatores envolvidos na ocorrência de problemas na impermeabilização em lajes de cobertura na cidade de Porto Alegre, assim como salientar para a importância dos diversos cuidados necessários visando a sua estanqueidade. Foi realizada uma coletânea fotográfica sobre alguns defeitos ocorridos em terraços nas diversas etapas da construção. Também utilizou-se questionários enviados ao meio técnico atuante na construção civil (Projetistas, Construtoras, Concreteiras e Aplicadores de produtos impermeabilizantes). O percentual das respostas obtidas foi acima de 60% e, os resultados mostraram que a maioria dos Projetistas consideram a Norma Brasileira inadequada a nossa realidade climática; as Construtoras não utilizam traço especial para a execução do concreto da laje de cobertura, por sua vez as Concreteiras deixam totalmente a critério do solicitante esse traço especial; e os aplicadores na sua totalidade acusam a inexistência do projeto de impermeabilização em obras executadas.
Resumo:
As tarefas de visão computacional incentivam uma significativa parte da pesquisa em todas as áreas científicas e industriais, entre as quais, cita-se a área voltada para o desenvolvimento de arquiteturas de computadores. A visão computacional é considerada um dos problemas mais desafiadores para a computação de alto desempenho, pois esta requer um grande desempenho, bem como um alto grau de flexibilidade. A flexibilidade é necessária pois a visão computacional abrange aplicações em que há diferentes tarefas a serem realizadas com diferentes necessidades de desempenho. Esta flexibilidade é particularmente importante em sistemas destinados a atuar como ambientes experimentais para novas técnicas de processamento visual ou para a prototipação de novas aplicações. Computação configurável tem demonstrado, por meio de exemplos implementados pela comunidade científica, fornecer uma boa relação entre alto desempenho e flexibilidade necessária para a implementação de diferentes técnicas utilizadas na área de visão computacional. Contudo, poucos esforços de pesquisa têm sido realizados na concepção de sistemas completos visando a solução de um problema de visão computacional, incluindo ambos os requisitos de software e de hardware. O principal objetivo deste trabalho é mostrar que as técnicas e tecnologias disponíveis na área de computação configurável podem ser empregadas para a concepção de um sistema capaz de implementar um grande número de aplicações da área de visão computacional na pesquisa e no ambiente industrial. Entretanto, não é escopo deste trabalho implementar um sistema de computação que seja suficiente para abordar os requerimentos necessários para todas as aplicações em visão computacional, mas os métodos aqui introduzidos podem ser utilizados como uma base geral de implementação de várias tarefas de visão computacional. Este trabalho utiliza ambientes que permitem implementações conjuntas de hardware e software, pois os mesmos facilitam a validação das técnicas aqui apresentadas, por meio da implementação de um estudo de caso, sendo parte deste estudo de caso implementado em software e outra parte em hardware.
Resumo:
A extrusão reativa do polietileno de alta densidade (PEAD) em presença de peróxidos orgânicos pode promover sua reticulação, provocando mudanças em suas propriedades. Isto deve-se à capacidade do peróxido orgânico de abstrair hidrogênios secundários e terciários da cadeia, podendo assim formar os radicais livres necessários à ocorrência da reticulação. Neste trabalho, amostras de pó de PEAD produzido com catalisador Ziegler-Natta, para utilização em processamento por injeção, sopro ou extrusão de filmes, foram extrusadas com o peróxido de dicumila e o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano em teores de 0,001 a 0,08 pcp. Os produtos obtidos foram caracterizados quanto a suas taxas de fluidez (MFR), densidades, propriedades reológicas, físicas e mecânicas. Para a avaliação reológica foram analisadas as curvas de viscosidade em função da taxa de cisalhamento e determinadas as taxas de cisalhamento críticas, ambas no reômetro capilar. O comportamento viscoelástico foi avaliado pelos módulos de armazenamento e de perda e pela viscosidade complexa. A massa molar e sua distribuição foram determinadas por cromatografia de exclusão por tamanho (SEC). O percentual de reticulação foi verificado pela determinação do teor de material de solúveis em xileno. As propriedades mecânicas analisadas foram resistência à tração, à flexão, ao tensofissuramento e módulo de elasticidade. As propriedades analisadas foram relacionadas às estruturas dos produtos resultantes da extrusão reativa. Verificou-se que a extrusão reativa do PEAD com peróxidos orgânicos originou resinas com distribuição de massas molares mais larga, caráter mais pseudoplástico e com comportamento do fundido mais elástico do que as resinas não modificadas por peróxido. A reologia, dentre as técnicas analíticas utilizadas, apresentou maior sensibilidade às mudanças estruturais decorrentes da extrusão reativa. A extrusão reativa com peróxidos originou resinas com propriedades mecânicas diferenciadas, havendo incremento na resistência ao impacto Charpy e ao tensofissuramento e diminuição no módulo de elasticidade comparativamente às resinas não modificadas. A resistência à tração não apresentou variações significativas entre as resinas modificadas e as não modificadas. O peróxido que se mostrou mais eficiente na extrusão reativa foi o 2,5-dimetil-2,5-di(t-butilperoxi)-hexano.
Resumo:
O processo produtivo das organizações hospitalares necessita acompanhar as exigências estabelecidas pelos novos paradigmas da sociedade. Frente a esse desafio e considerando a complexidade dessas organizações, torna-se fundamental o uso de sistemas de informações que consigam reduzir o nível de incerteza dos processos decisórios. Este trabalho tem como objetivo aperfeiçoar a função de controle da gestão hospitalar, através da aplicação do método de custeio baseado em atividades, ou ABC (Activity-Based Costing), que busca melhor compreender o processo produtivo, para avaliar e custear, dando subsídios para a melhoria da eficiência econômica. Foram acompanhados pacientes internados com câncer de esôfago da especialidade de Cirurgia Geral de um hospital universitário. O desenvolvimento contou com a análise dos processos, identificação dos recursos envolvidos, direcionadores primários e secundários, que permitiram a apuração do custo por paciente e a análise de valor agregado (AVA). Do processo de internação, o estudo identificou 9 subprocessos (Admissão, Anamnese e Exame Físico, Prescrição pré-cirúrgica, Prescrição pós-cirúrgica, Diagnóstico, Reavaliação médica, Operação Cirúrgica, Prescrição de alta e Suporte ao 18 leito). Para cada subprocesso, avaliaram-se quais recursos da estrutura do hospital foram empregados, de forma a quantificar a participação de cada um nos respectivos subprocessos, através dos direcionadores primários. Definidos os recursos e sua participação, a fase seguinte foi verificar em que medida os recursos foram empregados pelas atividades durante o atendimento ao paciente. A partir da análise de processos, as atividades foram identificadas, sendo estabelecido um indicador que mensurasse o uso da atividade pelo paciente, os direcionadores secundários. Os resultados indicam que o ABC oferece níveis de detalhamento do processo de prestação de serviço hospitalar mais elevados do que nos sistemas tradicionais de custos e consegue perceber melhor o uso dos recursos durante o atendimento, em conseqüência, auferindo o custo de cada paciente com maior precisão. Além disso, permite a análise de valor agregado de todo o processo produtivo, auxiliando a organização a atingir os objetivos e permitindo enfrentar em melhores condições as alterações no ambiente interno e externo. Na medicina é dito que cada paciente é um caso, porque, ainda que a ciência tenha avançado muito nos últimos anos, as características pessoais e as reações a cada ação médica encontram uma variabilidade muito grande. No ABC, cada paciente passa a ser um objeto de custo, que absorverá os recursos necessários à conduta a ser seguida, permitindo melhor avaliar e controlar o desempenho do processo produtivo e auxiliando no processo decisório.
Resumo:
Introdução: A etiologia da otite média com efusão ainda não está completamente estabelecida, mas agentes infecciosos podem contribuir para sua patogênese. Demonstrou-se que a reação em cadeia da polimerase (PCR) é superior ao exame cultural para detectar espécies bacterianas. O conhecimento sobre a epidemiologia bacteriana da otite média com efusão em áreas geográficas distintas é essencial para a implementação de tratamentos racionais, quando necessários. Objetivos: Determinar a prevalência do Streptococcus pneumoniae, Haemophilus influenzae, Moraxella catarrhalis e Alloiococcus otitidis nas efusões de orelha média de crianças com otite média recorrente e otite média com efusão crônica que foram submetidas à miringotomia, comparar os resultados obtidos por cultura e PCR, comparar os achados bacteriológicos em crianças menores e maiores de dois anos e determinar o perfil de resistência à penicilina dos germes isolados. Métodos: Analisaram-se 128 amostras de efusões de orelha média de 75 crianças entre 11 meses e 9 anos e 4 meses de idade (média = 34,7 meses). Pacientes com otite média recorrente tinham efusão documentada por ≥ 6 semanas e aqueles com otite média com efusão crônica, por ≥3 meses. Os pacientes não tinham sinais de otite média aguda ou infecção do trato respiratório e não estavam sob antibioticoterapia no momento do procedimento. A aspiração do material foi realizada por timpanocentese, utilizando-se um coletor de Alden-Senturia. Os estudos bacteriológicos foram iniciados em menos de 15 minutos após a obtenção da efusão e uma parte da amostra foi armazenada a -20oC para análise posterior pela PCR. Utilizou-se um método de PCR simultânea para a detecção de quatro patógenos. A análise estatística foi efetivada com o teste χ2 de McNemar, teste χ2 com correção de Yates e teste exato de Fisher, quando apropriados. Resultados: Cultivaram-se bactérias em 32 (25,1%) das 128 amostras e os patógenos principais foram encontrados em 25 (19,6%). O A. otitidis não foi isolado em cultura. A PCR identificou bactérias em 110 (85,9%) das amostras, e os resultados positivos foram: 67 (52,3%) para A. otitidis, 50 (39,1%) para H. influenzae, 16 (12,5%) para S. pneumoniae e 13 (10,2%) para M. catarrhalis. Todas as amostras positivas por cultura foram positivas pela PCR, mas 85 (77,2%) das efusões com resultado positivo pela PCR foram negativas por cultura, para os germes estudados. A PCR foi significativamente mais sensível que a cultura (P<0,001). O S. pneumoniae foi encontrado mais freqüentemente em otite média recorrente do que em otite média com efusão crônica (P=0,038) e o H. influenzae foi encontrado mais vezes em crianças menores de dois anos (P=0,049). Quanto ao perfil de resistência, 100% das M. catarrhalis, 62,5% dos S. pneumoniae e 23% dos H. influenzae eram resistentes à penicilina. Conclusões: A prevalência das bactérias na otite média com efusão em um grupo de crianças brasileiras é semelhante àquelas relatadas em outros países, sendo o H. influenzae o mais encontrado dentre os patógenos principais da orelha média. Essa prevalência sugere que bactérias podem desempenhar um papel na patogênese da otite média com efusão. Os resultados mostram que a PCR é mais sensível na detecção de bactérias na efusão da orelha média, comparada com cultura, e é essencial para a identificação do A. otitidis. O elevado percentual de detecção do A. otitidis sugere mais investigações sobre sua atuação no início e no prolongamento de doenças da orelha média. O S. pneumoniae foi mais freqüente em otite média recorrente do que em otite média com efusão crônica e o H. influenzae foi mais encontrado em crianças menores de dois anos. A resistência à penicilina por parte do pneumococo e da moraxela é semelhante à relatada em outros países, ao passo que a produção de β-lactamase pelo hemófilo é mais baixa que aquela referida em bactérias isoladas em amostras de efusões de otite média com efusão.