10 resultados para Dispepsia e programas de controle

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A detecção de Salmonella sp. é fundamental nos programas de controle de salmonelose. Métodos de detecção mais eficientes permitem uma melhor determinação do nível de infecção dos rebanhos, um melhor entendimento da epidemiologia da infecção por Salmonella sp. e o desenvolvimento de programas de controle do patógeno, que visem a segurança biológica do alimento. Nos métodos convencionais, o enriquecimento seletivo é uma etapa crítica, pois inibe a microbiota competitiva e permite a multiplicação de Salmonella sp. Vários caldos de enriquecimento seletivo têm sido comparados quanto à eficiência na recuperação de Salmonella sp. a partir de alimentos, contudo existem poucos estudos relativos a fezes de suínos. O objetivo deste trabalho foi comparar caldos de enriquecimento seletivo para o isolamento de Salmonella sp. a partir de fezes de suínos. Numa primeira fase, amostras de fezes foram contaminadas artificialmente e os caldos Rappaport-Vassiliadis incubado a 42°C (RV), Tetrationato Müller-Kauffmann a 37°C (TMK37) e 42°C (TMK42), e Selenito Cistina (SC) a 37°C foram testados, em associação com meios sólidos seletivos: Rambach (RA), Xilose Lisina Tergitol 4 (XLT4), e Verde Brilhante Vermelho de Fenol Lactose Sacarose (VB). Na segunda fase os caldos RV, TMK37 e TMK42, semeados nos meios XLT4 e VB, foram testados com amostras naturalmente contaminadas. Na primeira fase o RV, TMK42 e TMK37 foram mais eficientes que o SC. No isolamento de Salmonella sp. em amostras naturalmente contaminadas os caldos TMK42 e RV foram superiores ao TMK37. O desempenho destes influenciou diretamente a capacidade seletiva e indicadora dos meios sólidos seletivos. No presente estudo, a associação TMK42/XLT4 demonstrou ser mais sensível, e a RV/XLT4 mais específica. O ágar VB também é recomendado para aumentar a probabilidade de detecção do patógeno. Desta forma os caldos RV e TMK42 e o ágar XLT4 e o VB foram considerados os mais indicados para a implantação de protocolos de detecção de Salmonella sp. em fezes suínas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A implementação de programas de controle de salmonela em suínos, com objetivo de diminuir os riscos de infecção alimentar em humanos, exige métodos rápidos e baratos para medir a intensidade da infecção, bem como reduzir seus fatores de risco. A partir disso, desenvolveu-se um teste de ELISA, utilizando antígeno lipopolissacarídeo do sorovar Typhimurium, pela sua similaridade antigênica com os sorovares prevalentes em suínos no Rio Grande do Sul. O teste padronizado foi utilizado na determinação da soroprevalência em 65 rebanhos suínos, os quais participaram de estudo para identificação de fatores de risco. As granjas foram classificadas em três categorias de soroprevalência, baixa (até 40%), média (40-70%) e alta (mais de 70%) prevalência, estabelecidas como variável explicada. As respostas do questionário contituíram as variáveis explicativas. Aquelas associadas à variável explicada pelo teste de χ2 (p ≤ 0,1) foram submetidas à análise fatorial de correspondência múltipla (AFCM). Paralelamente, foram avaliados seis desinfetantes (amônia quaternária, glutaraldeído, iodóforo, hipoclorito de sódio (1 e 0,1%), fenol e ácido peracético) frente a amostras de Salmonella Typhimurium isoladas de suínos. Os produtos foram testados na presença e ausência de matéria orgânica, sob duas diferentes temperaturas e, posteriormente, frente a 8 isolados com diferentes perfis de resistência antimicrobiana, por um tempo de contato de 5 minutos. O teste de ELISA identificou a soroconversão nos animais inoculados (7 dias p.i.) e contatos (21 dias p.i.), bem como o aumento no número de animais positivos após infecção natural (28,6% para 76,9%). A sensibilidade e a especificidade do teste foram respectivamente de 92 e 100%. Após adaptações para suco de carne, estabelecendo o soro como referência, a sensibilidade do teste para suco de carne foi de 88,12% e a especificidade 70,43%. Em análise de concordância entre os testes, o índice kappa foi de 5,78, com p=0,002 no teste MacNemar. A AFCM identificou a associação da maior soroprevalência com o seguinte grupo de variáveis: nas granjas terminadoras, uso de ração peletizada, distribuição de dejetos a menos de 100m do local de captação de água, não utilização de comedouro do modelo comedouro/bebedouro, transporte com freteiro misturando animais de várias granjas; enquanto nas granjas de ciclo completo apareceram ingredientes de ração desprotegidos de outros animais, ausência de controle de roedores, ração seca, ausência de cerca, não uso da pintura com cal após lavagem e desinfecção e a entrada de outras pessoas além do técnico na granja. Todos os desinfetantes foram eficazes na ausência de matéria orgânica, nas duas temperaturas testadas. Entretanto, quando na presença de matéria orgânica ou após cinco minutos de contato, somente o hipoclorito de sódio (1%), fenol e o ácido peracético foram eficazes. Dessa forma, ao estabelecer uma ferramenta sorológica para medir a infecção pelos principais sorovares de Salmonella que afetam os suínos no sul do Brasil e identificar fatores de risco associados à alta soroprevalência, será possível dar início à implementação e validação de protocolos de controle da infecção em rebanhos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O ambiente concorrencial atual está impondo novos fatores de competição às empresas. Com a globalização e a abertura do mercado, as empresas brasileiras estão implantando programas de qualidade e produtividade tendo como referencial principal (benchmarking) as empresas japonesas. As conseqüentes mudanças no ambiente empresarial não estão, entretanto, sendo consistentemente acompanhadas por evoluções nas sistemáticas de controle e custeio. As informações relativas ao controle de uma empresa devem ser acuradas o suficiente para subsidiar o processo de tomada de decisões no atual ambiente competitivo. Porém, as tradicionais práticas de controle e custeio, além de obsoletas, podem constituir uma restrição para a continuidade dos programas de melhoria das empresas. Este trabalho mostra a evolução dos sistemas de manufatura, com ênfase particular no Modelo Japonês / Sistema Toyota de Produção. Uma atenção especial é dada à necessidade de mudanças nos sistemas de controle das empresas, principalmente na parte de custeio. Mostra-se ainda algumas características das sistemáticas de controle e custeio nas empresas japonesas em comparação com a lógica predominante nas empresas ocidentais. Apóia-se o trabalho em um caso real de uma empresa que já passou por um processo de racionalização, sob forte influência dos conceitos japoneses de qualidade e produtividade, e que, agora, sente a necessidade de uma maior transparência e melhor entendimento do comportamento dos custos em seu ambiente, para poder dar continuidade a este processo de melhorias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Conforme os sites Web crescem em número de páginas, sua manutenção torna-se mais complicada. Assim, os administradores dos sites de métodos e ferramentas que tornem sua manutenção mais organizada e automatizada. Entretanto, a criação de tais mecanismos é dificultada pelo formato das páginas Web (HTML), que mistura o conteúdo e a formatação da página em um mesmo arquivo. Uma solução usual para esse problema é separar estes componentes da página em documentos XML (conteúdo) e folhas de estilo XSLT (formatação). Pode-se notar várias semelhanças entre páginas Web e programas de computador (software), pois ambos têm componentes de tipos diferentes que evoluem com o tempo. Assim, técnicas oriundas da área de Gerência de Configuração de Software, como controle de versões, podem ser adaptadas para auxiliar a manuutenção de sites. Além da melhoria na manutenção, outra necessidade cada vez mais comum aos sites é a adaptação automática das páginas. Por meio desta, páginas podem ser automaticamente adequadas (adaptadas) e determinado usuário, o que potencialmente atrai um maior número de visitantes ao site. Se forem mantidas versões de cada componente de página, pode-se combiná-las para gerar muitas páginas alternativas. Através da escolha cuidadosa das versões dos ocmponentes que compõem uma página, é possível obter páginas adaptadas automaticamente. Na área de Gerência de Configuração de Software, o chamado proceesso de configuração é responsável por selecionar automaticamente versões de módulos para compor um programa completo. O presente trabalho propõe uma infra-estrutura para um servidor Web que realiza controle de versões e suporta a adaptação de páginas Web de forma transparente ao visitante. Para tanto, é projetado um modelo de versões de páginas que separa conteúdo e formatação em componentes distintos. É proposto um processo de configuração que é responsável pela geração de páginas dinâmicas, o que é suportado por informações presentes no modelo de versões. Os autores de páginas e o próprio servidor Web podem interferir nas escolhas doprocesso de configuração, fornecendo critérios de seleção de versões. Esses critérios guiam as escolhas do processo de configuração, pois representam características que as versões escolhidas devem (necessariamente ou preferencialmente) apresentar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A expansão do novo paradigma de gestão e organização do trabalho vem desencadeando um movimento dentre as empresas brasileiras no sentido de modernizar seus sistemas produtivos e de gestão, caracterizando uma época de transformações no ambiente organizacional. Nesse sentido, as práticas salariais também estão passando por um processo de transformação a medida que procuram adequar a remuneração às novas exigências do trabalhador frente ao paradigma da flexibilidade. Num ambiente em que o perfil do trabalho implica em envolvimento do trabalhador a fim de que tome iniciativas do tipo controle da qualidade, identificação de defeitos, participação em grupos de melhorias e outras formas de ação que requerem disposição para participar, ressalta-se a questão do comprometimento. Na busca de princípios e práticas de Gestão de Recursos Humanos que contemplem esta nova “exigência”, os Planos de Participação nos Lucros e Resultados no Brasil vem paulatinamente conquistando espaços. Como ainda são raros os estudos sobre o assunto no nosso país, este trabalho apresenta resultados de uma pesquisa realizada em quatro indústrias no Rio Grande do Sul, sobre suas experiências na prática de Planos de Participação nos Lucros ou Resultados. A metodologia utilizada foi de natureza qualitativa através de estudo exploratório-descritivo. As entrevistas procuraram verificar como as empresas estudadas estão utilizando esta estratégia de gestão de Recursos Humanos e mostrar os reflexos desta estratégia sobre os trabalhadores. Nosso objetivo nesse estudo se orienta por uma tentativa de identificar tendências, características e sistemáticas desses Planos, mesmo por que seria muito prematuro pretender conclusões mais definitivas acerca da difusão desta estratégia para o caso brasileiro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As constantes mudanças no ambiente exigem das empresas uma capacidade de adaptação para a sobrevivência, aliada à necessidade de expandir a capacidade criativa. Desta forma, existe a necessidade de identificar como as organizações aprendem e como é possível oportunizar essa aprendizagem. A presente dissertação tem por objetivo identificar e analisar se e como ocorrem os processos de Aprendizagem Organizacional no âmbito de programas de qualidade premiados pelo Programa Gaúcho de Qualidade e Produtividade (PGQP). Os elementos referenciais de Aprendizagem Organizacional (AO) identificados na literatura associados com o atendimento aos critérios exigidos pelo PGQP, permitiram esta análise. Foi realizada uma pesquisa em duas empresas que receberam o Troféu Prata nesse programa. A pesquisa caracterizou-se como um estudo de caso múltiplo, envolvendo na coleta de dados entrevistas e os relatórios do PGQP de 1999 até 2002. Foram realizadas entrevistas semiestruturadas com vinte e oito executivos das diversas áreas, coordenadores da qualidade e analistas envolvidos nos principais processos da empresa. O resultado dos levantamentos efetuados e a identificação de ocorrência de Aprendizagem Organizacional envolvem os critérios: liderança, planejamento estratégico, foco no cliente e no mercado, informação e análise, gestão de pessoas, gestão de processos, e resultados da organização. Constatou-se que existem diferentes processos de AO nas empresas que possuem programas de qualidade. Identificou-se que é fator relevante para a ocorrência de que as metodologias aplicadas provoquem o questionamento dos insights e que sejam sistemáticas e entendidas por toda a organização. Na maioria dos temas avaliados nos critérios do PGQP, o processo de aprendizagem pressupõe tempo para que seus resultados sejam identificados. As empresas que incentivam a troca de conhecimento e possuem pessoal qualificado tendem a assumir características de aprendizagem organizacional com maior facilidade. Assim, esse estudo contribui para a busca da eficácia no s processos de mudança das empresas, no caso, os programas de qualidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.