1000 resultados para Indicadores de mortalidade
Resumo:
Resumo:O leite informal é reconhecido como o produto comercializado sem inspeção. Avaliou-se a qualidade microbiológica, constituintes nutricionais e presença de substâncias inibidoras do crescimento bacteriano em 100 amostras informais de leite de vacas, comercializadas na região sudoeste do estado de São Paulo, Brasil. Verificou-se que 77% da Contagem de Células Somáticas (CCS) e 86% da Contagem Bacteriana Total (CBT) das amostras estavam em desacordo com os valores máximos exigidos pela Instrução Normativa 62 do MAPA. Identificaram-se teores em desacordo para sólidos totais (36%), proteína (23%), gordura (38%), extrato seco desengordurado (43%) e nitrogênio uréico (73%). Em 59% das amostras detectou-se a presença de resíduos de inibidores do crescimento bacteriano. Isolaram-se 240 linhagens de micro-organismos com predomínio de enterobactérias, estreptococos, estafilococos e fungos. O leite informal é comercializado na região sem as mínimas condições de higiene e oferece riscos a saúde pública, além de representar sério problema sócio-econômico para região.
Resumo:
Conduziu-se um experimento na Estação Experimental Agronômica da Universidade Federal do Rio Grande do Sul, em Eldorado do Sul, RS, no ano agrícola 1996/97, para avaliar a mortalidade de sementes de capim-marmelada (Brachiaria plantaginea) colocadas sob cinco níveis (0 a 10t/ha) de resíduo de aveia-preta (Avena strigosa) sobre o solo, duas profundidades das sementes (2 e 10 cm) e cinco períodos de enterrio (de 40 a 300 dias). Níveis de palha na superfície do solo inferiores a 5,2 t/ha aceleram a mortalidade de sementes. Sementes de capim-marmelada posicionadas a 2 cm da superfície do solo apresentaram maior mortalidade do que aquelas posicionadas a 10 cm, exceto em solo desnudo, onde a mortalidade foi similar para sementes em ambas profundidades. O período de tempo necessário para se obter 50% de mortalidade das sementes de capim-marmelada foi 5 e 72 dias, quando a superfície do solo se encontrava sem palha ou com 10,5 t/ha de palha, respectivamente. Os resultados sugerem que técnicas de manejo da cultura que mantenham as sementes de B. plantaginea próximas à superfície do solo aumentam a mortalidade das sementes tendo maior potencial de reduzir novas infestações do que técnicas que acumulem palha na superfície do solo.
Resumo:
Plantas de milho podem apresentar variações fenotípicas conforme o ambiente a que estão sujeitas durante seu crescimento. O objetivo deste trabalho foi verificar se as alterações em caracteres fenológicos de plantas de milho, causadas pela presença de plantas daninhas, poderiam indicar o início da interferência e também o momento de início do seu controle. Os tratamentos referem-se a períodos de convivência do milho com as plantas daninhas - 0 a 7, 0 a 14, 0 a 21, 0 a 28, 0 a 35, 0 a 42, 0 a 49 e 0 a 56 dias após a emergência (DAE) do milho - e as testemunhas com e sem convivência durante todo o ciclo. A altura de plantas, o diâmetro do colmo e o número de folhas foram avaliados a cada sete dias, até 56 DAE e no pendoamento (75 DAE). Avaliou-se também o rendimento de grãos de milho. O início da interferência das plantas daninhas nas três variáveis avaliadas e no rendimento de grãos foi simultâneo, a partir de 28 DAE. Os efeitos da interferência foram irreversíveis, não havendo recuperação das plantas após a retirada do estresse causado pela presença das plantas daninhas; portanto, o uso de caracteres fenológicos na indicação do início de controle não se mostrou apropriado.
Resumo:
A abordagem de crescimento e mortalidade de ramos fornece informações essenciais a respeito da dinâmica de crescimento de espécies arbóreas. Este estudo mostrou os padrões de expansão e mortalidade de ramos em dez espécies arbóreas comuns em região de cerrado sensu stricto. O crescimento médio anual foi variável entre as espécies estando entre 1 a 17 cm. Miconia pohliana Cogn. e Vochysia thyrsoidea Pohl foram as espécies com os maiores valores de crescimento de ramo. A mortalidade dos ramos ocorreu majoritariamente na estação seca. O estudo demonstra que a mortalidade de ramos é comum nas espécies lenhosas do cerrado e que se deve atentar para seus efeitos em análises e estudos de crescimento e de produtividade.
Resumo:
Schizolobium parahyba (Vell.) S.F. Blake é uma espécie nativa da Floresta Atlântica, cujos indivíduos arbóreos desapareceram devido a um episódio de mortalidade na Ilha Grande, Rio de Janeiro. Neste trabalho, os anéis de crescimento foram investigados com o objetivo de determinar a idade das árvores mortas, a relação da largura desses anéis com os índices pluviométricos locais e a possível relação do episódio de mortalidade com a estrutura etária da população ou com processos sucessionais. Os resultados demonstraram que os indivíduos morreram com diferentes idades e que a largura dos anéis de crescimento foi significativamente correlacionada com a precipitação anual no período investigado. A possibilidade do episódio de mortalidade refletir um processo de sucessão natural ou um evento particular de uma população senescente foi descartada e é provável que as anomalias climáticas ocorridas entre os anos de 1997 e 2001 tenham contribuído para a mortalidade das árvores.
Resumo:
O objetivo do trabalho foi verificar a qualidade higiênico-sanitária de amostras de queijo de coalho (11 amostras) e de queijo de manteiga (13 amostras) produzidas no Estado do Rio Grande do Norte. Todas as amostras de queijo de coalho apresentaram coliformes totais, das quais 36,4% continham coliformes fecais, entre 3 a 7NMP/g , com confirmação de Escherichia coli. Em relação ao queijo de manteiga, 84,6% das amostras também apresentaram coliformes totais, 15,4%, coliformes fecais, com confirmação de E. coli em 7,7%. A contagem de bolores e leveduras variou de 1,9 x 10(4) a 4,8 x 10(8) UFC/g nas amostras queijo de coalho e de 1,5 x 10(4) a 2,8 x 10(8) UFC/g nas amostras de queijo de manteiga. Estafilococos coagulase positiva foi observado em 72,7% das amostras de queijo de coalho e 84,7% das amostras de queijo de manteiga, com contagens variando de 7,0 x 10(4) a 1,3 x 10(8) UFC/g e 2,4 x 10² a 8,6 x 10(6) UFC/g, respectivamente. Salmonella foi detectada em 9% das amostras de queijo de coalho e em 15% das de queijo de manteiga. Listeria sp. foi constatada em 9% e 15% das amostras de queijos coalho e manteiga, respectivamente. A elevada população de bolores e leveduras observada em ambos os queijos indicou deficiência nos procedimentos de higiene e sanitização e os caracterizam como produto em condições higiênicas insatisfatórias. Os queijos de coalho e de manteiga oriundos das seis microrregiões do Rio Grande do Norte envolvidas no estudo não apresentaram segurança alimentar, visto que a maioria continha estafilococos coagulase positiva. A presença de Salmonella classificou os produtos como sendo impróprios ao consumo humano.
Resumo:
Suínos provenientes de três linhagens genéticas A, B e C comercializadas no Brasil, com peso vivo de 100 a 120 kg foram submetidos ao insensibilizador elétrico manual (Karl Schermer 220-230/250 volts, 45-60 Hz e 1,4 -1,5 A) e ao sistema gasoso coletivo (COMBI-BUTINA 90% CO2). Alíquotas sanguíneas, para determinação dos níveis de creatina fosfoquinase (CPK), lactato e cortisol, assim como amostras do músculo semimembranosus (10 g) para a determinação do gene halotano, foram coletadas. Comparando-se os sistemas de insensibilização elétrico e gasoso (CO2), o elétrico demonstrou ser mais estressante, proporcionando maiores concentrações plasmáticas de cortisol (p < 0,001) e lactato (p < 0,001) para as linhagens genéticas A e C, nas condições estudadas, porém não se observou diferenças significativas para os indicadores sanguíneos e sistemas de insensibilização em questão quando a linhagem B foi considerada. Diferenças significativas entre as linhagens genéticas A, B e C foram obtidas comparando-se os valores plasmáticos de creatina fosfoquinase (p < 0,001), lactato (p < 0,001) e cortisol (p < 0,001) quando atordoados com o sistema gasoso, entretanto, quando o sistema elétrico foi utilizado, somente os valores de cortisol apresentaram diferenças significativas (p < 0,001). A presença do gene halotano (Nn) foi observada somente na linhagem B.
Resumo:
Em outubro de 2006, a Regional do Paraná sediou em Curitiba o XX Congresso Brasileiro de Ciência e Tecnologia de Alimentos (XX CBCTA) com o tema Alimentos e Agroindústrias Brasileiras no Contexto Internacional. O objetivo deste Congresso foi discutir o desenvolvimento científico e tecnológico e a inovação na indústria de alimentos no cenário nacional e internacional. O programa científico foi abrangente e diversificado, com Conferências, Palestras, Mesas-Redondas, Curso de Atualização, Clínicas Tecnológicas, Visitas Técnicas e Apresentações de Trabalhos Científicos em oito áreas definidas pelo Congresso. Como resultado da realização do XX CBCTA, esta análise visa uma apresentação e discussão dos indicadores da pesquisa da área de Ciência e Tecnologia de Alimentos do País e contribuição ao desenvolvimento científico e tecnológico da área, bem como subsídios para órgãos de fomento para decisão de investimentos na pesquisa e na formação de recursos humanos. No XX CBCTA, foi apresentado um total de 2066 trabalhos científicos de todo o Brasil, com exceção do Estado de Rondônia. Os trabalhos foram registrados no banco de dados e utilizados para esta análise. As inscrições foram escolhidas de acordo com a área da pesquisa de cada trabalho, sob responsabilidade de cada autor. As áreas definidas pela Comissão Científica do Congresso foram: Embalagem (EB); Método Analítico (MA); Microbiologia, Micotoxicologia e Biotecnologia (MB); Nutrição, Saúde e Alimentação (NA); Processo e Desenvolvimento de Produto (PD); Qualidade de Alimentos (QA); Química e Bioquímica (QB); e Resíduo Agroindustrial e Meio Ambiente (RM). Foi utilizado o Programa da Microsoft® Office Excel para a composição dos gráficos, versão Windows XP.
Resumo:
OBJETIVO: As causas mais importantes de mortalidade em pacientes com Doença Renal Crônica Terminal (DRCT) são as doenças cardiovasculares. No entanto, existem doenças infecciosas virais (hepatite B e C) que se tornaram uma questão de grande importância para pacientes em hemodiálise, pois afetam a sua sobrevida aumentando a morbidade e a mortalidade. Nosso objetivo foi estudar a influência da hepatite C na mortalidade em pacientes em hemodiálise. MÉTODOS: Realizamos um estudo de coorte não concorrente durante 10 anos. RESULTADOS: Foram estudados 74 pacientes em cada coorte. A hepatite C não aumentou o risco de morte nos pacientes e a sobrevida dos pacientes com essa infecção foi melhor do que no grupo sem hepatite C. A sobrevida em pacientes não infectados no primeiro e quinto anos foi de 93,9% e 52,3%; e para os não infectados foi de 95,5% e 73,1%, respectivamente (Log Rank Mantel Cox, p = 0,02). CONCLUSÃO: Não encontramos aumento no risco de mortalidade. A hepatite C não se correlaciona com aumento de mortalidade em pacientes com DRCT em programa de hemodiálise.
Resumo:
INTRODUÇÃO: Dados nacionais sobre diálise crônica são fundamentais para o planejamento do tratamento. OBJETIVO: Apresentar dados do censo anual da SBN sobre os pacientes com doença renal crônica em diálise de manutenção a 1º de janeiro de 2009. MÉTODOS: Levantamento de dados de unidades de diálise de todo o país. A coleta de dados foi feita utilizando questionário preenchido pelas unidades de diálise do Brasil cadastradas na SBN. RESULTADOS: Das unidades consultadas, 437 (69,8%) responderam ao censo. Em janeiro de 2009, o número estimado de pacientes em diálise foi de 77.589. As estimativas das taxas de prevalência e de incidência de insuficiência renal crônica em tratamento dialítico foram de 405 e 144 pacientes por milhão da população, respectivamente. O número estimado de pacientes que iniciaram tratamento em 2009 foi de 27.612. A taxa anual de mortalidade bruta foi de 17,1%. Dos pacientes prevalentes, 39,9% tinham idade > 60 anos, 89,6% estavam em hemodiálise e 10,4% em diálise peritoneal, 30.419 (39,2%) estavam em fila de espera para transplante, 27% eram diabéticos, 37,9% tinham fósforo sérico > 5,5 mg/dL e 42,8% hemoglobina < 11 g/dL. Cateter venoso foi usado como acesso vascular em 12,4% dos pacientes em hemodiálise. CONCLUSÕES: A prevalência de pacientes em diálise tem apresentado aumento progressivo embora em 2009 as estimativas sejam inferiores às de 2008. Os dados chamam atenção para indicadores da qualidade diálise de manutenção que necessitam ser melhorados. E destacam a importância do censo anual para o planejamento da assistência dialítica.
Resumo:
INTRODUÇÃO: Dados nacionais sobre diálise crônica são essenciais para o planejamento do tratamento de tal enfermidade. OBJETIVO: Apresentar dados do Censo da Sociedade Brasileira de Nefrologia (SBN) sobre os pacientes com doença renal crônica que estavam em diálise de manutenção em 1 de julho de 2010. MÉTODOS: Levantamento dos dados de unidades de diálise de todo o país. A coleta de dados foi feita utilizando questionário preenchido online pelas unidades de diálise do Brasil cadastradas na SBN. RESULTADOS: Das unidades consultadas, 340 (53,3%) responderam ao Censo. A partir dessas respostas foram feitas estimativas nacionais para a população em diálise. Em julho de 2010, o número estimado de pacientes em diálise foi de 92.091. As estimativas nacionais das taxas de prevalência e de incidência de insuficiência renal crônica em tratamento dialítico foram de 483 e 100 pacientes por milhão da população, respectivamente. O número estimado de pacientes que iniciaram tratamento em 2010 foi 18.972. A taxa anual de mortalidade bruta foi de 17,9%. Dos pacientes prevalentes, 30,7% tinham idade igual ou superior a 65 anos; 90,6% estavam em hemodiálise e 9,4% em diálise peritoneal; 35.639 (38,7%) estavam em fila de espera para transplante; 28% eram diabéticos; 34,5% tinham fósforo sérico > 5,5 mg/dL e 38,5%, hemoglobina < 11 g/dL. O cateter venoso era usado como acesso vascular em 13,6% dos pacientes em hemodiálise. CONCLUSÕES: A prevalência de pacientes em diálise tem apresentado aumento progressivo. Os dados dos indicadores da qualidade diálise de manutenção melhoraram em relação a 2009 e destacam a importância do censo anual para o planejamento da assistência dialítica.
Resumo:
INTRODUÇÃO: O transplante renal (TR) é considerado como a melhor terapia para a Doença Renal Crônica (DRC). Fatores associados à sobrevida dos receptores de TR devem ser avaliados tendo em vista a implementação de condutas adequadas no manejo desses pacientes. OBJETIVOS: Analisar a sobrevida de receptores de TR e fatores associados à sua mortalidade. MÉTODOS: Estudo observacional de coorte, retrospectivo, com todos os 215 pacientes submetidos a TR no Hospital Universitário da Universidade Federal do Maranhão-HUUFMA, entre 18 de março de 2000 e 18 de setembro de 2008, com seguimento mínimo de 12 e máximo de 101 meses. Características demográficas e clínicas dos pacientes foram observadas. Utilizou-se o método Kaplan-Meier para construção das curvas de sobrevida do paciente, sendo as mesmas comparadas pelo teste log-rank. O modelo de riscos proporcionais de Cox identificou fatores associados à mortalidade. RESULTADOS: A prevalência de óbito no período foi de 10,6%. A sobrevida de 1, 3 e 5 anos com doadores vivos foi de 97,8%, 94,1% e 92,9%, respectivamente, e com doadores falecidos, 95,6% e 95,6% para 1 e 3 anos, respectivamente. Foram fatores associados à menor sobrevida do paciente: idade > 40 anos (RR = 6,19; p = 0,001; IC 95% = 2,01-18,99) e intercorrência cirúrgica (RR = 4,98; p = 0,041; IC 95% = 1,07-23,27). CONCLUSÕES: As taxas de sobrevida do receptor de TR no HUUFMA foram semelhantes àquelas encontradas em outros trabalhos, nacionais e internacionais. Idade do receptor acima de 40 anos e intercorrências cirúrgicas foram significantemente associados à mortalidade do paciente neste estudo.
Resumo:
INTRODUÇÃO: A classificação de RIFLE define três classes de gravidade da lesão renal aguda (LRA): Risco, Injúria e Falência; foi associada à mortalidade conforme a gradação da gravidade da LRA, porém, é pouco avaliada em estudos prospectivos. OBJETIVO: Analisar prospectivamente a associação da classificação de RIFLE com a mortalidade em pacientes criticamente enfermos. MÉTODO: Estudo de coorte prospectiva de 200 pacientes admitidos na unidade de Terapia Intensiva (UTI), no período de julho/2010 a julho/2011. Os pacientes incluídos eram maiores de 18 anos, permaneceram por mais de 24 horas na UTI e assinaram o termo de consentimento livre esclarecido. RESULTADOS: A frequência da LRA na UTI foi de 47% (n = 95), sendo o RIFLEmáximo: Risco 4,5% (n = 9), Injúria 11% (n = 23) e Falência 31,5% (n = 63). A mortalidade geral na UTI foi de 25,5% (n = 51). O RIFLE categorizado em RIFLEmáximo classe Injúria + Falência, apresentou maior mortalidade quando comparado ao subgrupo categorizado sem LRA + com LRA classe Risco (53,3% vs. 4,4). A maior classe de RIFLE alcançado apresentou maior risco relativo em associação à mortalidade: χ2 de Person = 62,2, RR = 7,46 IC: 3,2-17,2; p < 0,001. O RIFLE categorizado em RIFLEmáximo classe Injúria + Falência, o TISS-28 e o escore SOFAmáximo não renal associaram-se independentemente à mortalidade na UTI. CONCLUSÃO: A gravidade da LRA, de acordo com critério de RIFLE foi um marcador de risco para mortalidade nessa população. O grupo com LRA classe Injúria + Falência, foi associado a maior mortalidade quando comparado ao subgrupo sem LRA + com LRA que permaneceu na classe Risco.
Resumo:
Os estudos que relacionaram lesão renal aguda (LRA) e trauma surgiram durante a Segunda Guerra Mundial e, desde então, tem havido progressiva evolução dos cuidados para a prevenção da LRA. Entretanto, a determinação dos fatores de risco para o desenvolvimento de LRA pós-trauma permanece crucial e pode ajudar a reduzir esta complicação. OBJETIVO: Este estudo tem como objetivo identificar os fatores de risco para o desenvolvimento de LRA em pacientes com trauma grave e sua influência na mortalidade. Trata-se de um estudo retrospectivo com 75 pacientes incluídos por apresentarem trauma grave; seis foram excluídos por terem chegado ao hospital sem condições de ressuscitação. MÉTODO: As variáveis estudadas foram: idade, sexo, gravidade do trauma de acordo com Injury Severity Score (ISS) e Escala de Coma de Glasgow (ECG), mecanismo de trauma, pressão arterial média na admissão, reposição volêmica nas primeiras 24h, níveis séricos de creatinina, uso de antibióticos nefrotóxicos, tempo de internação, necessidade de internação em UTI e mortalidade. RESULTADOS: A prevalência de LRA em traumatizados graves foi de 17,3%, sendo que os fatores associados à IRA nessa amostra foram TCE, ECG < 10. A mortalidade, o tempo de internação e a necessidade de UTI foram significativamente maiores nos pacientes que desenvolveram LRA. CONCLUSÕES: A identificação desses fatores de risco é de suma importância para a formulação de estratégias de atendimento aos pacientes vítimas de trauma grave, visando à prevenção da lesão renal aguda e da elevada mortalidade.