97 resultados para Identificação e avaliação do risco de LMELT


Relevância:

40.00% 40.00%

Publicador:

Resumo:

A fenilcetonúria clássica (PKU), que afeta 1: 10.000 nascimentos em populações caucasianas, é um erro inato do metabolismo determinado pela deficiência da enzima hepática fenilalaninahidroxilase (PAH), com o conseqüente bloqueio na conversão de fenilalanina (Phe) em Tirosina (Tyr) e aumento da concentração plasmática de Phe. A PKU foi descrita há 70 anos pelo médico norueguês Asbjörn Folling. Desde então muitas foram as descobertas a seu respeito, como a caracterização e mapeamento do seu gene, a identificação de mutações, a determinação da estrutura da enzima, características clínicas e bioquímicas dos afetados, correlações genótipo-fenótipo, a identificação do risco teratogênico quando da condição materna, o estabelecimento da triagem neonatal e ainda o seu tratamento. Se não diagnosticada e tratada precocemente, a PKU causa retardo mental, microcefalia, espasmos infantis, odor de rato na urina e hipopigmentação de pele, cabelos e olhos, além de outros sinais e sintomas. Com o objetivo de identificar a população submetida à triagem neonatal no Rio Grande do Sul (Brasil), a incidência de Fenilcetonúria e de outras hiperfenilalaninemias e correlacionar época do diagnóstico, início do tratamento e desfecho clínico, elaborou-se este estudo delineado como uma coorte ambispectiva que avaliou 54 pacientes fenilcetonúricos entre 6 meses a 16 anos de idade. Foram realizadas entrevistas telefônicas com os responsáveis indagando-se alguns dados demográficos e outros relativos à patologia. Crianças de 6 meses a 7 anos foram avaliadas com relação aos marcos do DNPM. Acima dessa idade, foram investigados sobre escolaridade e presença de sintomas neurológicos. Após análise estatística e estratificação da amostra por ano de nascimento, não se observou uma tendência histórica do diagnóstico ter se tornado mais precoce ou de o controle laboratorial ter se tornado melhor com o passar dos anos. Foi encontrada associação entre o controle de Phe e a cognição, mas não a entre a idade do diagnóstico e a evolução clínica.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O estudo trata dos riscos e incertezas que cercam as avaliações econômicas de empresas, tomando por base a exagerada alta das cotações das ações das empresas de Internet, verificada na NASDAQ entre 1998 e 2000. Expõem-se os principais métodos de avaliação econômica, incorporando conceitos de custo do capital e do risco a ele associado, as características econômicas das empresas de Internet, as peculiaridades e barreiras à avaliação destas e, ainda, um panorama da bolha da NASDAQ, ocorrida no período mencionado. Finalmente, é trazido à análise o comportamento do investidor diante da incerteza e os modelos de cascatas de informação, sugerindo-se que a corrida às ações das empresas de Internet tenha sido desencadeada ou influenciada pelas chamadas extemalidades de manada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os avanços nas práticas de manejo e no melhoramento das cultivares de arroz irrigado têm permitido consolidar o Rio Grande do Sul como maior produtor deste cereal no Brasil. A seleção recorrente é um método alternativo de melhoramento que permite a recombinação cíclica de genótipos selecionados em uma população geneticamente divergente. Os objetivos deste trabalho foram avaliar o potencial da população CNA 11 para fins de melhoramento para tolerância ao frio, estudar a divergência genética dos seus genitores e quantificar as alterações nas freqüências alélicas como resultado do processo de seleção. Para isso foram conduzidos dois ensaios de campo compostos de 140 famílias S0:2 derivadas da população CNA 11 e quatro cultivares testemunhas, no delineamento látice 12 x 12 e em dois locais: Cachoeirinha (RS) e Santa Vitória do Palmar (RS), onde foram avaliados dez caracteres fenotípicos. O DNA dos genitores da população CNA 11 e de 133 famílias S0:2 foi analisado com marcadores moleculares do tipo microssatélites. A população CNA 11 apresentou alto potencial para fins de melhoramento, com ampla variabilidade genética em todos os dez caracteres avaliados. Os caracteres estatura de planta, esterilidade de espiguetas e número de grãos por panícula apresentaram altas correlações genotípicas com rendimento de grãos, podendo ser usados como critérios de seleção indireta. A esterilidade de espiguetas mostrou ser um critério eficiente de seleção para identificação de genótipos de arroz com tolerância ao frio no estádio reprodutivo. Os genitores da população CNA 11 apresentaram ampla divergência genética e, de modo geral, as freqüências dos alelos de microssatélites característicos dos genótipos da subespécie índica aumentaram e as da subespécie japônica diminuíram à medida que a intensidade de seleção aumentou. As melhores famílias S0:2 mostraram maior similaridade genética com os genitores da subespécie índica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

No próximo ano, completam-se 40 anos desde a primeira tentativa de transplante hepático (TxH) em seres humanos. Há quase 20 anos, o transplante (Tx) tornou-se uma opção terapêutica real para os pacientes portadores de doença hepática terminal. Atualmente, o TxH é o tratamento de escolha para diversas enfermidades hepáticas, agudas ou crônicas. Dos transplantes realizados na Europa ou nos EUA, em torno de 12% dos pacientes são crianças e adolescentes. No Brasil, 20,9% dos pacientes transplantados de fígado em 2001 tinham até 18 anos de idade e, destes, 60,7% tinham 5 anos ou menos. O objetivo do TxH é a manutenção da vida dos pacientes com doença hepática irreversível, e a principal forma de avaliação de sucesso é a sobrevida após o Tx. A primeira semana que se segue ao TxH, apesar dos excelentes progressos dos últimos anos, continua sendo o período mais crítico. A maioria dos óbitos ou das perdas do enxerto ocorrem nas primeiras semanas, em particular, nos primeiros 7 dias de TxH. Diversos fatores de risco para o resultado do TxH podem ser identificados na literatura, porém há poucos estudos específicos do Tx pediátrico. As crianças pequenas apresentam características particulares que os diferenciam do Tx nos adultos e nas crianças maiores. Com o objetivo de identificar fatores de risco para o óbito nos 7 primeiros dias após os transplantes hepáticos eletivos realizados em 45 crianças e adolescentes no Hospital de Clínicas de Porto Alegre entre março de 1995 e agosto de 2001, foi realizado um estudo de caso-controle. Entre os 6 casos (13,3%) e os 39 controles foram comparadas características relacionadas ao receptor, ao doador e ao procedimento cirúrgico e modelos prognósticos. Das variáveis relacionadas ao receptor, o gênero, o escore Z do peso e da estatura para a idade, a atresia de vias biliares, a cirurgia abdominal prévia, a cirurgia de Kasai, a história de ascite, de peritonite bacteriana espontânea, de hemorragia digestiva e de síndrome hepatopulmonar, a albuminemia, o INR, o tempo de tromboplastina parcial ativada e o fator V não foram associados com o óbito na primeira semana. A mortalidade inicial foi maior nas crianças com menor idade (p=0,0035), peso (p=0,0062) e estatura (p<0,0001), bilirrubinemia total (BT) (p=0,0083) e bilirrubinemia não conjugada (BNC) (p=0,0024) elevadas, e colesterolemia reduzida (p=0,0385). Os receptores menores de 3 anos tiveram um risco 25,5 vezes maior de óbito que as crianças maiores (IC 95%: 1,3–487,7). A chance de óbito após o Tx dos pacientes com BT superior a 20 mg/dL e BNC maior que 6 mg/dL foi 7,8 (IC95%: 1,2–50,1) e 12,7 (IC95%: 1,3–121,7) vezes maior que daqueles com níveis inferiores, respectivamente. Das características relacionadas ao doador e ao Tx, as variáveis gênero, doador de gênero e grupo sangüíneo ABO não idênticos ao do receptor, razão peso do doador/receptor, causa do óbito do doador, enxerto reduzido, tempo em lista de espera e experiência do Programa não foram associados com o óbito nos primeiros 7 dias. Transplantes com enxertos de doadores de idade até 3 anos, ou de peso até 12 Kg representaram risco para o óbito dos receptores 6,8 (IC95%: 1,1–43,5) e 19,3 (IC95%: 1,3–281,6) vezes maior, respectivamente. O tempo de isquemia total foi em média de 2 horas maior nos transplantes dos receptores não sobreviventes (p=0,0316). Os modelos prognósticos Child-Pugh, Rodeck e UNOS não foram preditivos do óbito. Os pacientes classificados como alto risco no modelo de Malatack apresentaram razão de chances para o óbito 18,0 (IC95%: 1,2–262,7) vezes maior que aqueles com baixo risco. A mortalidade na primeira semana foi associada a valores elevados do escore PELD. O risco de óbito foi de 11,3 (IC95%: 1,2–107,0) nas crianças com valor do PELD maior que 10. As crianças pequenas e com maior disfunção hepática apresentaram maior risco de óbito precoce. Doador de pequeno porte e prolongamento do tempo de isquemia também foram associados à mortalidade. Somente os modelos de Malatack e PELD foram preditivos da sobrevida.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A Febre Reumática (FR) é uma doença com significativa prevalência na população de pacientes em idade escolar. Constitui-se na principal causa de cardiopatia crônica em adultos jovens em países em desenvolvimento. A prevenção é de fácil manejo terapêutico, embora com reduzido índice de adesão. Até o momento, a melhor forma de evitarmos as seqüelas cardíacas é através da identificação e tratamento precoces e a manutenção de uma adequada profilaxia secundária. São raras as publicações referentes ao acompanhamento da profilaxia secundária após a alta hospitalar. O objetivo deste trabalho é avaliar a adesão ao acompanhamento dos pacientes com FR internados no Hospital de Clínicas de Porto Alegre, no período de janeiro de 1977 a junho de 1999. A coorte foi constituída de 112 indivíduos com FR que tinham indicação de retorno ao ambulatório após a alta. Quarenta pacientes (35,7%) foram atendidos no primeiro episódio de FR. A maioria apresentou seqüelas cardíacas (52,7%), ocorrendo registro de casos a partir de 8 anos de idade. As manifestações clínicas nos 40 pacientes atendidos no primeiro episódio de FR foram: 21 (52,5%) com cardite, 30 (75%) com artrite e 14 (35%) com coréia. Apenas 77 (68,7%) retornaram ao ambulatório após a alta e somente 13 (21% pelo método de Kaplan-Meier) mantiveram acompanhamento por no mínimo 5 anos. A idade menor ou igual a 16 anos foi fator preditivo de maior tempo de acompanhamento. Local de procedência, presença de seqüelas e renda familiar não mostraram associação significante. A interrupção do acompanhamento pela maioria dos pacientes e a verificação do pior prognóstico cardíaco nos pacientes com recidivas sugere a necessidade da adoção de um programa de orientação e busca para garantir a efetividade da profilaxia secundária.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As técnicas tradicionais de avaliação de rentabilidade apresentam características que resultam eficazes no que tange aos aspectos econômicos da análise de investimentos. No entanto, a validade das informações fornecidas por estes métodos depende dos dados incluídos na avaliação. Neste sentido, em função da complexidade e do inter-relacionamento existente nos processos produtivos de empresas, as alterações proporcionadas por um investimento podem ter impacto sobre áreas que não estão diretamente envolvidas com o projeto a ser implementado. Este fato dificulta a identificação e conseqüente inclusão da totalidade dos fatores que causam impacto na análise do projeto. Além disso, impactos relacionados a atividades indiretas não possuem uma metodologia que permita sua quantificação. Como forma de abordar o problema, este trabalho apresenta uma sistemática de avaliação de investimentos que, através de uma seqüência estruturada de passos e com a utilização das informações geradas por um sistema de custeio do tipo ABC (Activity-Based Costing), possibilita incluir na análise impactos indiretos gerados pelo projeto. A aplicação desta sistemática em um projeto de substituição de equipamento numa empresa do ramo industrial mostra que as informações geradas complementam aquelas obtidas quando da aplicação das técnicas tradicionais. Desta forma, foi possível avaliar o impacto econômico provocado por possíveis alterações nos setores não diretamente ligados ao projeto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O elevado grau de competição imposto pelo mercado tem gerado nas empresas uma maciça movimentação em busca de melhorias contínuas e radicais nos processos de produção. Desta forma, a busca e identificação de oportunidades de melhoria constitui-se em importante mecanismo de aumento do desempenho e potencial competitivo. No entanto, a sistematização deste procedimento/abordagem esbarra na complexidade das ferramentas conhecidas e atualmente disponíveis para aplicação rotineira na análise dos processos produtivos. Uma análise ou diagnóstico consistente exige, muitas vezes, a aplicação de diversas ferramentas, tornando o processo de identificação de oportunidades e implementação de melhorias exageradamente complexo e moroso. Este estudo identificou a real necessidade de desenvolvimento de uma abordagem eficaz e ao mesmo tempo mais simples de mapeamento das oportunidades de melhoria, propondo uma metodologia de análise de sistemas de produção baseada na utilização conjugada de duas clássicas ferramentas de diagnóstico: o mapeamento da cadeia de valor e o mecanismo da função produção. O estudo parte de uma revisão bibliográfica onde são abordados os principais conceitos concernentes ao processo de diagnóstico e melhoria de sistemas de produção, base para o desenvolvimento da metodologia proposta. O método é, a seguir, testado em um estudo de caso realizado junto a uma empresa fabricante de cores para pintura automotiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os efeitos provocados por radiações são conhecidos na literatura por meio dos estudos em usinas nucleares e em testes bélicos. Entretanto, os efeitos da radiação natural vêm despertando a atenção das autoridades da saúde, dentre as quais se destaca a Environmental Protection Agency (EPA) nos Estados Unidos e a National Radiological Protection Board (NRPB) no Reino Unido. Os efeitos epidemiológicos ocasionados por radiação de origem natural, mais especificamente a radiação emanada pelo gás radônio que fica acumulado em residências enclausuradas por muito tempo, tem sido alvo de intensas investigações. Nessa dissertação, foi realizada uma avaliação ambiental preliminar da radiação natural devida ao radônio como elemento epidemiológico no Escudo Sul-riograndense. Os dados utilizados para determinar o risco epidemiológico foram: neoplasias, radiação, geologia e população. O banco de dados dos casos de óbitos por neoplasias do estado foi obtido da Secretaria da Saúde, por meio do Núcleo de Informação em Saúde. A radiação natural devida ao radônio foi determinada a partir dos dados gamaespectrométricos obtidos de levantamento aerogeofísico da CPRM no Escudo Sul-riograndense, nos projetos Camaquã e Extremo Sudeste do Brasil realizados nos anos de 1973 e 1978, respectivamente. Os dados geológicos foram obtidos do Mapa Geológico do Estado de 1989. Os dados de população foram obtidos junto ao Instituto Brasileiro de Geografia e Estatística (IBGE). A integração de dados foi realizada usando a metodologia de matriz de sobreposição entre os dados de casos de óbitos por neoplasia e de gamaespectrometria. Os dados de população foram empregados para normalizar os dados de neoplasias, e o dado de geologia para correlacionar com a gamaespectrometria. Os resultados da integração são mapas classificados pelo grau de risco epidemiológico, nos quais é apresentada a relação entre os casos de neoplasias pela intensidade de radiação devida ao radônio. Nesse sentido, uma boa relação foi assinalada e são recomendados estudos adicionais sobre esse mesmo banco de dados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Atualmente, pesquisadores das mais diversas áreas, tais como: Geologia, Física, Cartografia, Oceanografia, entre outras, utilizam imagens de satélite como uma fonte valiosa para a extração de informações sobre a superfície terrestre. Muitas vezes, a análise (classificação) destas imagens é realizada por métodos tradicionais sejam eles supervisionados (como o Método de Máxima Verossimilhança Gaussiana) ou nãosupervisionados (como o Método de Seleção pelo Pico do Histograma). Entretanto, pode-se utilizar as Redes Neurais Artificiais como uma alternativa para o aumento da acurácia em classificações digitais. Neste trabalho, utilizou-se imagens multi-espectrais do satélite LANDSAT 5-TM para a identificação de espécies vegetais (Mata Nativa, Eucalyptus e Acácia) em uma região próxima aos municípios de General Câmara, Santo Amaro e Taquari, no Estado do Rio Grande do Sul, Brasil. Comparou-se qualitativamente e quantitativamente os resultados obtidos pelo método de Máxima Verossimilhança Gaussiana e por uma Rede Neural Artificial Multinível com BackPropagation na classificação da área de estudo. Para tanto, parte desta área foi mapeada através de uma verificação de campo e com o auxílio de classificadores nãosupervisionados (Kohonen, que é uma Rede Neural, e o método de Seleção pelo Pico do Histograma). Com isto, foi possível coletar dois conjuntos de amostras, sendo que um deles foi utilizado para o treinamento dos métodos e o outro (conjunto de reconhecimento) serviu para a avaliação das classificações obtidas. Após o treinamento, parte da área de estudo foi classificada por ambos os métodos. Em seguida, os resultados obtidos foram avaliados através do uso de Tabelas de Contingência, considerando um nível de significância de 5%. Por fim, na maior parte dos testes realizados, a Rede Neural Artificial Multinível com BackPropagation apresentou valores de acurácia superiores ao Método de Máxima Verossimilhança Gaussiana. Assim, com este trabalho observou-se que não há diferença significativa de classificação para as espécies vegetais, ao nível de 5%, para a área de estudo considerada, na época de aquisição da imagem, para o conjunto de reconhecimento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Entre maio de 2001 e janeiro de 2002, foram realizadas coletas sazonais na lagoa Azul, Siderópolis, SC. Esta lagoa formou-se por lavra de mineração de carvão a céu aberto desativada. Foram avaliadas as concentrações de Cr, Mn, Ni, Zn e Fe na água e no sedimento. Estes metais, exceto o Fe, foram também analisados no músculo e no fígado das espécies dos peixes Oreochromis niloticus (tilápia) e Geophagus brasiliensis (acará). O objetivo foi avaliar a qualidade da lagoa, bem como, das espécies de peixes predominantes, devido a preocupação quanto ao consumo potencial das mesmas pela população do entorno. As análises do sedimento, quando comparada a locais não contaminados, indicam concentração elevada para Fe, Mn, Cr e Zn. No compartimento água as concentrações de Fe, Mn e Ni estão acima do estabelecido para a classe 2 da Resolução CONAMA 20/86. Conforme análise estatística, em ambos os compartimentos abióticos ocorrem diferenças significativas entre os 4 pontos amostrados, porém diferença sazonal ocorre somente para o compartimento água. O conteúdo de metais em peixes não apresenta diferença significativa entre as espécies analisadas, todavia entre os diferentes tecidos analisados, o fígado apresentou a maior concentração em ambas as espécies. Através das análises do músculo (parte comestível), foi possível avaliar o risco à saúde humana. Segundo a estimativa da ingestão diária, os peixes analisados não propiciam risco aparente de contaminação à população do entorno, conforme os critérios adotados para o teor dos metais avaliados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A ergonomia tem demonstrado a sua importância em vários trabalhos que visam proteger a saúde e a segurança, beneficiando trabalhadores e empresas. Utilizando uma abordagem participativa e um enfoque macroergonômico, a ação ergonômica possibilita identificar os problemas e fatores de risco apresentados em ambientes e/ou postos de trabalho. Além disso, permite a sugestão de alternativas que possam melhorar as condições de trabalho e da própria organização. Todavia, a identificação dos custos gerados por estes problemas ou fatores de risco é de difícil identificação, quantificação e apreciação. Para conseguir mensurar estes custos, faz-se necessário o uso de uma metodologia de custeio adequada. A metodologia de custeio ABC (Custeio Baseado em Atividades), através do uso de direcionadores de custo, possibilita alocar o consumo de recursos aos processos e tarefas desenvolvidos. lnteragindo a ergonomia com a metodologia de custeio ABC toma-se possível identificar os problemas ergonômicos e relacioná-Ios aos custos gerados. Esta pesquisa apresenta um estudo de caso realizado em uma empresa do ramo farmoquímico, objetivando assim, contribuir na proposição de uma abordagem para medição de custos ergonômicos. O estudo de caso foi desenvolvido em um setor específico da empresa, servindo como piloto para medição do custo total e unitário da tarefa, bem como daqueles oriundos de problemas ergonômicos. Dentre os resultados encontrados por este trabalho, pode-se destacar a mensuração do custo da tarefa de manipular NPT (Nutrição Parenteral Total), além do custo gerado por problemas e recursos ergonômicos.