999 resultados para Mínima quantidade de lubrificante (MQL) e retifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve o estudo da viabilidade económica de implementar um processo de absorção química com monoetanolamina (MEA) numa central termoeléctrica, visando a captura de CO2 dos gases de exaustão da mesma, dado que na indústria, o sector de produção de energia eléctrica é o principal responsável pela emissão de CO2 para a atmosfera. A central em foco foi a TER (Central Termoeléctrica do Ribatejo) devido à quantidade de gases emitidos e ao teor em CO2 dos mesmos, além de ser a responsável por cerca de 18% da energia eléctrica em Portugal. O processo em causa ocorre em pós-combustão, dado tratar-se de uma central já existente, e engloba a absorção química com MEA, seguida de stripping, com remoção do CO2 e recirculação da MEA. Este sistema foi testado recorrendo a um modelo de simulação desenvolvido por T. Greer, na sua tese de mestrado ao tema “Modeling and simulation of post combustion CO2 capturing” com base em Matlab. De acordo com o disposto sobre o Comércio Europeu de Licenças de Emissão (CELE), para o período de 2008-2012, foi atribuído à TER um limite de emissão de 1.423.103 ton CO2/ano. Sendo esta responsável pela emissão anual de cerca de 2X106 toneladas, determinou-se um encargo de 17.277.000 € anuais por incumprimento. Os custos de implementação deste processo estimam-se, para um período de amortização de 5 anos, em 6.546.758€, e permitiria a captação de 78,7% do CO2 emitido. As taxas respeitantes ao incumprimento ficariam reduzidas a 13.597.020€; o que significa que, com a implementação desta tecnologia, se conseguirá uma economia de: 17.277.000 - 13.597.020 = 3.679.980 €/ano. Estes valores foram calculados de acordo com o valor cotado da tonelada de CO2 para 2008 de 30 euros/ton. No período de amortização considerado, 5 anos, obtém-se uma economia de 18.399.900 €, sendo possível amortizar totalmente o investimento efectuado com a unidade de captura de CO2 sendo economicamente viável a sua implementação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para confirmação de foco de tracoma em locais onde não existiam casos anteriormente relatados, a Secretaria de Estado da Saúde preconiza a realização de exames laboratoriais principalmente pelo fato da doença ter sido considerada erradicada no Estado de São Paulo, Brasil, na década de 70. Foram colhidas, durante investigações epidemiológicas, lâminas de raspado conjuntival de indivíduos com diagnóstico clínico de tracoma inflamatório (TF/TI). Analisaram-se os resultados dos exames laboratoriais por imunofluorescência direta (IFD), quanto à freqüência de exames adequados para análise e sua positividade segundo a quantidade de corpúsculos elementares (EBs) encontrados (sensibilidade do teste). Foram estudadas 385 lâminas, sendo que 241 (62,6%) foram consideradas adequadas para análise. Considerando-se o critério de positividade de 5 ou + EBs, a sensibilidade do teste foi de 19,9%. O teste de IFD apesar de ser o melhor teste laboratorial para ser utilizado em trabalhos de campo, não apresenta sensibilidade suficiente para confirmar todos os casos clínicos diagnosticados de tracoma, mas pode confirmar a circulação do agente etiológico em uma comunidade. Portanto, em zonas endêmicas o diagnóstico clínico de tracoma continua sendo o critério para confirmação de casos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho foi estudado o método de preparação de amostras baseado numa extracção ácida assistida por ultra-sons para a quantificação de metais pesados (Pb, Ni, Cd e Cr), em amostras de solo. Usou-se a espectrometria de absorção atómica com câmara de grafite (GFAAS) para quantificar os metais nestas amostras recolhidas em diferentes locais da cidade de Lisboa. A optimização dos parâmetros que influenciam a extracção dos metais por ultra-sons foi realizada a cinco variáveis: quantidade de amostra, volume de extractor (água-régia), tempo de sonificação, potência de sonificação e ciclo de sonificação. A eficiência do método foi testada por comparação dos resultados com os obtidos pela digestão ácida “tradicional” em banho de areia. A optimização do processo foi realizada para o metal chumbo. Os resultados analíticos obtidos por ambos os métodos apresentaram diferenças significativas. A extracção de chumbo das amostras, por ultra-sons, apresentou uma eficiência entre 65 a 78% quando comparada com o método “tradicional”. A recuperação de cádmio apresentou percentagens entre 36 e 90%. No caso do níquel e crómio, concluiu-se haver necessidade de optimizar o processo para cada um dos metais, pois apresentaram uma baixa taxa de recuperação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As vias de comunicação são indispensáveis para o desenvolvimento de uma nação, económica e socialmente. Num mundo globalizado, onde tudo deve chegar ao seu destino no menor espaço de tempo, as vias de comunicação assumem um papel vital. Assim, torna-se essencial construir e manter uma rede de transportes eficiente. Apesar de não ser o método mais eficiente, o transporte rodoviário é muitas vezes o mais económico e possibilita o transporte porta-a-porta, sendo em muitos casos o único meio de transporte possível. Por estas razões, o modo rodoviário tem uma quota significativa no mercado dos transportes, seja de passageiros ou mercadorias, tornando-o extremamente importante na rede de transportes de um país. Os países europeus fizeram um grande investimento na criação de extensas redes de estradas, cobrindo quase todo o seu território. Neste momento, começa-se a atingir o ponto onde a principal preocu+ação das entidades gestoras de estradas deixa de ser a construção de novas vias, passando a focar-se na necessidade de manutenção e conservação das vias existentes. Os pavimentos rodoviários, como todas as outras construções, requerem manutenção de forma a garantir bons níveis de serviço com qualidade, conforto e segurança. Devido aos custos inerentes às operações de manutenção de pavimentos, estas devem rigorosamente e com base em critérios científicos bem definidos. Assim, pretende-se evitar intervenções desnecessárias, mas também impedir que os danos se tornem irreparáveis e economicamente prejudiciais, com repercussões na segurança dos utilizadores. Para se estimar a vida útil de um pavimento é essencial realizar primeiro a caracterização estrutural do mesmo. Para isso, torna-se necessário conhecer o tipo de estrutura de um pavimento, nomeadamente a espessura e o módulo de elasticidade constituintes. A utilização de métodos de ensaio não destrutivos é cada vez mais reconhecida como uma forma eficaz para obter informações sobre o comportamento estrutural de pavimentos. Para efectuar estes ensaios, existem vários equipamentos. No entanto, dois deles, o Deflectómetro de Impacto e o Radar de Prospecção, têm demonstrado ser particularmente eficientes para avaliação da capacidade de carga de um pavimento, sendo estes equipamentos utilizados no âmbito deste estudo. Assim, para realização de ensaios de carga em pavimentos, o equipamento Deflectómetro de Impacto tem sido utilizado com sucesso para medir as deflexões à superfície de um pavimento em pontos pré-determinados quando sujeito a uma carga normalizada de forma a simular o efeito da passagem da roda de um camião. Complementarmente, para a obtenção de informações contínuas sobre a estrutura de um pavimento, o equipamento Radar de Prospecção permite conhecer o número de camadas e as suas espessuras através da utilização de ondas electromagnéticas. Os dados proporcionam, quando usados em conjunto com a realização de sondagens à rotação e poços em alguns locais, permitem uma caracterização mais precisa da condição estrutural de um pavimento e o estabelecimento de modelos de resposta, no caso de pavimentos existentes. Por outro lado, o processamento dos dados obtidos durante os ensaios “in situ” revela-se uma tarefa morosa e complexa. Actualmente, utilizando as espessuras das camadas do pavimento, os módulos de elasticidade das camadas são calculados através da “retro-análise” da bacia de deflexões medida nos ensaios de carga. Este método é iterativo, sendo que um engenheiro experiente testa várias estruturas diferentes de pavimento, até se obter uma estrutura cuja resposta seja o mais próximo possível da obtida durante os ensaios “in Situ”. Esta tarefa revela-se muito dependente da experiência do engenheiro, uma vez que as estruturas de pavimento a serem testadas maioritariamente do seu raciocínio. Outra desvantagem deste método é o facto de apresentar soluções múltiplas, dado que diferentes estruturas podem apresentar modelos de resposta iguais. A solução aceite é, muitas vezes, a que se julga mais provável, baseando-se novamente no raciocínio e experiência do engenheiro. A solução para o problema da enorme quantidade de dados a processar e das múltiplas soluções possíveis poderá ser a utilização de Redes Neuronais Artificiais (RNA) para auxiliar esta tarefa. As redes neuronais são elementos computacionais virtuais, cujo funcionamento é inspirado na forma como os sistemas nervosos biológicos, como o cérebro, processam a informação. Estes elementos são compostos por uma série de camadas, que por sua vez são compostas por neurónios. Durante a transmissão da informação entre neurónios, esta é modificada pela aplicação de um coeficiente, denominado “peso”. As redes neuronais apresentam uma habilidade muito útil, uma vez que são capazes de mapear uma função sem conhecer a sua fórmula matemática. Esta habilidade é utilizada em vários campos científicos como o reconhecimento de padrões, classificação ou compactação de dados. De forma a possibilitar o uso desta característica, a rede deverá ser devidamente “treinada” antes, processo realizado através da introdução de dois conjuntos de dados: os valores de entrada e os valores de saída pretendidos. Através de um processo cíclico de propagação da informação através das ligações entre neurónios, as redes ajustam-se gradualmente, apresentando melhores resultados. Apesar de existirem vários tipos de redes, as que aparentam ser as mais aptas para esta tarefa são as redes de retro-propagação. Estas possuem uma característica importante, nomeadamente o treino denominado “treino supervisionado”. Devido a este método de treino, as redes funcionam dentro da gama de variação dos dados fornecidos para o “treino” e, consequentemente, os resultados calculados também se encontram dentro da mesma gama, impedindo o aparecimento de soluções matemáticas com impossibilidade prática. De forma a tornar esta tarefa ainda mais simples, foi desenvolvido um programa de computador, NNPav, utilizando as RNA como parte integrante do seu processo de cálculo. O objectivo é tornar o processo de “retro-análise” totalmente automático e prevenir erros induzidos pela falta de experiência do utilizador. De forma a expandir ainda mais as funcionalidades do programa, foi implementado um processo de cálculo que realiza uma estimativa da capacidade de carga e da vida útil restante do pavimento, recorrendo a dois critérios de ruína. Estes critérios são normalmente utilizados no dimensionamento de pavimentos, de forma a prevenir o fendilhamento por fadiga e as deformações permanentes. Desta forma, o programa criado permite a estimativa da vida útil restante de um pavimento de forma eficiente, directamente a partir das deflexões e espessuras das camadas, medidas nos ensaios “in situ”. Todos os passos da caracterização estrutural do pavimento são efectuados pelo NNPav, seja recorrendo à utilização de redes neuronais ou a processos de cálculo matemático, incluindo a correcção do módulo de elasticidade da camada de misturas betuminosas para a temperatura de projecto e considerando as características de tráfego e taxas de crescimento do mesmo. Os testes efectuados às redes neuronais revelaram que foram alcançados resultados satisfatórios. Os níveis de erros na utilização de redes neuronais são semelhantes aos obtidos usando modelos de camadas linear-elásticas, excepto para o cálculo da vida útil com base num dos critérios, onde os erros obtidos foram mais altos. No entanto, este processo revela-se bastante mais rápido e possibilita o processamento dos dados por pessoal com menos experiência. Ao mesmo tempo, foi assegurado que nos ficheiros de resultados é possível analisar todos os dados calculados pelo programa, em várias fases de processamento de forma a permitir a análise detalhada dos mesmos. A possibilidade de estimar a capacidade de carga e a vida útil restante de um pavimento, contempladas no programa desenvolvido, representam também ferramentas importantes. Basicamente, o NNPav permite uma análise estrutural completa de um pavimento, estimando a sua vida útil com base nos ensaios de campo realizados pelo Deflectómetro de Impacto e pelo Radar de Prospecção, num único passo. Complementarmente, foi ainda desenvolvido e implementado no NNPav um módulo destinado ao dimensionamento de pavimentos novos. Este módulo permite que, dado um conjunto de estruturas de pavimento possíveis, seja estimada a capacidade de carga e a vida útil daquele pavimento. Este facto permite a análise de uma grande quantidade de estruturas de pavimento, e a fácil comparação dos resultados no ficheiro exportado. Apesar dos resultados obtidos neste trabalho serem bastante satisfatórios, os desenvolvimentos futuros na aplicação de Redes Neuronais na avaliação de pavimentos são ainda mais promissores. Uma vez que este trabalho foi limitado a uma moldura temporal inerente a um trabalho académico, a possibilidade de melhorar ainda mais a resposta das RNA fica em aberto. Apesar dos vários testes realizados às redes, de forma a obter as arquitecturas que apresentassem melhores resultados, as arquitecturas possíveis são virtualmente ilimitadas e pode ser uma área a aprofundar. As funcionalidades implementadas no programa foram as possíveis, dentro da moldura temporal referida, mas existem muitas funcionalidades a serem adicinadas ou expandidas, aumentando a funcionalidade do programa e a sua produtividade. Uma vez que esta é uma ferramenta que pode ser aplicada ao nível de gestão de redes rodoviárias, seria necessário estudar e desenvolver redes similares de forma a avaliar outros tipos de estruturas de pavimentos. Como conclusão final, apesar dos vários aspectos que podem, e devem ser melhorados, o programa desenvolvido provou ser uma ferramenta bastante útil e eficiente na avaliação estrutural de pavimentos com base em métodos de ensaio não destrutivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os organofosforados são um grupo de compostos químicos amplamente utilizados em agropecuária como inseticidas, ocasionando intoxicações acidentais em animais e humanos, e mesmo sendo utilizados em tentativas de suicídio. A toxicidade desses produtos decorre sobretudo de insuficiência cárdio-respiratória por compromentimento do sistema nervoso autônomo. Sabe-se que alguns destes compostos induzem em animais de experimentação e em humanos, uma miopatia caracterizada por degeneração de células musculares, comprometendo sobretudo a musculatura respiratória. Baseado no fato de que este comprometimento contribui para a piora da função respiratória, propõe-se um protocolo de avaliação rotineira de miotoxicidade por compostos organofosforados, através de uma bateria mínima e suficiente de colorações e reações histoquímicas para quantificação da necrose muscular. Utilizaram-se como modelo experimental, grupos de ratos albinos (Wistar) intoxicados com o organofosforado paraoxon, com e sem antídotos (atropina ou pralidoxima). Verificou-se nos grupos tratados com paraoxon e paraoxon mais atropina, necrose de fibras musculares no diafragma, que atingia em determinadas áreas até 15% das fibras. No grupo tratado com paraoxon mais pralidoxima, a necrose foi mínima, evidenciando o papel mioprotetor deste último antídoto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resultados de diversos estudos têm apontado a relevância da hipertensão arterial, do hábito de fumar e da hipercolesterolemia como fatores de risco para a doença isquêmica do coração (DIC). Poucos autores têm investigado a existência de gradiente linear relacionando a quantidade destas exposições com os eventos coronarianos. Com o objetivo de avaliar o efeito de diferentes graus de exposição a estas variáveis sobre a DIC, procedendo-se ao ajustamento para possíveis variáveis de confusão, foi feito estudo planejado sob a forma de desenho tipo caso-controle, tendo a coleta de dados se estendido de março de 1993 a fevereiro de 1994. Foram estudados 833 indivíduos de ambos os sexos, na faixa etária compreendida entre 30 e 69 anos completos, sendo todos residentes no Município de São Paulo, SP (Brasil). Foram comparados 280 casos com 553 controles (285 controles de vizinhança e 268 controles hospitalares). A técnica estatística utilizada para a análise dos dados foi a regressão logística multivariada. Os resultados permitiram identificar gradiente linear para as variáveis duração da hipertensão arterial e para número de cigarros consumidos/dia. As variáveis duração do hábito de fumar e duração da hipercolesterolemia, embora tendo apresentado "odds ratios" significantes para as respectivas categorias de exposição, não apresentaram gradiente linear. Foram discutidos aspectos metodológicos que poderiam exercer influência sobre a tendência dos "odds ratios" nas categorias de exposição das variáveis duração do hábito de fumar e duração da hipercolesterolemia. Conclui-se que os efeitos dose-resposta observados para as variáveis duração da hipertensão arterial e número de cigarros consumidos/dia foram independentes da presença nos modelos de potentes fatores de risco para a doença isquêmica do coração.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A alimentação é uma das actividades básicas da vida diária que se torna um problema comum em idosos, especialmente naqueles com demência. Os principais factores que podem interferir com esta actividade básica são o ambiente onde ocorrem as refeições, a incapacidade cognitiva para iniciar e prosseguir estratégias de alimentação de uma forma eficaz, o declínio de habilidades neuromotoras e a presença de deficits perceptivos. Estes factores estão por sua vez associados a diferentes dificuldades no processo de alimentação. Os indivíduos com demência apresentam, assim, uma maior probabilidade de desenvolver um quadro de desnutrição, constituindo a ingestão alimentar inadequada um importante factor de risco a ele associada. A avaliação da ingestão alimentar (AIA) constitui um parâmetro que integra a avaliação do estado nutricional dos indivíduos. A observação directa consiste em observar e registar a ingestão alimentar (qualitativa e quantitativa) do indivíduo na altura em que este a efectua. O recall 24H é um método em que o entrevistador (o Dietista) questiona o entrevistado (o doente) acerca de todos os alimentos consumidos num período de 24h definido, quer em termos de qualidade, quer de quantidade. Objectivo do estudo - Avaliar a ingestão alimentar dos indivíduos do Hospital Residencial do Mar (HRMar), Espírito Santo Saúde, utilizando o método de observação directa nos indivíduos com diagnóstico de demência e o recall 24H nos indivíduos sem demência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho efectuou-se o estudo do comportamento de catalisadores bifuncionais do tipo SAPO-11, contendo 0,5% em massa de platina, em que foram efectuadas alterações durante o processo de síntese, na reacção de hidroisomerização do n-decano. As modificações efectuadas nos catalisadores foram: quantidade de silício; utilização di-propilamina (DPA) como agente estruturante ou a mistura de di-proppilamina (DPA) e metilamina (MA), funcionando esta última como co-estruturante; diferentes tempos de cristalização (24 e 12h); e a introdução de nióbio (Nb). Os catalisadores preparados foram caracterizados recorrendo às técnicas de difracção de raio-X, microscopia electrónica de varrimento, adsorção de N2, adsorção de piridina acompanhada por espectroscopia de infravermelho, reacção de hidrogenação do tolueno e quimissorção de H2. A quantidade de Si afecta a acidez e, ligeiramente, a actividade hidrogenante, levando a uma diminuição da selectividade aos produtos mono-ramificados com o aumento de Si. A utilização de MA aumenta, significativamente, o tamanho dos cristais, reflectindo-se na menor selectividade aos isómeros mono-ramificados. Nos catalisadores preparados com menor tempo de cristalização o crescimento dos cristais não é completo, sendo o seu tamanho inferior aos preparados com 24h com consequente diminuição da cristalinidade dos materiais. A presença de Nb exerce um efeito na acidez dos catalisadores e na não uniformidade do tamanho dos cristais, provocando o aumento da selectividade aos produtos multi-ramificados e reacções de craking.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A necessidade que as indústrias têm, hoje em dia, de lidar com processos cada vez mais complexos, onde a quantidade de variáveis a controlar e restrições processuais a impor aumentou exponencialmente nas últimas décadas. Uma maior competitividade e eficiência, lado-a-lado com a redução de custos, proporcionou à comunidade científica e industrial explorar mais profundamente o controlo de processos, com vista à construção de técnicas avançadas para fazer face a estas exigências. O controlo preditivo baseado em modelos - MPC- engloba diversas classes de controladores que utilizam algoritmos de predição/previsão e modelos matemáticos representativos do sistema, que juntamente com restrições processuais permitem operar junto de referências e tornar o controlo mais eficiente e seguro. O sucesso do MPC nos sistemas lineares com restrições deve-se, sobretudo, ao facto de reduzir o problema de optimização a um problema de programação quadrática, de fácil implementação e resolução. Além do mais, trata-se de um tipo de controlo bastante flexível e, ao mesmo tempo, mais robusto que o controlo clássico ou convencional, já que pode lidar com processos multivariáveis sem precisar de alterações significativas na sua construção. Neste trabalho aplicam-se técnicas de controlo preditivo a processos não lineares multivariáveis. Estuda-se, ainda, o desempenho desta classe de controladores comparando-a com técnicas de controlo convencional. Nomeadamente, estuda-se um sistema de três tanques em que o caudal é manipulado através de válvulas com característica não linear. O processo é modelado através de princípios de conservação e é validado por um conjunto real de ensaios que permitiu, ainda, obter experimentalmente a característica das válvulas. O modelo validado permitiu desenvolver um controlador preditivo multivariável para controlar os níveis da instalação. Demonstra-se que os controladores preditivos apresentam grandes vantagens em relação ao controlo clássico com malhas independentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudou-se a lixiviação em meio sulfúrico do zinco e outros metais de valor de um concentrado zinco, tendo-se realizado ensaios de lixiviação à pressão atmosférica e em autoclave. Nos estudos de lixiviação utilizou-se o ião férrico (sulfato férrico) como agente oxidante e avaliaram-se os efeitos de diversas variáveis como a razão sólido/líquido, concentração do ião Fe (III), temperatura, a pressão de oxigénio e a presença de enxofre elementar na eficiência da lixiviação. Os ensaios de lixiviação em autoclave sob pressão de oxigénio foram realizados para verificar o efeito da manutenção da quantidade de Fe (III) na lixívia, por oxidação do Fe(II) com oxigénio. Os resultados obtidos mostraram que à pressão atmosférica para uma razão sólido/líquido de 5% foi possível lixiviar no máximo 59% de zinco e 22% de cobre com solução de 0,25 M de Fe2(SO4)3 e 0,50 M de H2SO4 em 2 horas a 60ºC e com uma razão sólido/líquido de 5% foi possível lixiviar no máximo 65% de zinco e 23% de cobre com uma solução de 0,5 M de Fe2(SO4)3 e 0,25 M de H2SO4 em 2 horas a 80ºC. Efectuar a lixiviação do concentrado de zinco sobre pressão de oxigénio permitiu aumentar a cinética da reacção de lixiviação, tendo sido possível lixiviar 97% de zinco e 48% do cobre em 2 horas de lixiviação com uma solução de 0,25 M Fe2(SO4)3 e 0,5 M H2SO4 a 95 ºC e a 6 bar de pressão de oxigénio (à entrada do reactor) com uma razão sólido/líquido de 5%. Utilizando razão sólido/líquido de 10 % foi possível lixiviar 93% de zinco e 54% do cobre com uma solução de 0,50 M Fe2(SO4)3 e 1,25 M H2SO4 a 95 ºC e a 6 bar de pressão de oxigénio, e para uma razão sólido/líquido de 20 % foi possível lixiviar 84% de zinco e 39% do cobre com uma solução de 0,11 M Fe2(SO4)3 e 2,00 M H2SO4 a 95 ºC e a 10 bar de pressão. As análises de difracção de Raios X efectuados aos resíduos de lixiviação revelaram que o enxofre era maioritariamente oxidado a enxofre elementar. Assim, para um dos ensaios de lixiviação em autoclave, verificou-se que a remoção com tetracloreto de carbono do enxofre elementar formado num primeiro andar de lixiviação (s/l=20%, 0,11 M Fe2(SO4)3 e 2,00 M H2SO4 a 95 ºC e a 10 bar de pressão) permitia aumentar a percentagem de zinco no segundo andar de 42 para 68%. Por último, o estudo do efeito da temperatura permitiu calcular como base nas velocidades iniciais do zinco a energia de activação para a lixiviação do zinco que foi de 39 ± 1.40 kJ/mol para a lixiviação em autoclave e de 38 ± 1.40 kJ/mol para a lixiviação à pressão atmosférica, o que é indicativo do controlo reaccional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: O Programa de Qualidade Hospitalar no Estado de São Paulo é desenvolvido pela Associação Paulista de Medicina CQH/APM, desde 1991. Participam do Programa CQH/APM hospitais gerais e especializados, públicos e privados. Tais hospitais são avaliados pelos seus usuários através do questionário CQH-06 ("Avaliação pelos usuários") contendo quesitos de respostas fechadas e respostas abertas para observações e sugestões. Este trabalho objetivou avaliar os resultados do questionário CQH-06 dentro do Programa CQH/APM. METODOLOGIA: Foram analisados 23.751 questionários (5,27% das saídas hospitalares dos pacientes internados) de 66 hospitais recebidos durante o ano de 1994. Para a análise considerou-se: o fluxo do questionário, a quantidade e a qualidade das respostas, os dados das respostas fechadas e das abertas, a comparação das respostas fechadas e abertas. RESULTADOS E CONCLUSÕES: Foram constatados os seguintes aspectos: - a importância do fluxo dos questionários ser diretamente do usuário para o núcleo CQH, - a necessidade do instrumento CQH-06 conter itens gerais que permitam a comparação dos hospitais, - a importância da motivação dos funcionários dos hospitais ao entregar os questionários para os usuários e destes em respondê-los, considerando tanto a quantidade como a qualidade das respostas, - nos hospitais do Programa CQH, a avaliação pelo usuário CQH-06 sobre o número de saídas, apresentou mediana = 4,32% (1º quartil = 1,83% e 3º quartil = 7,92%), sendo que a proporção de usuários, que manifestaram opiniões sobre o serviço em relação ao total, apresentou mediana = 42,11% (1º quartil = 27,28% e 3º quartil = 57,82%). Recomenda-se aos hospitais que utilizem as opiniões dos usuários para o gerenciamento, objetivando a realimentação e Melhoria Contínua da Qualidade dos Hospitais do Programa CQH/APM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: Estudo descritivo por amostragem em munícípio do Estado de São Paulo, Brasil, em 1990, com objetivo de analisar, mediante entrevistas domiciliares, a dieta habitual e fatores de risco para doenças cardiovasculares em indivíduos maiores de 20 anos. METODOLOGIA: Foram entrevistados 557 indivíduos, de idade entre 20 e 88 anos, que fazem parte de subamostra de um estudo global na região. A dieta habitual, identificada pelo histórico alimentar foi comparada às recomendações da OMS e os fatores de risco estudados (obesidade, dislipidemias, diabetes melito) diagnosticados pelo Índice de Massa Corpórea e dosagens bioquímicas. RESULTADOS E CONCLUSÕES: Observou-se que 60% da população consome dieta com energia total abaixo da estimativa das necessidades e que a contribuição calórica dos carboidratos foi de 56%, dos lipídios de 29% e das proteínas de 15%. Entretanto, na análise por percentil, a contribuição calórica dos lipídios e das proteínas encontra-se muito acima dos padrões recomendados em detrimento dos carboidratos. A energia, distribuição calórica e quantidade de colesterol foi adequada em apenas 5% das dietas. Dentre os fatores de risco para doenças cardiovasculares estudados observou-se a prevalência de obesidade em 38% dos indivíduos, de dislipidemias em 26% e de diabetes melito em 5%. A atividade física leve preponderante com dieta inadequada, tanto em termos de qualitativos quanto quantitativos, agravam ainda mais esse quadro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: A mortalidade infantil em Presidente Prudente, SP (Brasil), foi estudada no período de 1990 a 1992, a partir de aplicação de métodos para obtenção de diagnóstico coletivo que orientassem a identificação e escolha de estratégias de controle de problemas locais. MATERIAL E MÉTODO: Foram utilizadas declarações de óbito colhidas no cartório, cujos dados originais foram corrigidos por meio de pesquisa documental nos serviços de saúde e entrevistas domiciliares. Para estudar variáveis como idade materna e peso ao nascer foram utilizados os dados do Sistema de Informações sobre Nascidos Vivos (SINASC). A qualidade dos dados originais das declarações de óbitos foi inicialmente analisada pela quantidade de informações, sensibilidade, especificidade e valor de Kappa. RESULTADO: A sensibilidade global para a causa básica de óbito foi 78,84% e Kappa igual a 71,32 para o total de causas. Ocorreram 189 óbitos, sendo 66,15% no período neonatal (41,28% durante o primeiro dia de vida) e 33,85% no infantil tardio. O peso ao nascer de 58,28% dos óbitos foi menor que 2.500g. As causas básicas de óbito foram estudadas segundo a possibilidade de serem prevenidas (método desenvolvido por Erica Taucher) por grupos de causas reduzidas utilizadas no "International Collaborative Effort" (ICE), causas múltiplas e distribuição geográfica. Observou-se que nos óbitos ocorridos até 27 dias, 22,23% poderiam ser evitados por adequada atenção ao parto, 20,64% seriam redutíveis por diagnóstico e tratamento precoce, 13,75% por bom controle da gravidez e apenas 7,94% não evitáveis. Das mortes ocorridas no período infantil tardio, 12,17% foram classificadas como outras preveníveis e 4,23% foram consideradas não evitáveis. Segundo os grupos do ICE, 58,74% faleceram por imaturidade ou asfixias; 19,58% por infecções e, 12,17%, por anomalias congênitas. CONCLUSÃO: Os resultados sugerem prioridade para assistência obstétrica no trabalho de parto e atenção pediátrica por baixo peso ao nascer, entre outras. A análise por causas múltiplas mostra que 76,05% dos óbitos têm as causas básicas relacionadas a causas perinatais e confirma a relação entre as deficiências de peso e as complicações respiratórias do recém-nascido. As complicações maternas também relacionaram-se com o baixo peso. Identificaram-se grandes diferenças no coeficiente de mortalidade infantil entre as áreas da zona urbana não somente restritas aos valores, como também ao tipo de doenças responsáveis pela ocorrência do óbito. Conclui-se haver vantagem no uso associado das quatro técnicas que são complementares, tanto para estudo, como para planejamento de ações dirigidas à prevenção da mortalidade infantil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre o comportamento dinâmico das bicicletas com o principal objectivo de quantificar o conforto de um ciclista. Neste trabalho serão estudados dois tipos de bicicletas: uma apenas com suspensão dianteira e outra com suspensão dianteira e traseira (ou suspensão total), e três classes de pavimento: um mais sinuoso, um mais suave e um intermédio. Para cada uma destas situações o que se pretende é analisar a quantidade de vibração que é transmitida para o corpo do ciclista através dos três pontos de contacto existentes entre ambos: Assento, guiador e pedais. Os valores obtidos são comparados entre os vários casos e também com valores referência, fornecidos por normas, afim de analisar a situação de conforto do ciclista. Após a realização dos estudos o que se verificou é que o ciclista está numa situação mais desconfortável em pisos mais sinuosos, e que nesta situação se utilizar uma bicicleta de suspensão total está sujeito a vibrações inferiores. No entanto, o mais importante a concluir é que em qualquer uma das situações estudadas o ciclista encontra-se sempre dentro de uma zona conforto segundo as normas utilizadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho que se apresenta incide sobre o estudo aerodinâmico das pás de uma turbina eólica de pequeno porte, com vista à simplificação geométrica, de forma a que estas sejam baratas e de fácil concepção. A teoria da quantidade de movimento do elemento de pá (BEMT), que é o modelo de referência para o projecto e análise aerodinâmica das pás das turbinas eólicas, foi utilizada neste trabalho de forma a projectar e analisar aerodinamicamente as pás da turbina. Sendo assim, desenvolveu-se um programa computacional em MATLAB, denominado de “Turbina”, de forma a implementar a teoria BEM. Introduzindo os dados dos parâmetros de projecto no programa (potência requerida, o número de pás, velocidade do vento, a TSR e o tipo de perfil alar), obtêm-se os parâmetros geométricos das pás (distribuição da corda ao longo da envergadura, o raio da pá e a distribuição da torção da pá), os parâmetros aerodinâmicos e de desempenho. Uma pá ideal foi calculada e de seguida foi modificada de forma a obter-se uma pá simples e menos carregada aerodinamicamente. Introduzidas as modificações na geometria da pá ideal, obtiveram-se duas configurações distintas. Uma configuração linear, onde a distribuição da corda e do ângulo de torção se tornam lineares, e outra configuração bi-linear, onde a distribuição da corda continua linear mas o ângulo de torção se torna bi-linear, isto é, a pá é composta por dois troços onde cada troço apresenta uma distribuição linear do ângulo de torção geométrica. As conclusões demonstram que a configuração bi-linear é uma boa alternativa a configuração ideal, apresentando uma redução do desempenho do rotor de 2.8% para um aumento do raio da pá em 1.41%, para se obter a mesma potência da configuração ideal. A análise aos perfis alares, utilizados neste trabalho, foi efectuada a partir dos programas comerciais ICEM e FLUENT. De forma a automatizar a análise de CFD, três programas foram desenvolvidos utilizando a linguagem de programação “C”. Os programas são denominados de “Malha2D”, “Calcula_Coeficientes” e “Plot_Graficos”. Finalmente, um estudo paramétrico foi feito de forma a avaliar a influências das variáveis de projecto no desempenho geral da turbina.