871 resultados para análise de custo
Resumo:
Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.
Resumo:
Para a maioria dos municípios brasileiros, a instalação de um aterro sanitário é um desafio, sendo uma das dificuldades o custo elevado. Existem algumas formas de mitigar estes custos e uma delas é através do mercado de emissões. Com planejamento prévio suficiente, é possível queimar o metano gerado através da degradação do resíduo, podendo resultar em benefícios para o aterro tanto através do aproveitamento (geração de energia ou venda direta) quanto recebimento de algum tipo de certificado de emissões negociável. Incluído neste planejamento prévio suficiente está a realização da estimativa ex-ante de emissão de metano para saber previamente qual será o aproveitamento mais indicado e a eventual receita oriunda da queima. Quando analisados os projetos de MDL feitos em aterros sanitários, pode ser notado que estas estimativas são muitas vezes mal feitas, gerando valores estimados muito acima do realmente observado durante a operação. Este erro acarreta uma perda de credibilidade deste tipo de projeto, já que o número esperado é raramente alcançado. Existem alguns fatores que contribuem para esta discrepância de valores, sendo problemas operacionais (como exemplo podem ser citados deficiência no sistema de captura do biogás e problemas na captação e recirculação de lixiviado) e de modelagem (utilização de valores de entrada experimentais obtidos sob situações muito diferentes das encontradas nos aterros brasileiros, por exemplo) os possíveis principais vilões. Este trabalho visa apresentar e discutir os principais problemas na realização de estimativas prévias de emissão de metano em aterros sanitários utilizando projetos brasileiros de MDL registrados e que estejam atualmente emitindo créditos de carbono como base para analisar a qualidade das estimativas feitas atualmente. Além disto, busca-se também entrevistar profissionais da área para tentar obter diferentes pontos de vista sobre esta questão. Fica claro que os valores estimados, de um modo geral, são entre 40 e 50% superiores aos observados. Metade dos especialistas aponta problemas operacionais diversos como os principais contribuintes desta diferença, mas problemas na modelagem parecem influenciar decisivamente na realização das estimativas. A utilização de valores de entrada no modelo precisa ser criteriosamente analisada e devem ser utilizados números obtidos através de pesquisas que representem a realidade do aterro em questão.
Resumo:
A Gestão Pública tem incorporado boas práticas de administração mediante foco no resultado eficiente e na transparência. A utilização de indicadores de desempenho exerce um papel fundamental para espelhar a real situação do órgão e suas possibilidades de melhoria. No caso específico das universidades federais, o Tribunal de Contas da União (TCU) estabeleceu um conjunto de nove indicadores a serem medidos por essas unidades e divulgados através de seus relatórios de gestão. A dificuldade interpretativa advinda de visualizar, simultaneamente, esses critérios avaliativos contidos nesse conjunto e suas interdependências, fomentou a elaboração desta pesquisa. O estudo objetiva analisar e sintetizar o conjunto de indicadores de desempenho, atinentes a 53 universidades federais, referentes aos anos de 2008 a 2010, a fim de identificar um modelo de simplificação para auxiliar os controles interno e externo. A metodologia utilizada é a da Análise Fatorial, uma técnica estatística multivariada de interdependência, e pouco explorada em pesquisas anteriores nessa temática, além de testes de regressão linear e da Análise Envoltória de Dados (DEA), esta já amplamente utilizada na literatura, a fim de possibilitar ratificar as associações e interpretações dos resultados. Os testes mostraram uma aderência satisfatória da técnica aos dados coletados, permitindo identificar dois fatores que pudessem explicar 61,8% do conjunto informacional original. Com ratificação da DEA, esses fatores foram associados ao desempenho e ao custo, e a relação entre os dois foi interpretada como um índice de eficiência. O fator atrelado ao desempenho foi intitulado o indicador sumarizado de todo o conjunto estabelecido pelo TCU, tendo sido encontrado correlação alta e significativa com o Ranking Universitário Folha, mostrando que eles possuem semelhantes poderes discriminantes, mesmo tendo sido oriundos de bases de cálculo distintas. Ademais, destacam-se os seguintes resultados complementares: 1) Embora o custo influencie para o desempenho das universidades federais, ele não é preponderante, mas os indicadores de envolvimento com a pós-graduação e qualificação do corpo docente são os mais relevantes; 2) Os indicadores de resultado não sofrem muita influência do custo, sobretudo o de recursos humanos (funcionários), mostrando que de uma maneira geral há ineficiência na gestão de pessoal das universidades; 3) A utilização da DEA mostrou que a escolha das variáveis realmente pode redundar em resultados distintos e não correlatos significativamente, apresentando uma limitação quanto à certificação dos escores de eficiência obtidos.
Resumo:
No mundo, as hepatites decorrentes de infecções virais têm sido uma das grandes preocupações em saúde pública devido a seu caráter crônico, curso assintomático e pela sua capacidade de determinar a perda da função hepática. Com o uso em larga escala de medicamentos antirretrovirais, a doença hepática relacionada à infecção pelo vírus da hepatite C (VHC) contribuiu para uma mudança radical na história natural da infecção pelo vírus da imunodeficiência humana (HIV). Não se sabe ao certo o peso da coinfecção VHC/HIV no Brasil, mas evidências apontam que independentemente da região geográfica, esses indivíduos apresentam maiores dificuldades em eliminar o VHC após o tratamento farmacológico, quando comparados a monoinfectados. No âmbito do SUS, o tratamento antiviral padrão para portadores do genótipo 1 do VHC e do HIV é a administração de peguinterferon associado à Ribavirina. Quanto ao período de tratamento e aos indivíduos que devem ser incluídos, os dois protocolos terapêuticos mais recentes possuem divergências. A diretriz mais atual preconiza o tratamento de indivíduos respondedores precoces somados a respondedores virológicos lentos, enquanto a diretriz imediatamente anterior exclui na 12 semana indivíduos que não respondem completamente. Com base nessa divergência, esse estudo objetivou avaliar o custo-efetividade do tratamento contra o VHC em indivíduos portadores do genótipo 1, coinfectados com o HIV, virgens de tratamento antiviral, não cirróticos e imunologicamente estabilizados, submetidos às regras de tratamento antiviral estabelecidos pelas duas mais recentes diretrizes terapêuticas direcionadas ao atendimento pelo SUS. Para tal, foi elaborado um modelo matemático de decisão, baseado em cadeias de Markov, que simulou a progressão da doença hepática mediante o tratamento e não tratamento. Foi acompanhada uma coorte hipotética de mil indivíduos homens, maiores de 40 anos. Adotou-se a perspectiva do Sistema Único de Saúde, horizonte temporal de 30 anos e taxa de desconto de 5% para os custos e consequências clínicas. A extensão do tratamento para respondedores lentos proporcionou incremento de 0,28 anos de vida ajustados por qualidade (QALY), de 7% de sobrevida e aumento de 60% no número de indivíduos que eliminaram o VHC. Além dos esperados benefícios em eficácia, a inclusão de respondedores virológicos lentos mostrou-se uma estratégia custo-efetiva ao alcançar um incremental de custo efetividade de R$ 44.171/QALY, valor abaixo do limiar de aceitabilidade proposto pela Organização Mundial da Saúde OMS - (R$ 63.756,00/QALY). A análise de sensibilidade demonstrou que as possíveis incertezas contidas no modelo são incapazes de alterar o resultado final, evidenciando, assim, a robustez da análise. A inclusão de indivíduos coinfectados VHC/HIV respondedores virológicos lentos no protocolo de tratamento apresenta-se, do ponto de vista fármaco-econômico, como uma estratégia com relação de custoefetividade favorável para o Sistema Único de Saúde. Sua adoção é perfeitamente compatível com a perspectiva do sistema, ao retornar melhores resultados em saúdeassociados a custos abaixo de um teto orçamentário aceitável, e com o da sociedade, ao evitar em maior grau, complicações e internações quando comparado à não inclusão.
Resumo:
Trata-se de um estudo de Avaliação Econômica Parcial cujo objeto é os custos diretos do protocolo assistencial da Casa de Parto David Capistrano Filho/RJ. O objetivo geral é realizar analise dos custos diretos assistenciais destinados ao ciclo gravídico puerperal na Casa de Parto David Capistrano Filho (CPDCF), situada no município do Rio de Janeiro. Os objetivos específicos deste estudo são: estimar o tipo e a quantidade dos recursos consumidos na execução do cuidado ao ciclo gravídico puerperal de acordo com o protocolo assistencial da CPDCF; analisar os custos diretos relacionados ao protocolo assistencial da CPDCF; comparar os custos avaliados no período da pesquisa ao orçamento municipal destinado a assistência das gestantes de baixo risco no mesmo período. O método utilizado foi a Avaliação de Economia em Saúde, a perspectiva adotada foi o Sistema Único de Saúde (SUS) como órgão gestor, foram avaliados os prontuário das gestantes que realizaram o pré-natal na CPDCF no ano de 2010, excluindo destes as que não pariram na unidade, computando um total de 161 prontuários. Na análise foi realizada a descrição dos custos diretos envolvidos na assistência ao ciclo gravídico puerperal, para isso, foram relacionados e contados os recursos utilizados, definidos como unidades de custo, para a assistência na CPDCF durante o pré-natal, trabalho de parto/parto e pós-parto, e posteriormente esses recursos foram valorados de acordo com as tabelas do Sistema de Gerência da Tabela de Procedimentos (SIGTAP), Medicamentos, Próteses e Materiais Especiais do Sistema Único de Saúde/Ministério da Saúde do Banco de Preços em Saúde (BPS) e da Secretaria Municipal de Saúde Defesa Civil/Rio de Janeiro (SMSDC/RJ). Os resultados apontaram que o custo do pré-natal por gestante foi de R$ 271,91, com prevalência de custos para os exames realizados no pré-natal. Em relação ao trabalho de parto e parto, os custos foram de R$ 352,50 por gestante, neste item os maiores custos foram com os recursos humanos. A pesquisa demonstrou que a CPDCF apresentou menor valor que o orçamento municipal destinado para o parto de acordo com a tabela do SIGTAP (R$ 443,40 a R$ 475,16). Apesar desses dados, e de acordo com o relato das diretoras, a CPDCF é ociosa, e esta influência pode ser negativa para os custos do parto. Em relação ao pós-parto foi avaliado o custo por binômio com uma média de custo de R$ 269,94, os maiores custos de pós-parto foram com os recursos humanos. O custo geral da assistência na CPDCF foi de R$ 894,36 por gestante, desse valor, 39,42% correspondeu aos custos com o parto, 30,40% correspondeu ao custo com o pré-natal e 30,18% com a assistência pós-natal. Para afirmar a eficiência e eficácia das ações na CPDCF, é preciso a realização de uma avaliação de economia em saúde completa; o trabalho de parto/parto foram os que mais representaram os custos; o custo do parto é menor que o valor orçado para o parto de baixo risco, mas medidas de ação sobre a ociosidade são necessárias, pois esta pode influenciar nos custos do parto.
Resumo:
O estudo tem como objetivo geral avaliar a razão de custo-utilidade do tratamento da infecção pelo vírus da hepatite C (VHC) em pacientes dialisados, candidatos a transplante renal, tendo como esquemas terapêuticos alternativos o interferon-_ em monoterapia; o interferon peguilado em monoterapia; o interferon-_ em terapia combinada com ribavirina e o interferon peguilado em terapia combinada com ribavirina, comparando-os com o nãotratamento. A perspectiva do estudo foi a do Sistema Único de Saúde(SUS), que também serviu de base para estimar o impacto orçamentário da estratégia de tratamento mais custo efetiva. Para o alcance dos objetivos, foi construído um modelo de Makov para simulação de custos e resultados de cada estratégia avaliada. Para subsidiar o modelo, foi realizada uma revisão de literatura, a fim de definir os estados de saúde relacionados à infecção pelo vírus da hepatite C em transplantados e a probabilidade de transição entre os estados. Medidas de utilidade foram derivadas de consultas a especialistas. Os custos foram derivados da tabela de procedimentos do SUS. Os resultados do estudo demonstraram que o tratamento da infecção pelo VHC antes do transplante renal é mais custo-efetivo que o não tratamento, apontando o interferon-a como a melhor opção. O impacto orçamentário para adoção dessa estratégia pelo SUS corresponde a 0,3% do valor despendido pelo SUS com terapia renal substitutiva ao longo do ano de 2007.
Resumo:
Streptococcus pneumoniae é um importante agente etiológico de infecções invasivas e não invasivas, incluindo meningite, pneumonia e otite média. A cápsula polissacarídica é o principal fator de virulência desse microrganismo, sendo também considerada um importante marcador em estudos epidemiológicos. Dentre os mais de 90 tipos capsulares conhecidos, o sorotipo 14 se destaca pela prevalência elevada em várias regiões, inclusive no Brasil. A avaliação da diversidade genética desse microrganismo também inclui a aplicação de métodos moleculares, como PFGE e MLST. Entretanto, essas metodologias são relativamente onerosas, consomem muito tempo e os resultados obtidos com a técnica de PFGE são de difícil comparação entre diferentes laboratórios. A técnica de análise do polimorfismo numérico de segmentos repetitivos em múltiplos loci [MLVA, do inglês Multiple Loci VTNR (Variable-Number Tandem Repeat) Analysis] se apresenta como uma alternativa, embora ainda necessite de padronização e avaliação mais ampla para a espécie em questão. No presente estudo, 60 amostras de Streptococcus pneumoniae pertencentes ao sorotipo 14, isoladas de diversas fontes clínicas, em diferentes locais e períodos de tempo, foram caracterizadas pelas técnicas de MLVA (baseada na análise de 18 loci distintos), MLST, PFGE e tipagem do gene pspA. O gene pspA2 predominou entre as amostras analisadas, seguido pelo gene pspA1. Os tipos de MLVA, perfis de PFGE, e STs encontrados apresentaram resultados, em geral, concordantes, indicando o elevado poder discriminatório da versão da técnica de MLVA empregada. Cinco complexos clonais (CC) de MLVA e cinco singletons puderam ser definidos. O CC de MLVA denominado de L7 foi o predominante, compreendendo 36,7% da amostragem estudada. O CC L7 mostrou-se relacionado com genes pspA da família 2, com o CC1 de MLST, com o CC Pen14-H de PFGE, e com a não susceptibilidade à penicilina, Entre os complexos clonais de MLST, o CC1 foi o prevalente e incluiu predominantemente o ST156, pertencente ao clone internacional Spain9V-3. O CC L3 e o singleton L17 de MLVA apresentaram-se associados ao CC de PFGE Eri14-A, a família 1 de PspA e ao CC2 de MLST, que por sua vez também estava relacionado com o clone internacional England14-9. O CC L15 de MLVA esteve associado ao CC de PFGE Pen14-A, ao gene pspA2, aos CC3 e CC4 de MLST e ao clone internacional do PMEN Tennessee14-18. A técnica de MLVA revelou-se significativamente mais discriminatória que as técnicas de PFGE e MLST, conforme exemplificado pela detecção de 21 perfis de MLVA, 13 perfis de PFGE e cinco STs, entre as 22 amostras pertencentes ao CC de MLVA L7. Uma versão de MLVA, compreendendo um painel com os oito loci de maior poder discriminatório, pôde ser proposta a partir da análise dos resultados obtidos. Estes aspectos, aliados ao menor tempo e custo de execução, indicam que a técnica de MLVA constitui uma alternativa importante e satisfatória para uso em estudos sobre a diversidade genética de S. pneumoniae.
Resumo:
Este trabalho procurou analisar o sistema produtivo da atividade leiteira em Minas Gerais, identificando a capacidade dos produtores em permanecer no negócio, a longo prazo, através da estimação da função custo translogarítmica. O estudo demonstrou que os produtores analisados ainda praticam altos custos por unidade produzida, sugerindo baixa eficiência dos estabelecimentos e falhas na administração do empreendimento. Os resultados econométricos revelam a possibilidade de ganhos de escala, no que se refere à alocação e melhor aproveitamento dos recursos, ou seja, as propriedades apresentam economias de escala. No entanto, retornos crescentes de escala não são compatíveis com a existência de mercados competitivos, sinalizando que os produtores enfrentam restrições geradas pelas imperfeições de mercado. O conhecimento dessas imperfeições é essencial à formulação de políticas econômicas e de organizações privadas que visem ao desenvolvimento econômico deste mercado, que atualmente é o sexto maior do mundo. Além disso, os resultados das elasticidades mostram que o produtor é mais sensível às variações de preços na mão-de-obra do que às variações nos demais fatores, reduzindo em maior proporção o uso do trabalho na produção, à medida que seu preço aumenta. Isto evidencia a principal característica regional da produção leiteira no país, que é o uso intensivo do fator trabalho. Também foi identificado que o os medicamentos, alimentos e energia, denominados no estudo de fator dispêndio, são os mais difíceis é o mais difícil de serem substituídos na produção, devido às particularidades no uso dos componentes deste insumo. Por fim, os valores positivos encontrados para as elasticidades parciais de substituição de Allen confirmam a substitutibilidade entre os fatores.
Resumo:
Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.
Resumo:
Desde o início do século XX, a poluição do ar nos grandes centros piorou em consequência processo de industrialização e urbanização, juntamente com o rápido crescimento populacional e do transporte motorizado. Algumas espécies de plantas absorvem os poluentes atmosféricos pelas suas folhas e então, fixa-os em sua matriz, tornando-se assim um biomonitor de poluição nessa área. Assim, a análise foliar dessas espécies de vegetal pode ser usado como monitoramento ambiental. Uma das plantas que tem a habilidade de reter certos elementos químicos do ambiente e pode ser usada como biomonitor é a Nerium oleander L.. Neste estudo utilizou-se folhas de Nerium oleander L. para avaliar os níveis de poluição ambiental em uma sub-região da Região Metropolitana do Rio de Janeiro através da Fluorescência de Raios X (EDXRF). O sistema de EDXRF foi desenvolvido no próprio laboratório e consiste de um sistema portátil de XRF formado por um mini tubo raio X de baixa potência (anodo de Ag e operação em 20 kV/50 μA) e um detector de SiPIN. As amostras de Nerium oleander L. foram coletadas de plantas adultas. As amostras foram coletadas durante as quatros estações do ano (verão, outono, inverno e primavera). Todas as folhas foram coletadas a uma distância superior de 1,5 m em relação ao solo. As amostras foram acondicionadas em sacos plásticos e depois da chegada ao laboratório foram colocados sob refrigeração a 5 C. No laboratório, as amostras foram limpas com um pincel com cerdas macias para retirar a poeira. Depois disso, as amostras foram colocadas na estufa a 60 C por 48 h. Em seguida, as amostras foram pulverizadas (44 μm). Depois desse processo, alíquotas de 500 mg de massa foram prensadas a uma pressão de 2.32×108 por cerca de 15 minutos, afim de se obter pastilhas finas com diâmetro de 2,54 cm e densidade superficial de 100 mg/cm2. Foi possível detectar a concentração de 13 elementos: S, Cl, K, Ca, Mn, Fe, Cu, Zn, Br, Rb, Sr, Ba e Pb. A partir da concentração de cada elemento foram obtidos os mapas de distribuição elementar da área de estudo para cada estação. A análise da correlação de Pearson mostrou que existe uma correlação significativa entre os elementos Fe, Zn, Ba e Pb, entre os elementos Ca e Sr e entre os elementos Cl, K, Rb. A análise do PCA (Análise por Componentes Principais) mostrou que existem dois fatores principais da emissão de poluição ambiental: emissão por ressuspensão do solo (Cl, K, Ca, Mn, Rb e Sr) e emissões veiculares e industriais (Fe, Zn, Ba e Pb). O estudo da poluição ambiental através da técnica de EDXRF utilizando folhas de Nerium oleander L. como biomonitor se mostrou uma técnica de baixo custo e eficiência substancial na determinação da concentração elementar dos poluentes atmosféricos.
Resumo:
Este trabalho apresenta o estudo comparativo do desempenho de três topologias de conversores do sistema monofásico para o sistema trifásico com número reduzido de componentes, para o acionamento de um motor de indução do tipo rotor gaiola de esquilo. O funcionamento de cada topologia é descrito e simulado digitalmente. O desempenho desses conversores é avaliado em diferentes modos de operação, com sequência de fase positiva ou negativa, com ênfase na qualidade de energia em termos de redução da distorção harmônica total e da melhoria do fator de potência na fonte. Com vistas à redução de custos, foi desenvolvido um protótipo experimental baseado no uso de módulo integrado de chaves semicondutoras de potência e de um microcontrolador de baixo custo. Os resultados experimentais se equiparam aos resultados obtidos por simulação.
Resumo:
A integridade de dutos ganha importância à medida em que o desenvolvimento da indústria expande a malha para transportar líquidos e gases num contexto de aumento das exigências ambientais. Um importante aliado para manutenção da integridade de dutos são reparos de materiais compósitos. Estes materiais apresentam baixa densidade, capacidade de direcionar resistência de acordo com as direções das solicitações, execução de reparo a frio sem necessidade de interromper produção ou grande maquinário. Este trabalho tem como objetivo desenvolver e implementar um algoritmo de elementos finitos que permita avaliar os esforços e a resistência das paredes de um tubos fabricados ou reparados com laminados de material compósito carregados com pressão interna. Entre as vantagens de desenvolver um programa tem-se: agilidade de avaliação, menor custo com licença, menores exigências computacionais, possibilidade de desenvolver o programa e o melhor entendimento da modelagem dos fenômenos. Utiliza-se como entrada do programa o diâmetro do duto, pressão interna e parâmetros do laminado. A modelagem em elementos finitos é realizada a partir da teoria clássica de laminados. Aplicando o carregamento resultante da pressão interna, determina-se os deslocamentos e são calculadas as tensões e aplicado o critério de falha de Tsai-Hill em cada camada. Estudos experimentais e numéricos encontrados na literatura foram simulados com o programa gerado e os resultados para propriedades do laminado, tensões nos dutos e pressão de ruptura apresentam concordância com os resultados da literatura.O programa ainda tem sua estrutura modificada para encontrar a pressão de falha a partir dos dados do laminado. O programa implementado permite uma avaliação rápida de resistência do reparo e possibilita avaliar rapidamente a resposta a mudanças nos parâmetros de projeto do laminado.
Resumo:
Os profissionais da área da saúde formam um dos grupos mais vulneráveis à infecção pelo Mycobacterium tuberculosis (Mtb). Segundo estimativas da Organização Mundial de Saúde (OMS), 8,8 milhões de pessoas estavam infectadas pelo Mtb e ocorreram 1,4 milhão de óbitos por tuberculose (TB) em 2010. A identificação de pessoas com Infecção Latente Tuberculosa (ILTB) é considerada pela OMS como uma prioridade no controle da doença, especialmente em países em desenvolvimento em que a incidência da doença ativa tem apresentado redução. O objetivo do presente trabalho foi avaliar, no Brasil, o custo-efetividade dos testes Prova Tuberculínica (PT) e Quantiferon TB Gold-In-Tube (QTF-GIT) no diagnóstico e tratamento da ILTB em profissionais de saúde atuantes na atenção básica, sob a perspectiva do Sistema Único de Saúde (SUS), comparando cinco estratégias que incluem o QTF-GIT, distintos pontos de corte para a PT e uso sequencial dos dois testes; e analisar o impacto do tabagismo sobre o risco de ILTB entre os profissionais de saúde, destacando-se a categoria da Enfermagem. Foi realizada uma avaliação econômica completa do tipo custo-efetividade, conduzida considerando uma coorte hipotética de 10.000 profissionais de saúde atuantes na atenção básica, com horizonte temporal restrito a um ano. Um modelo analítico de decisão, caracterizado por uma árvore de probabilidades de eventos, foi desenvolvido utilizando o software TreeAge ProTM 2013 para simular os resultados clínicos e impactos econômicos em saúde da nova tecnologia diagnóstica (QTF-GIT) versus a PT tradicional. Esse modelo simulou cinco estratégias diagnósticas para detecção e tratamento da ILTB: (a) PT, usando ponto de corte de 5mm; (b) PT, usando ponto de corte de 10 mm; (c) teste QTF-GIT; (d) PT, com ponto de corte de 5mm, seguida de teste QTF-GIT quando PT positiva; (e) PT, com ponto de corte de 10mm, seguida de teste QTF-GIT quando PT positiva. Foi realizada análise de sensibilidade determinística univariada. Na determinação dos fatores associados à ILTB, foi elaborado um modelo de regressão logística múltipla com seleção hierarquizada, utilizando o software Stata. A estratégia mais custo-efetiva foi a PT no ponto de corte ≥10mm, considerando como medida de desfecho tanto o número de indivíduos corretamente classificados pelos testes assim como o número de casos de TB evitados. A utilização isolada do QTF-GIT revelou-se a estratégia de menor eficiência, com RCEI= R$ 343,24 por profissional corretamente classificado pelo teste. Encontrou-se risco à ILTB significantemente maior para sexo masculino [OR=1,89; IC 95%:1,11-3,20], idade ≥ 41 anos [OR=1,56; IC 95%: 1.09-2,22], contato próximo com familiar com TB [OR=1,55; IC 95%: 1.02-2,36], status do tabagismo fumante [OR=1,75; IC 95%: 1.03-2,98] e categoria profissional da Enfermagem [OR=1,44; IC 95%: 1.02-2,03]. Concluiu-se que a PT no ponto de corte de 10mm é a estratégia diagnóstica mais custo-efetiva para ILTB entre os profissionais de saúde na atenção básica e que a ILTB está associada ao hábito do tabagismo e à categoria profissional de Enfermagem.
Resumo:
As ações de prevenção, diagnóstico e tratamento da hepatite C crônica integram as agendas das políticas de saúde do Brasil e do mundo, pois se trata de uma doença com grande número de acometidos, com alto custo tratamento e que ocasiona graves desfechos e incapacidade, o que acaba por onerar seu custo social. Os protocolos clínicos e diretrizes terapêuticas demonstram os esforços de inúmeras entidades no combate da hepatite C, pois informam aos profissionais de saúde, pacientes e familiares e cidadãos em geral, qual seria a melhor forma, comprovada cientificamente, de se proceder frente a uma infecção desta natureza. Realizouse uma análise de custoefetividade, sob a perspectiva do SUS, das estratégias: tratamento e retratamento com a terapia dupla, tratamento com a terapia dupla e retratamento com a terapia tripla e tratamento com a terapia tripla. Através de modelo de simulação baseado em cadeias Markov foi criada uma coorte hipotética de 1000 indivíduos adultos, acima de 40 anos, de ambos os sexos, sem distinção declasse socioeconômica, com diagnóstico confirmado para hepatite C crônica, monoinfectados pelo genótipo 1 do VHC e com ausência de comorbidades. A simulação foi iniciada com todos os indivíduos portando a forma mais branda da doença, tida como a classificação histológica F0 ou F1 segundo a escala Metavir. Os resultados demonstram que as duas opções, ou seja, a terapia dupla/tripla e a terapia tripla estão abaixo do limiar de aceitabilidade para incorporação de tecnologia proposto pela OMS (2012) que é de 72.195 (R$/QALY) (IBGE, 2013; WHO, 2012). Ambas são custoefetivas, visto que o ICER da terapia dupla/tripla em relação alinha de base foi de 7.186,3 (R$/QALY) e o da terapia tripla foi de 59.053,8 (R$/QALY). Entretanto o custo incremental de terapia tripla em relação à dupla/tripla foi de 31.029 e a efetividade incremental foi de 0,52. Em geral, quando as intervenções analisadas encontramse abaixo do limiar, sugerese a adoção do esquema de maior efetividade. A terapia tripla, apesar de ter apresentado uma efetividade um pouco acima da terapia dupla/tripla, apresentou custo muito superior. Assim, como seria coerente a adoção de uma ou da outra para utilização no SUS, visto que este sistema apresenta recursos limitados, indicase a realização de um estudo de impacto orçamentário para obterse mais um dado de embasamento da decisão e assim poder apoiar o protocolo brasileiro existente ou sugerir a confecção de novo documento.
Resumo:
O presente trabalho tem como objetivo caracterizar o sistema de produção de gado de corte predominante no Estado de Goiás. Em fase posterior, tendo como referência esse sistema, será proposto um sistema alternativo melhorado. As informações para caracterizar o sistema predominante (modal) foram levantadas por meio de um painel do tipo mesa-redonda que reuniu pecuaristas, técnicos e pesquisadores em Goiânia, GO, em julho de 2005 (Anexo 1). Em um processo de aproximações até se chegar ao consenso, definiram-se a estrutura de recursos e os coeficientes técnicos do sistema de produção modal. Com base nesses dados foram calculados indicadores de desempenho físico e econômico, destacando-se o custo de produção.