13 resultados para ROBUSTNESS

em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese inclui dois artigos que tiveram por objetivo investigar a relação de estresse no ambiente de trabalho com a prevalência de transtornos mentais comuns (TMC) e a relação de ambos com os níveis de prática de atividade física em militares do Exército Brasileiro. No primeiro artigo, a variável dependente foi TMC e a primeira variável independente foi o estresse no ambiente de trabalho, avaliado sob o modelo esforço-recompensa em desequilíbrio (effort-reward imbalance: ERI). TMC foram avaliados por meio do General Health Questionnaire (GHQ-12). Foram estimadas razões de prevalência (RP) por regressão de Poisson para imprimir robustez aos intervalos de confiança (95%). A prevalência de TMC foi de 33,2% (IC95%:29,1;37,3). O estudo mostrou, após ajuste por idade, educação, renda, estilo de vida, autopercepção de saúde, agravos à saúde autorreferidos e características ocupacionais, que estresse no ambiente de trabalho estava forte e independentemente associado a TMC, exibindo razões de prevalências (RP) que variaram entre os níveis de estresse, oscilando de 1,60 a 2,01. O posto de tenente estava associado a TMC, mesmo após ajuste pelas covariáveis (RP = 2,06; IC95% 1,2 4,1). Os resultados indicaram que excesso de comprometimento é um componente importante do estresse no trabalho. Estes achados foram consistentes com a literatura e contribuem com o conhecimento sobre o estado de saúde mental dos militares das Forças Armadas no Brasil, destacando que o estresse no ambiente de trabalho e que o desempenho das funções ocupacionais, do posto de Tenente, podem significar risco maior para TMC nesse tipo de população. O segundo artigo teve por objetivo investigar a associação de estresse no ambiente de trabalho e TMC com a prática de atividade física habitual entre militares das Forças Armadas. A atividade física (variável dependente) foi estimada por meio do Questionário de Baecke, um dos instrumentos mais utilizados em estudos epidemiológicos sobre atividade física. Estresse no ambiente de trabalho, TMC e posto foram as variáveis independentes, avaliadas conforme descrição mencionada acima. Buscou-se avaliar a associação destas variáveis e com a prática de atividade física no pessoal militar. Para tanto, utilizou-se o método de regressão linear múltipla, via modelos lineares generalizados. Após controlar por características socioeconomicas e demográficas, estresse no ambiente de trabalho, caracterizado por "altos esforços e baixa recompensas", permaneceu associado a mais atividade física ocupacional (b = 0,224 IC95% 0,098; 0,351) e a menos atividade física no lazer (b = -0,198; IC95% -0,384; -0,011). TMC permaneceram associados a menores níveis de atividade física nos esportes/exercícios no lazer (b = -0,184; IC95% -0,321; -0,046). Posto permaneceu associado a maiores níveis de atividade física ocupacional (b = 0,324 IC95% 0,167; 0,481). Até onde se sabe, este foi o primeiro estudo a avaliar a relação de aspectos psicossociais e ocupacionais envolvidos na prática de atividade física em militares no Brasil e no exterior. Os resultados sugerem que o ambiente de trabalho e a saúde mental estão associados à prática de atividade física de militares, que se relaciona com a condição de aptidão física.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o problema de escalonamento da produção em oficina de máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa- dia das indústrias de transformação de vários segmento e, uma vez que a otimização do escalonamento pode gerar uma redução significativa no tempo de produção e, consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos, contudo esta convergência é frequentemente interrompida por processos cíclicos e a performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros. A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um grande esforço computacional, sendo que sua performance também apresenta uma grande sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base, buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho, em um primeiro momento, são apresentados três modelos de hibridização baseados no esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método Busca Tabu é utilizado como operador de exploração local e operadores de mutação são utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos do método Busca Tabu, produzindo assim melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No mundo, as hepatites decorrentes de infecções virais têm sido uma das grandes preocupações em saúde pública devido a seu caráter crônico, curso assintomático e pela sua capacidade de determinar a perda da função hepática. Com o uso em larga escala de medicamentos antirretrovirais, a doença hepática relacionada à infecção pelo vírus da hepatite C (VHC) contribuiu para uma mudança radical na história natural da infecção pelo vírus da imunodeficiência humana (HIV). Não se sabe ao certo o peso da coinfecção VHC/HIV no Brasil, mas evidências apontam que independentemente da região geográfica, esses indivíduos apresentam maiores dificuldades em eliminar o VHC após o tratamento farmacológico, quando comparados a monoinfectados. No âmbito do SUS, o tratamento antiviral padrão para portadores do genótipo 1 do VHC e do HIV é a administração de peguinterferon associado à Ribavirina. Quanto ao período de tratamento e aos indivíduos que devem ser incluídos, os dois protocolos terapêuticos mais recentes possuem divergências. A diretriz mais atual preconiza o tratamento de indivíduos respondedores precoces somados a respondedores virológicos lentos, enquanto a diretriz imediatamente anterior exclui na 12 semana indivíduos que não respondem completamente. Com base nessa divergência, esse estudo objetivou avaliar o custo-efetividade do tratamento contra o VHC em indivíduos portadores do genótipo 1, coinfectados com o HIV, virgens de tratamento antiviral, não cirróticos e imunologicamente estabilizados, submetidos às regras de tratamento antiviral estabelecidos pelas duas mais recentes diretrizes terapêuticas direcionadas ao atendimento pelo SUS. Para tal, foi elaborado um modelo matemático de decisão, baseado em cadeias de Markov, que simulou a progressão da doença hepática mediante o tratamento e não tratamento. Foi acompanhada uma coorte hipotética de mil indivíduos homens, maiores de 40 anos. Adotou-se a perspectiva do Sistema Único de Saúde, horizonte temporal de 30 anos e taxa de desconto de 5% para os custos e consequências clínicas. A extensão do tratamento para respondedores lentos proporcionou incremento de 0,28 anos de vida ajustados por qualidade (QALY), de 7% de sobrevida e aumento de 60% no número de indivíduos que eliminaram o VHC. Além dos esperados benefícios em eficácia, a inclusão de respondedores virológicos lentos mostrou-se uma estratégia custo-efetiva ao alcançar um incremental de custo efetividade de R$ 44.171/QALY, valor abaixo do limiar de aceitabilidade proposto pela Organização Mundial da Saúde OMS - (R$ 63.756,00/QALY). A análise de sensibilidade demonstrou que as possíveis incertezas contidas no modelo são incapazes de alterar o resultado final, evidenciando, assim, a robustez da análise. A inclusão de indivíduos coinfectados VHC/HIV respondedores virológicos lentos no protocolo de tratamento apresenta-se, do ponto de vista fármaco-econômico, como uma estratégia com relação de custoefetividade favorável para o Sistema Único de Saúde. Sua adoção é perfeitamente compatível com a perspectiva do sistema, ao retornar melhores resultados em saúdeassociados a custos abaixo de um teto orçamentário aceitável, e com o da sociedade, ao evitar em maior grau, complicações e internações quando comparado à não inclusão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado um simulador MATLAB para sistemas ópticos WDM amplificados baseado na solução das equações não lineares de Schrödinger acopladas, pelo método de Fourier de passo alternado. Este simulador permite o estudo da propagação de pulsos em fibras ópticas, considerando dispersão cromática, efeitos não lineares como automodulação de fase e modulação de fase cruzada e atenuação, prevendo também o emprego de amplificadores ópticos a fibra dopada com Érbio (EDFAs). Através de simulações numéricas, foi explorada a técnica de otimização do posicionamento de um EDFA ao longo de um enlace óptico, sem repetidores, que objetiva a redução dos custos de implantação de sistemas ópticos, seja pela diminuição da potência do transmissor ou pela relaxação da exigência de sensibilidade do receptor. Além disto, pode favorecer um aumento na capacidade do sistema, através do aumento do alcance ou da taxa de transmissão. A concordância dos resultados obtidos com os disponíveis na literatura confirmam a validade da técnica, bem como a versatilidade e robustez do simulador desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado o desenvolvimento de um sistema de posicionamento dinâmico para uma pequena embarcação baseado em controle a estrutura variável com realimentação por visão computacional. Foram investigadas, na literatura, diversas técnicas desenvolvidas e escolheu-se o controle a estrutura variável devido, principalmente, ao modo de acionamento dos propulsores presentes no barco utilizado para os experimentos. Somando-se a isto, foi considerada importante a robustez que a técnica de controle escolhida apresenta, pois o modelo utilizado conta com incerteza em sua dinâmica. É apresentado ainda o projeto da superfície de deslizamento para realizar o controle a estrutura variável. Como instrumento de medição optou-se por utilizar técnicas de visão computacional em imagens capturadas a partir de uma webcam. A escolha por este tipo de sistema deve-se a alta precisão das medições aliada ao seu baixo custo. São apresentadas simulações e experimentos com controle a estrutura variável em tempo discreto utilizando a integral do erro da posição visando eliminar o erro em regime. Para realizar o controle que demanda o estado completo, são comparados quatro estimadores de estado realizados em tempo discreto: derivador aproximado; observador assintótico com uma frequência de amostragem igual a da câmera; observador assintótico com uma frequência de amostragem maior que a da câmera; e filtro de Kalman.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os profissionais da área da saúde formam um dos grupos mais vulneráveis à infecção pelo Mycobacterium tuberculosis (Mtb). Segundo estimativas da Organização Mundial de Saúde (OMS), 8,8 milhões de pessoas estavam infectadas pelo Mtb e ocorreram 1,4 milhão de óbitos por tuberculose (TB) em 2010. A identificação de pessoas com Infecção Latente Tuberculosa (ILTB) é considerada pela OMS como uma prioridade no controle da doença, especialmente em países em desenvolvimento em que a incidência da doença ativa tem apresentado redução. O objetivo do presente trabalho foi avaliar, no Brasil, o custo-efetividade dos testes Prova Tuberculínica (PT) e Quantiferon TB Gold-In-Tube (QTF-GIT) no diagnóstico e tratamento da ILTB em profissionais de saúde atuantes na atenção básica, sob a perspectiva do Sistema Único de Saúde (SUS), comparando cinco estratégias que incluem o QTF-GIT, distintos pontos de corte para a PT e uso sequencial dos dois testes; e analisar o impacto do tabagismo sobre o risco de ILTB entre os profissionais de saúde, destacando-se a categoria da Enfermagem. Foi realizada uma avaliação econômica completa do tipo custo-efetividade, conduzida considerando uma coorte hipotética de 10.000 profissionais de saúde atuantes na atenção básica, com horizonte temporal restrito a um ano. Um modelo analítico de decisão, caracterizado por uma árvore de probabilidades de eventos, foi desenvolvido utilizando o software TreeAge ProTM 2013 para simular os resultados clínicos e impactos econômicos em saúde da nova tecnologia diagnóstica (QTF-GIT) versus a PT tradicional. Esse modelo simulou cinco estratégias diagnósticas para detecção e tratamento da ILTB: (a) PT, usando ponto de corte de 5mm; (b) PT, usando ponto de corte de 10 mm; (c) teste QTF-GIT; (d) PT, com ponto de corte de 5mm, seguida de teste QTF-GIT quando PT positiva; (e) PT, com ponto de corte de 10mm, seguida de teste QTF-GIT quando PT positiva. Foi realizada análise de sensibilidade determinística univariada. Na determinação dos fatores associados à ILTB, foi elaborado um modelo de regressão logística múltipla com seleção hierarquizada, utilizando o software Stata. A estratégia mais custo-efetiva foi a PT no ponto de corte ≥10mm, considerando como medida de desfecho tanto o número de indivíduos corretamente classificados pelos testes assim como o número de casos de TB evitados. A utilização isolada do QTF-GIT revelou-se a estratégia de menor eficiência, com RCEI= R$ 343,24 por profissional corretamente classificado pelo teste. Encontrou-se risco à ILTB significantemente maior para sexo masculino [OR=1,89; IC 95%:1,11-3,20], idade ≥ 41 anos [OR=1,56; IC 95%: 1.09-2,22], contato próximo com familiar com TB [OR=1,55; IC 95%: 1.02-2,36], status do tabagismo fumante [OR=1,75; IC 95%: 1.03-2,98] e categoria profissional da Enfermagem [OR=1,44; IC 95%: 1.02-2,03]. Concluiu-se que a PT no ponto de corte de 10mm é a estratégia diagnóstica mais custo-efetiva para ILTB entre os profissionais de saúde na atenção básica e que a ILTB está associada ao hábito do tabagismo e à categoria profissional de Enfermagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoje em dia, distribuições de grandes volumes de dados por redes TCP/IP corporativas trazem problemas como a alta utilização da rede e de servidores, longos períodos para conclusão e maior sensibilidade a falhas na infraestrutura de rede. Estes problemas podem ser reduzidos com utilização de redes par-a-par (P2P). O objetivo desta dissertação é analisar o desempenho do protocolo BitTorrent padrão em redes corporativas e também realizar a análise após uma modificação no comportamento padrão do protocolo BitTorrent. Nesta modificação, o rastreador identifica o endereço IP do par que está solicitando a lista de endereços IP do enxame e envia somente aqueles pertencentes à mesma rede local e ao semeador original, com o objetivo de reduzir o tráfego em redes de longa distância. Em cenários corporativos típicos, as simulações mostraram que a alteração é capaz de reduzir o consumo médio de banda e o tempo médio dos downloads, quando comparados ao BitTorrent padrão, além de conferir maior robustez à distribuição em casos de falhas em enlaces de longa distância. As simulações mostraram também que em ambientes mais complexos, com muitos clientes, e onde a restrição de banda em enlaces de longa distância provoca congestionamento e descartes, o desempenho do protocolo BitTorrent padrão pode ser semelhante a uma distribuição em arquitetura cliente-servidor. Neste último caso, a modificação proposta mostrou resultados consistentes de melhoria do desempenho da distribuição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho objetiva a construção de estruturas robustas e computacionalmente eficientes para a solução do problema de deposição de parafinas do ponto de vista do equilíbrio sólido-líquido. São avaliados diversos modelos termodinâmicos para a fase líquida: equação de estado de Peng-Robinson e os modelos de coeficiente de atividade de Solução Ideal, Wilson, UNIQUAC e UNIFAC. A fase sólida é caracterizada pelo modelo Multisólido. A previsão de formação de fase sólida é inicialmente prevista por um teste de estabilidade termodinâmica. Posteriormente, o sistema de equações não lineares que caracteriza o equilíbrio termodinâmico e as equações de balanço material é resolvido por três abordagens numéricas: método de Newton multivariável, método de Broyden e método Newton-Armijo. Diversos experimentos numéricos foram conduzidos de modo a avaliar os tempos de computação e a robustez frente a diversos cenários de estimativas iniciais dos métodos numéricos para os diferentes modelos e diferentes misturas. Os resultados indicam para a possibilidade de construção de arcabouços computacionais eficientes e robustos, que podem ser empregados acoplados a simuladores de escoamento em dutos, por exemplo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Haemophilus influenzae tipo b (Hib) é a principal causa de pneumonia bacteriana e meningite em crianças com menos de 5 anos de idade. A doença pode ser prevenida através da vacinação com uma vacina conjugada polissacarídeo-proteína, uma vez que a vacina de polissacarídeo não é eficaz. Desde 1999, o Ministério da Saúde incluiu a vacina conjugada Hib na rotina do calendário de imunização para crianças rotineiramente. Sendo este um processo de grande importância para as pessoas e demanda de produção significativa para o governo brasileiro, é necessário que os processos estejam de acordo com as normas nacionais e internacionais de regulamentação e devem ser validados. Uma operação validada assegura a produção de lotes uniformes que atendem as especificações exigidas, consequentemente, garantindo ao fabricante a capacidade de proporcionar um produto de qualidade. O trabalho propõe o desenvolvimento de uma metodologia que evidencie e garanta o processo de produção de um conjugado de polissacarídeo-proteína pelo método de conjugação química e que será produzido de forma consistente e de acordo com as suas especificações pré-definidas. Os atributos de qualidade garantem o não desabastecimento da vacina Haemophilus influenzae tipo b por desvios de processo, o que contribui com aumento do valor agregado ao produto em questão. Portanto, a metodologia de validação foi aplicada ao estudo de validação. O estudo baseou-se em três etapas. A primeira foi baseada em análise de parâmetros do processo de conjugação química para mapear e estabelecer intervalos críticos de controle quanto a estes parâmetros, a segunda fase foi realizada com a produção de três lotes consecutivos, em escala industrial, com monitorização regular dos parâmetros críticos mapeados anteriormente. A fase final consistiu em amostras recolhidas, em tempo pré-determinado, durante o processo de produção e de controle do produto final em tamanho 50% a mais que na rotina de produção. Estas amostras foram analisadas utilizando os métodos de análise que foram anteriormente validados, a fim de garantir a reprodutibilidade dos resultados. A robustez do processo foi assegurada uma vez que todos os parâmetros do processo avaliados apresentaram resultados dentro do padrão de conformidade com os resultados de controle determinados durante o processo, e no produto final para a população de amostragem dentro de especificações definidas pelas metodologias analíticas validadas garantindo os resultados. O trabalho proposto assegura status de processo validado para o conjugado polissacarídeo-proteína com excepcionais rendimentos obtidos, combinado com características químicas bem definidas