168 resultados para Radiologia - Controle de custo
Resumo:
A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.
Resumo:
Esta pesquisa propõe um modelo de planejamento e controle da segurança no trabalho (PCS), o qual pode ser integrado a sistemas existentes de planejamento e controle da produção (PCP). Ambos processos (PCP e PCS) devem atender a quatro requisitos mínimos: hierarquização da tomada de decisão, continuidade, visão sistêmica e participação dos diferentes intervenientes no empreendimento. O modelo foi desenvolvido empiricamente, em três etapas. Inicialmente, por meio de um estudo de caso exploratório, as principais funções do modelo foram identificadas e algumas de suas ferramentas operacionais foram testadas. A seguir, foram conduzidos dois estudos empíricos, utilizando pesquisa-ação, em canteiros de obras industriais. Com base nos resultados destes estudos foi proposta a versão [mal do modelo de PCS, assim como foram estabelecidos requisitos que uma empresa deve atender para implementar o mesmo. Ainda foram identificadas oportunidades de aperfeiçoamento do modelo, a partir de um levantamento de boas práticas de PCS adotadas por um conjunto de sete empresas líderes na área, no Brasil e nos Estados Unidos. O modelo propõe que a segurança seja integrada ao PCP em três níveis hierárquicos deste processo. No nível de longo prazo, o planejamento da segurança é configurado pelo desenvolvimentode análises preliminaresde riscos (APR) dos processos construtivos. A atualização e detalhamento da implantação destes planos é então feita por meio de sua integração aos níveis de médio e curto prazo do PCP. Dois elementos do modelo devem ser enfatizados: o indicador PPS (Percentual de Pacotes de Trabalho Seguros), o qual permite um detalhado e sistemático controle do desempenho em segurança; e o ciclo participativo para identificação e controle de riscos, um método para identificar e controlar riscos com base nas percepções dos trabalhadores.
Resumo:
Este estudo identifica a relação entre controle percebido e desempenho acadêmico de crianças em situação de risco social e pessoal na cidade de Porto Alegre. Foram examinadas 61 crianças, sendo 30 meninos e 31 meninas com idades de 7 a 8 anos, que freqüentavam a primeira série de duas escolas estaduais da periferia de Porto Alegre. Os dados foram obtidos através da aplicação de uma escala de controle percebido, o CAMI ( Control, agency, Interview), que verifica os componentes de crenças como locus de controle, atribuição de causalidade, auto-eficácia e desamparo aprendido, bem como foram utilizados o Teste de Desempenho Escolar e o desempenho atribuídos a cada criança com base nas provas finais do ano letivo, resultando em aprovado e reprovado. Quarenta e três crianças tiveram como resultado a aprovação e dezoito foram reprovadas. Os resultados deste estudo foram obtidos através de regressão múltipla e logística, médias e análise de variância (ANOVA). Os resultados encontrados neste estudo confirmam que existe relação entre controle percebido e desempenho acadêmico, como também que as crenças de controle, crenças de capacidade e crenças de estratégia variam de acordo com a idade e o gênero.
Resumo:
Conforme os sites Web crescem em número de páginas, sua manutenção torna-se mais complicada. Assim, os administradores dos sites de métodos e ferramentas que tornem sua manutenção mais organizada e automatizada. Entretanto, a criação de tais mecanismos é dificultada pelo formato das páginas Web (HTML), que mistura o conteúdo e a formatação da página em um mesmo arquivo. Uma solução usual para esse problema é separar estes componentes da página em documentos XML (conteúdo) e folhas de estilo XSLT (formatação). Pode-se notar várias semelhanças entre páginas Web e programas de computador (software), pois ambos têm componentes de tipos diferentes que evoluem com o tempo. Assim, técnicas oriundas da área de Gerência de Configuração de Software, como controle de versões, podem ser adaptadas para auxiliar a manuutenção de sites. Além da melhoria na manutenção, outra necessidade cada vez mais comum aos sites é a adaptação automática das páginas. Por meio desta, páginas podem ser automaticamente adequadas (adaptadas) e determinado usuário, o que potencialmente atrai um maior número de visitantes ao site. Se forem mantidas versões de cada componente de página, pode-se combiná-las para gerar muitas páginas alternativas. Através da escolha cuidadosa das versões dos ocmponentes que compõem uma página, é possível obter páginas adaptadas automaticamente. Na área de Gerência de Configuração de Software, o chamado proceesso de configuração é responsável por selecionar automaticamente versões de módulos para compor um programa completo. O presente trabalho propõe uma infra-estrutura para um servidor Web que realiza controle de versões e suporta a adaptação de páginas Web de forma transparente ao visitante. Para tanto, é projetado um modelo de versões de páginas que separa conteúdo e formatação em componentes distintos. É proposto um processo de configuração que é responsável pela geração de páginas dinâmicas, o que é suportado por informações presentes no modelo de versões. Os autores de páginas e o próprio servidor Web podem interferir nas escolhas doprocesso de configuração, fornecendo critérios de seleção de versões. Esses critérios guiam as escolhas do processo de configuração, pois representam características que as versões escolhidas devem (necessariamente ou preferencialmente) apresentar.
Resumo:
Este trabalho descreve de uma fonna geral a proposta de uma estratégia para controle e supervisão de plantas industriais através da Internet. Tal proposta consiste na apresentação de três contextos distintos: o contexto planta industrial, o contexto servidor e o contexto cliente. O levantamento criterioso de requisitos para cada um dos contextos é apresentado. A união entre as tecnologias Web e os barramentos de campo resultam naturalmente no acesso remoto através da Internet a sistemas de automação industrial, sendo assim, surge uma nova tendência em tennos de supervisão e controle. A motivação para este trabalho surgiu através de alguns estudos de casos presentes na literatura, que disponibilizam laboratórios através da Internet. A maioria destes estudos de caso não possuía os requisitos considerados primordiais para a disponibilização de um processo através da Internet, como por exemplo, a independência de platafonna no lado cliente e um processo de escala industrial no contexto planta industrial. A estratégia proposta tem por objetivo suprir as carências apresentadas pela maioria dos centros de ensino e pesquisa que disponibilizam laboratórios através da Internet. Para validar a estratégia proposta, foi desenvolvido um sistema de acesso remoto no DELET da UFRGS que é constituído de uma Planta Piloto Foundation Fieldbus e sua posterior disponibilização para a Internet Neste trabalho é apresentada sua fundamentação teórica, sua aplicabilidade na área de automação industrial e controle, baseando-se no protocolo de comunicação industrial, o Foundation Fieldbus; descreve-se também como é feito o interfaceamento entre softwares de controle da Planta Piloto e o sistema de supervisão e controle indo até a estrutura de comunicação com a Internet para que se tome possível para o cliente da Internet visualizar e interagir com a Planta Piloto. Configuração de hardware e software e vários outros conceitos ligados às ferramentas utilizadas neste sistema também são abordados neste trabalho.
Resumo:
Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.
Resumo:
Todos os processos industriais são forçados a cumprir especificações de produto através da inserção de rigorosos parâmetros de controle, principaJmente devido à globalização do mercado. A tendência mundial indica que cada vez mais a cor passa a ser um parâmetro primordial para a colocação do produto no mercado. Neste contexto, uma das dificuldades da indústria mineral é a inexistência de equipamentos adequados para a medição da cor de polpas de minério durante o processamento mineral. Isto se verifica principalmente para os minerais industriais que são caracterizados, na maioria das vezes, em termos de índices de alvura e amarelamento. Este traballio tem como objetivo principal avaliar o uso do equipamento Colorcell, utilizado e desenvolvido pela empresa Renner-HerrmaIlll para a produção de tintas, na indústria de processamento mineral. Os ensaios foram realizados com um equipamento similar ao original. Para se compreender as variáveis operacionais do equipamento utilizou-se um produto à base de carbonato de cálcio natural. Após a delimitação das variáveis e definição de uma metodologia de trabalho, foram caracterizados outros minerais utilizados nas indústrias de tintas, papel e plásticos. O sistema Colorcell também foi utilizado para o controle do processamento de caulim de uma empresa da região sul do Brasil. Ensaios em laboratório permitiram o ajuste de um modelo cinético para a etapa de alvejamento da empresa. A tecnologia Colorcell indica que além dos resultados benéficos ao controle de processo é possível correlacionar a caracterização colorimétrica em polpa com o método tradicional de medição de cor.
Resumo:
A teoria financeira e pesquisas internacionais indicam que os acionistas controladores buscam decidir por estruturas de capital que não coloquem em risco a perda do controle acionário da companhia, através de ameaças de takeover, ou mesmo, pelo aumento do nível de risco de falência. Esses estudos exploram o fato de as companhias fazerem emissão de dois tipos de ação, as ações com direito ao voto, e as ações sem direito ao voto. Neste sentido, este trabalho procurou testar a existência de relação da estrutura de controle nas decisões de estrutura de capital das companhias brasileiras listadas no Bovespa – Bolsa de Valores de São Paulo em 31/12/1995, 31/12/1996, 31/12/1997, 31/12/1998, 31/12/1999 e 31/12/2000. De acordo com a análise realizada, pode-se concluir que existe uma influência estatisticamente significativa da estrutura de controle acionário sobre as decisões de estrutura de capital, bem como uma estrutura de decisão do tipo pecking order, voltada para a manutenção do controle acionário, já que a opção pela diluição do controle acionário acontece a partir da redução dos níveis de recursos próprios disponíveis e do crescimento do endividamento e do risco. Além do controle acionário e da lucratividade, o modelo utilizado no estudo testou a influência de variáveis relativas ao setor, ano e tamanho das companhias pesquisadas, como aspectos determinantes das decisões de estrutura de capital no mercado brasileiro.
Resumo:
A prestação de serviços tem sido um importante diferencial dentro do cenário competitivo atual. Para empresas de manufatura, um desses serviços de destaque é o atendimento à garantia, o qual deve ser desenhado de forma a maximizar a satisfação do cliente, operando dentro de custos otimizados. Para permitir a alocação mais eficiente de recursos aos serviços de atendimento à garantia, é importante entender o comportamento das falhas do produto durante o período de garantia, o qual depende da confiabilidade do produto, do tempo e intensidade de uso e do volume de vendas. Esta dissertação trata da aplicação e adaptação de um modelo apropriado para a predição de falhas durante o período de garantia. Esse modelo poderá auxiliar as organizações a manter controle sobre o custo do atendimento à garantia, auxiliando na melhoria contínua dos serviços prestados.
Resumo:
O controle gerencial das empresas, viabilizado a partir de informações oriundas, na maior parte, da contabilidade gerencial, necessita refletir sobre o novo ambiente desafiador que empresas do mundo inteiro estão enfrentando. Informações precisas, oportunas e pertinentes sobre o desempenho da empresa e seu ambiente concorrencial são cruciais ao sucesso empresarial. Este trabalho tem como objetivo aplicar um sistema de mensuração de desempenho empresarial capaz de apoiar o controle gerencial da empresa inserida em um ambiente globalmente competitivo e desafiador. Nesse sentido, foram examinados o papel exercido pela contabilidade (financeira, de custos e gerencial) nas empresas, e as principais críticas ao controle gerencial tradicional utilizado pelas organizações, bem como foram estudados o sistema empresa, o ambiente concorrencial contemporâneo e os sistemas de mensuração de desempenho empresarial desenvolvidos por organizações e estudiosos do assunto. A proposta oferecida tem como base o Balanced Scorecard, desenvolvido por Robert Kaplan e David Norton, constituindo-se em um sistema de mensuração de desempenho que utiliza indicadores financeiros e nãofinanceiros vinculados aos objetivos estratégicos da empresa, estruturados em quatro perspectivas de avaliação: financeira, do cliente, dos processos internos e do aprendizado e crescimento. No desenvolvimento da proposta, foram identificadas as principais características e necessidades da empresa que conduziram ao estabelecimento e confirmação de sua missão e visão de futuro. Em seguida, foram estabelecidas as perspectivas onde a empresa deve ter sucesso para alcançar um desempenho que a conduza à satisfação de sua missão e visão. Nas etapas seguintes, foram definidos, para cada perspectiva, os objetivos estratégicos, fatores críticos de sucesso, indicadores de desempenho e as metas, de curto e longo prazos, consideradas imprescindíveis para a empresa monitorar, continuamente, seu curso. O projeto indica que o Balanced Scorecard, além de ser um sistema de mensuração de desempenho que permite monitorar os aspectos que conduzirão a empresa ao sucesso, também serve para estabelecer, confirmar, comunicar e implantar a estratégia empresarial.
Resumo:
Este trabalho apresenta novos algoritmos para o roteamento de circuitos integrados, e discute sua aplicação em sistemas de síntese de leiaute. As interconexões têm grande impacto no desempenho de circuitos em tecnologias recentes, e os algoritmos propostos visam conferir maior controle sobre sua qualidade, e maior convergência na tarefa de encontrar uma solução aceitável. De todos os problemas de roteamento, dois são de especial importância: roteamento de redes uma a uma com algoritmos de pesquisa de caminhos, e o chamado roteamento de área. Para o primeiro, procura-se desenvolver um algoritmo de pesquisa de caminhos bidirecional e heurístico mais eficiente, LCS*, cuja aplicação em roteamento explora situações específicas que ocorrem neste domínio. Demonstra-se que o modelo de custo influencia fortemente o esforço de pesquisa, além de controlar a qualidade das rotas encontradas, e por esta razão um modelo mais preciso é proposto. Para roteamento de área, se estuda o desenvolvimento de uma nova classe de algoritmos sugerida em [JOH 94], denominados LEGAL. A viabilidade e a eficiência de tais algoritmos são demonstradas com três diferentes implementações. Devem ser também estudados mecanismos alternativos para gerenciar espaços e tratar modelos de grade não uniforme, avaliando-se suas vantagens e sua aplicabilidade em outros diferentes contextos.
Resumo:
A questão ambiental tornou-se fator de decisão estratégica dentro das empresas nos últimos anos e segue uma tendência de regulamentação governamental cada vez mais forte, principalmente no que diz respeito à exploração de recursos naturais. Este trabalho propõe-se a apresentar a definição e conceitos de contabilidade ambiental e sua importância como forma de destacar as atividades das empresas relacionadas com preservação ambiental dentro dos atuais conceitos de ecoeficiência e desenvolvimento sustentável. Como segundo objetivo, apresentar a crise mundial de água vivida atualmente e como o Brasil está gerenciando seus recursos hídricos, através da apresentação do modelo adotado para implementação da política nacional de gerenciamento de recursos hídricos, destacando a adoção da cobrança por utilização de água como a forma mais importante desta política. Descreve, de maneira bastante simples, as etapas do processo de transformação na industria petroquímica, com ênfase na demonstração do grande volume de água utilizado neste tipo de indústria. E finalmente um estudo do impacto que a cobrança por captação de água bruta terá nos resultados da COPESUL – Companhia Petroquímica do Sul, quando de sua aplicação no Estado do Rio Grande do Sul.
Resumo:
Tolerância a falhas é um dos aspectos mais importantes a serem considerados no desenvolvimento de aplicações, especialmente com a participação cada vez maior de sistemas computacionais em áreas vitais da atividade humana. Dentro deste cenário, um dos fatores a serem considerados na persecução deste objetivo é o gerenciamento de atomicidade. Esta propriedade, por sua vez, apresenta duas vertentes principais: o controle de concorrência e a recuperação de estados. Considerando-se a tolerância a falhas e, particularmente, a atomicidade como requisitos com alto grau de recorrência em aplicações, verifica-se a importância de sua reutilização de forma simples e transparente e do estudo de meios de prover tal capacidade. O presente trabalho procurou pesquisar e aplicar meios de produzir soluções reutilizáveis para implementação de programas tolerantes a falhas, mais especificamente de técnicas de controle de atomicidade, utilizando vários paradigmas computacionais. Neste intuito, foram pesquisados mecanismos de introdução de atomicidade em aplicações e suas respectivas demandas, para então extrair critérios de análise dos paradigmas a serem utilizados na implementações das soluções. Buscou-se suporte nestes paradigmas às demandas previamente pesquisadas nos mecanismos de gerenciamento de atomicidade e procurou-se chegar a soluções reutilizáveis mantendo simplicidade de uso, possibilidade de alteração dinâmica, transparência, adaptabilidade e velocidade de desenvolvimento. Devido à existência de uma grande diversidade de situações que requerem diferentes implementações de atomicidade, alguns cenários típicos foram selecionados para aplicação e avaliação das técnicas aqui sugeridas, procurando abranger o maior número possível de possibilidades. Desta maneira, este trabalho comparou situações opostas quanto à concorrência pelos dados, implementando cenários onde ocorrem tanto acesso cooperativo quanto competitivo aos dados. Dentro de cada um dos cenários estudados, buscaram-se situações propícias ao emprego das características dos paradigmas e analisou-se o resultado de sua aplicação quanto aos critérios definidos anteriormente. Várias soluções foram analisadas e comparadas. Além dos mecanismos de gerenciamento de atomicidade, também foram estudados vários paradigmas que pudessem ser empregados na implementação de soluções com alto grau de reutilização e adaptabilidade. As análises e sugestões posteriores às implementações serviram como substrato para conclusões e sugestões sobre a melhor maneira de empregar tais soluções nos cenários atômicos estudados. Com isso, foi possível relacionar características e capacidades de cada paradigma com a melhor situação de demanda de atomicidade na qual os mesmos são aplicáveis, moldando uma linha de soluções que favoreçam sua reutilização. Um dos objetivos mais importantes do trabalho foi, entretanto, observar o funcionamento conjunto destes paradigmas, estudando como os mesmos podem atuar de forma simbiótica e de que forma os conceitos de um paradigma podem complementar os de outro.
Resumo:
A literatura disponível na área de controle de processos químicos tem dado pouca atenção para o problema da seleção de estruturas de controle, entretanto a correta escolha das variáveis controladas e manipuladas, assim como os seus pareamentos, é tão ou mesmo mais importante que o projeto do controlador propriamente dito, pois esta etapa define o desempenho alcançável para o sistema em malha fechada. Esta dissertação explora vários aspectos genéricos do controle de processos com o objetivo de introduzir os principais pontos da metodologia RPN, um método sistemático que, através de índices baseados em sólidos fundamentos matemáticos, permite avaliar o projeto de controle como um todo. O índice RPN (Número de Desempenho Robusto) indica quão potencialmente difícil é, para um dado sistema, alcançar o desempenho desejado. O produto final desse trabalho é o RPN-Toolbox, a implementação das rotinas da metodologia RPN em ambiente MATLAB® com o intuito de torná-la acessível a qualquer profissional da área de controle de processos. O RPN-Toolbox permite que todas as rotinas necessárias para proceder a análise RPN de controlabilidade sejam executadas através de comandos de linha ou utilizando uma interface gráfica. Além do desenvolvimento das rotinas para o toolbox, foi realizado um estudo do problema de controle denominado processo Tennessee-Eastman. Foi desenvolvida uma estrutura de controle para a unidade e esta foi comparada, de modo sistemático, através da metodologia RPN e de simulações dinâmicas, com outras soluções apresentadas na literatura. A partir do índice concluiu-se que a estrutura proposta é tão boa quanto a melhor das estruturas da literatura e a partir de simulações dinâmicas do processo frente a diversos distúrbios, a estrutura proposta foi a que apresentou melhores resultados.
Resumo:
É muito difícil falar sobre aquecimento de água usando energia solar, sem falar em energia de apoio, ou auxiliar. Essa indispensável energia auxiliar, que pode ser eletricidade, gás ou um outro combustível qualquer, tem por objetivo substituir a energia solar nos dias nublados, ou complementá-la nos períodos de baixa radiação solar. Sua finalidade é manter um certo volume de água quente dentro das condições mínimas de temperatura para uso imediato. Essa energia, tão importante para a eficácia do sistema, tem sempre um custo agregado que deve ser considerado no projeto. A escolha do tipo de energia auxiliar recai justamente sobre a eletricidade por sua facilidade de controle e baixo investimento inicial. O custo da energia elétrica, contudo, é hoje alto o suficiente para que a fração elétrica no consumo de energia do sistema seja importante e passe a merecer mais atenção. Esta dissertação visa a estudar estratégias para minimizar o consumo de energia elétrica auxiliar. O trabalho foi desenvolvido através da simulação do atendimento de uma residência unifamiliar, habitada por cinco pessoas, com um consumo de água quente variável ao longo do dia e igual para todos os dias do ano. Empregou-se para as simulações de todos os casos estudados, o software TRNSYS em sua versão 14.2, (KLEIN, 1997) que demonstrou eficácia e coerência nos resultados obtidos Ao longo do trabalho foram simulados mais de setecentos casos, variando-se parâmetros como área de coletores, volume do reservatório, potência elétrica, dentre outros. Com os resultados obtidos nas simulações foram elaboradas tabelas e gráficos dos quais foi possível retirar algumas conclusões relevantes tais como a dependência do consumo de energia auxiliar com o volume do reservatório, número de coletores, potência da resistência de aquecimento e sua altura, bem como a altura do termostato. A partir dos resultados deste trabalho foi possível a elaboração de uma série de recomendações relativas a estudo e a projeto de sistemas de aquecimento solar de água quente para uso doméstico, visando à otimização na utilização do sistema de energia auxiliar.