884 resultados para Sistemas de tempo contínuo
Resumo:
Dado um sistema dinâmico g : M → M e uma função A : M → R, chamada de observável, uma medida invariante v que satisfaz ƒ Adv = sup{ RAdµ ; µ ´e invariante para g} é chamada uma medida maximizadora. Neste trabalho vamos analisar medidas maximizadoras em duas classes de sistemas dinãmicos que apresentam pontos fixos indiferentes: Na primeira classe analisada, unidimensional, o sistema dinâmico ƒ é dado por um mapa expansor de grau 2 definido em [0, 1], apresentando derivada maior que 1 em todos os pontos com exceção do ponto fixo 0, onde tem derivada 1. O observável A é dado por uma função α-Hölder em cada ramo injetor, monótona em uma pequena vizinhança de zero. Na segunda classe analisada, bidimensional, o sistema dinâmico B é um mapa bijetor definido em [0, 1)×[0, 1) com o auxílio de uma função ƒ da classe anterior, apresentando ponto fixo indiferente na origem. Trata-se de uma variante fracamente hiperbólica da Baker Map. O observável A agora é uma função α-Hölder, e obedece a uma condição semelhante à monotonicidade do caso unidimensional em um vizinhança de (0, 0). Em ambos os casos mostraremos que a medida maximizadora, se for única, será uma medida unicamente ergódica. O passo mais importante nesta direção, que constitui-se em um resultado de interesse próprio, e que tomará a maior parte de nosso tempo, será, nos dois casos, a obtenção e o estudo da regularidade de uma função a valores reais S, chamada de função de subação, que obedecerá a desigualdade S o g ≥ S + A − m. Em ambos os casos mostraremos que S existe e é α-Hölder-contínua.
Resumo:
A motivação para este estudo nasceu de uma avaliação inicial, ocorrida durante a obtenção dos meus créditos em Marketing, segundo a qual, na bibliografia disponível, existiriam poucos trabalhos que tratassem das técnicas e métodos de gestão mercadológica, aplicáveis a indústrias não seriadas. Tendo desenvolvido carreira em indústrias fabricantes de bens de capital, pude assistir a várias "ondas" de filosofias, processos e tecnologias, as quais, freqüentemente, foram ou ainda são acompanhadas por pressões pela análise, para eventual adoção, destas "modas", o que, quando não levava à tomada de atitudes mal pensadas, tinha como contrapartida o desperdício de tempo dos envolvidos. Com o passar do tempo, isto trazia como conseqüência o desenvolvimento de uma cultura de rejeição a tudo que vinha de fora, pois os envolvidos já estavam tão cansados de analisar novidades, as quais raramente eram implementadas, que dificilmente concordavam em investir mais tempo neste tipo de atividade, preferindo seguir as receitas caseiras. Na área mercadológica, que não se constitui em exceção à regra, freqüentemente surgem novos modismos, e o fenômeno acima descrito ocorre com renovada intensidade, pelas características peculiares do setor: as vendas para cada cliente são muito espaçadas no tempo, em termos de equipamentos, e no caso dos serviços, embora haja uma maior freqüência nas vendas, o centro de compras envolvido é, via de regra, diverso daquele empenhado na compra de novos equipamentos, o que torna a administração dos relacionamentos com os clientes bastante complexa. No caso específico das técnicas e metodologias, publicadas na área de Marketing, pode-se perceber que a imensa maioria foi desenhada para ser aplicada na transação final com o consumidor, ou nos estágios finais da cadeia produtiva, entre os fornecedores de material produtivo para produtores de bens de consumo e os próprios, e/ou entre os produtores de bens de consumo e seus respectivos canais. No entanto, isto não impede que se tente vender aos fabricantes de bens de capital versões, mais ou menos modificadas, das técnicas e sistemas "da moda", o que nos remete à situação, citada anteriormente, de ter de escolher
Resumo:
O objetivo deste trabalho é analisar as condições sob as quais se desenvolvem os trabalhos de operação, na indústria de processo contínuo, bem como a problemática da manutenção, e a partir das tendências dos modelos sóciotécnicos, propor a inserção das equipes de manutenção numa estrutura de equipes auto-gerenciadas na área de produção.
Resumo:
A pecuária leiteira tem uma importante participação na economia do setor primário do Sul do Brasil, porém, custos de produção elevados, impacto ambiental e qualidade dos produtos tem limitado sua viabilidade econômica. Entretanto, na busca por sistemas sustentáveis de produção depara-se com uma grande escassez de informações. Este trabalho pretendeu contribuir com a geração de conhecimentos que possam ser facilmente adotados pelos produtores da Região do Planalto Riograndense, através da condução da pesquisa em duas etapas: inicialmente foi desenvolvido um estudo baseado em procedimentos de pesquisa diagnóstica aplicados em 46 propriedades que incluiu características infra-estruturais, ambientais, sociais e técnico-econômicas. Em um segundo momento, realizou-se a comparação de dois sistemas de condução dos animais em pastagens, propostos a partir de características apontadas como relevantes no diagnóstico realizado, definindo os seguintes tratamentos: T 1: onde os animais tiveram acesso à pastagem por um período de 3 h/dia, e, T 2: onde os animais tiveram livre acesso à pastagem, ambos, mantidos em pastejo sobre sorgo forrageiro (Sorghum vulgare) e trevo branco (Trifolium repens L.) em pastejo rotativo, recebendo suplementação protéica e energética Os resultados do diagnóstico indicaram uma elevada importância das características de infraestrutura e de questões técnicas relativas à exploração leiteira, onde destacam-se variáveis relacionadas à questões de manejo e alimentação do rebanho. Os sistemas de pastejo apresentaram diferença significativa (p<0,01), na produção de leite, produzindo 16,6 e 18,9 L/dia, para T1 e T2, respectivamente. Com a obtenção desses resultados, fica evidenciado que animais de bom potencial genético, proporcionam respostas positivas de produtividade a medida que lhes é permitido maior tempo de permanência em pastagens de qualidade, ofertadas em quantidade suficiente possibilitando a expressão do potencial do animal em selecionar a sua dieta.
Resumo:
A centenária indústria automobilística, um dos elementos responsáveis pela condução da economia mundial ao longo do século XX, tem liderado e ao mesmo tem sido alvo de intensas mudanças provocadas pelo fortalecimento dos processos de globalização, onde se instala um ambiente de competição extrema, e cujo cenário se estende a todos os níveis de sua cadeia produtiva. Hoje testemunhamos a liderança construída ao longo do século XX, pela gigante americana General Motors, ser ultrapassada pela montadora japonesa Toyota. A competição global não se processa mais entre empresas de forma isolada, e sim entre cadeias de suprimentos, cuja gestão transcende as relações formais entre as empresas, tornando-se cada vez mais complexa e de difícil previsibilidade e estabilidade. Por outro lado, persiste, tanto nos meios acadêmicos como no empresarial, a carência de modelos de análise que auxiliem nos processos de gestão da cadeia de suprimentos e de seus elos, resultando processos baseados na experiência e na intuição, sem que variáveis relevantes, que exercem influência direta ou indireta ao longo do tempo nos resultados, tenham sido levadas em consideração. A principal proposta assim com a contribuição desta pesquisa foi o desenvolvimento e validação de uma metodologia para identificação de modelos mentais e sua conversão em diagramas causais, utilizando como base uma cadeia de suprimentos característica da indústria automobilística brasileira, pioneira na implantação do conceito de consórcio e condomínio modular. Para complementar este trabalho, foi desenvolvido através dos diagramas causais, em caráter exploratório, um modelo de simulação computadorizado que permite observar as respostas do sistema dado uma variação em uma de suas variáveis.
Resumo:
A dissertação tem como principal objetivo a busca de evidências da existência de um componente determinístico no comportamento dos preços de certas ações negociadas na Bolsa de Valores de São Paulo (BOVESPA) e em índices amplos do mercado, tais como o Ibovespa e IBX e, como conseqüência, determinar se a Hipótese de Mercado Eficiente é válida para o mercado financeiro brasileiro. Um objetivo secundário é mostrar a aplicabilidade de técnicas interdisciplinares ao estudo de Finanças empíricas, técnicas essas que, desde sua incepção, já levam em consideração o fato de que os dados estudados não atendem ao requisito de normalidade e que as observações não são independentes entre si. Essa aplicabilidade já é largamente demonstrada em inúmeros estudos internacionais e diversas publicações no Brasil. Porém, o presente trabalho tentará aplicar uma estrutura analítica mais flexível e computacionalmente mais eficiente, utilizando ferramentas trazidas do campo da Teoria da Informação e avanços relativamente recentes da área.
Resumo:
A fertilidade das vacas com cria ao pé é uma característica importante para os sistemas de produção de bovinos de corte. Considerando esse fato, o alvo deste estudo foi avaliar a fertilidade pós-parto de vacas de corte, submetidas a diferentes condições de: aleitamento, suplementação hormonal, condição corporal, período pós-parto e estação de acasalamento. Com esses objetivos foram efetuados quatro experimentos, avaliando o efeito da suplementação com progestágeno na fertilidade de vacas de corte paridas no outono e desmamadas entre 45 - 75 dias pós-parto; o momento da suplementação com progestágeno em vacas de corte paridas na primavera e desmamadas entre 60 - 81 dias pós-parto; a suplementação com progestágeno associada à desmame total e parcial em função da condição corporal aos 60-81 dias pós-parto e a eficiência do desmame temporário ou aleitamento uma vez ao dia em vacas de corte submetidas a suplementação com progestágeno. Foram analisados dados de freqüência de manifestação de cios e de prenhez nos quatro experimentos. Os resultados obtidos indicaram que: a suplementação com progestágeno não melhorou a fertilidade de vacas de corte paridas no outono e desmamadas entre 45 – 75 dias pós-parto, o fator fundamental na fertilidade de vacas paridas no outono foi a condição corporal que deve ser no mínimo CC4 (numa escala de 1-5); a suplementação com progestágeno em vacas de corte paridas na primavera e desmamadas entre 60 – 81 dias pós-parto viabiliza o uso da inseminação artificial e contribui para a obtenção de bons resultados reprodutivos em vacas com CC igual ou superior a CC3; a suplementação com progestágeno associada a desmame durante 96 horas em vacas com => CC3 é uma alternativa viável para incrementar a taxa de prenhez após monta natural ou inseminação artificial em vacas com cria ao pé; é possível inferir que a eficiência reprodutiva de vacas de corte pós-parto submetidas a suplementação com progestágeno e desmame temporário ou aleitamento uma vez ao dia tenham desempenho semelhante, porém são necessários outros estudos. De um modo geral os experimentos efetuados sugerem que é necessário estabelecer um equilíbrio entre oferta e demanda forrageira, ao longo do ano, que possibilite uma máxima percentagem de vacas em CC adequada no começo do serviço, considerando a época de acasalamento, momento pós-parto, suplementação hormonal além da modalidade de desmame, visando a obtenção da máxima produção de kg de carne/superfície/tempo e considerando as condições de ambiente.
Resumo:
O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.
Resumo:
Este estudo apresenta um sistema real de produção, numa fábrica de máquinas agrícolas localizada no Paraná, cuja produção é regida pela sazonalidade.É feita a análise do processo produtivo atual da peça mais complexa produzida na empresa, processo que hoje tem sua produção empurrada. Através de simulação computacional, é estudado o desempenho do sistema como ele é atualmente, e propostas alternativas com a produção sendo gerida através de kanban ou de CONWIP. São utilizados como medidas de desempenho a quantidade total produzida, inventário em processo e tempo de ciclo. Com a equalização do nível de serviços dos modelos, através do ajuste das quantidades de cartões kanban e CONWIP, torna-se possível uma comparação mais adequada dos sistemas de gestão, e escolha do que melhor se adapta à situação estudada.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.
Resumo:
Nesta dissertação visa-se estudar e propor alternativas de solução para a proteção de estruturas e sistemas elétricos contra fogo numa unidade de craqueamento catalítico de uma refinaria de petróleo, por meio de proteção passiva. A proteção passiva tem por finalidade garantir a integridade das estruturas sujeitas a incêndio, durante um determinado período de tempo, para possibilitar, no caso da refinaria, a realização de procedimentos de parada da unidade de forma segura e controlar o incêndio a fim de diminuir a possibilidade de propagação do fogo para outras áreas. Com base em técnicas de análise de riscos fez-se a identificação de zonas potencialmente sujeitas a cenários de acidente envolvendo jato de fogo e/ou incêndio em poça. A delimitação das áreas onde haveria necessidade de proteção passiva foi realizada com base em modelos para jatos de fogo e incêndio em poça já estabelecidos na literatura. O dimensionamento da proteção passiva de estruturas e sistemas elétricos com o uso de diversos materiais usados comercialmente para este fim foi estimado com base em equações empíricas desenvolvidas por Jeanes, 1980, Stanzak, 1973 e PABCO, 1984, e, para alguns casos particulares foi feita uma verificação por solução numérica da equação da condução do calor em meio sólido.Assim, foram determinados quais os materiais mais adequados em cada caso de aplicação e qual a espessura em que deve ser aplicado para que a temperatura no elemento estrutural ou no sistema elétrico não atinja a sua determinada temperatura crítica em um período de tempo pré-determinado. Para os casos de elementos estruturais como colunas de sustentação da unidade de seção cilíndrica, o principal material para proteção passiva é a argamassa projetada e para perfil I, é o emprego de placas de gesso. Já para o caso de sistemas elétricos, podem ser utilizadas tanto tintas intumescentes quanto as mantas reforçadas com fibras minerais, esta escolha depende da geometria do sistema em que será empregado. Da comparação entre estes dois métodos pode-se concluir que o dimensionamento da proteção passiva fazendo o uso das correlações empíricas é menos conservativo que para o caso do uso da equação da difusão do calor resolvida por método numérico. Porém, os resultados diferem dentro de um limite considerado aceitável (em torno de 15%) levando-se em consideração os erros embutidos em cada método de cálculo. É importante mencionar que as correlações empíricas são de mais simples aplicação por possuir apenas operações matemáticas básicas. Usando as correlações empíricas para os perfis cilíndricos de aço (diâmetro de 0,1524 m e espessura de parede de 0,0254 m), a espessura de revestimento estimada com o uso das correlações empíricas necessária para garantir que a temperatura na interface entre os dois materiais não atinja 550°C em duas horas seria de 13,5 mm para argamassa projetada, 19,7 mm para vermiculita com silicato de sódio e 34,5 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Cabe ressaltar que com a realização desta dissertação busca-se uma integração entre o mestrado acadêmico e o meio empresarial com o desenvolvimento de trabalhos de natureza acadêmica que tenham aplicação direta na prática. Espera-se assim permitir que Universidade dê retorno à sociedade que a mantém e propiciar que setores da sociedade possam usufruir da capacidade disponível na academia.
Resumo:
Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento de água combinando energia solar e gás como fontes energéticas. A ênfase desta análise está na influência que a forma de conexão dos coletores solares e do circuito da fonte auxiliar de energia ao reservatório exercem sobre a eficiência e o custo de operação do sistema. O trabalho engloba uma montagem experimental, caracterização de componentes, validação experimental de um programa de simulação, análises de eficiência utilizando o programa e análises econômicas com dados simulados. Na fase experimental desta Tese, foram montados três sistemas de aquecimento de água. Dois sistemas utilizando reservatórios verticais e um sistema utilizando reservatório horizontal. Os sistemas foram montados com componentes similares: reservatórios metálicos isolados termicamente com capacidade de 600 litros (verticais), reservatório de polietileno isolado termicamente com capacidade de 600 litros (horizontal), 2 coletores solares de placas planas, tubulação de cobre e aquecedores a gás de passagem de 7,5 l /min. Os componentes foram caracterizados mediante a curva de eficiência dos coletores solares, eficiência dos aquecedores a gás de passagem e o coeficiente de perdas térmicas dos reservatórios Sensores foram instalados para monitorar os sistemas em operação. Os sinais dos sensores foram medidos através de uma central de aquisição de dados conectado a um computador. Temperaturas, irradiância solar, consumo de gás e consumo de água foram registrados ao longo do tempo. Os resultados experimentais foram comparados com resultados calculados por meio de um programa desenvolvido no Laboratório de Energia Solar apresentando boa concordância. Utilizando o mesmo programa determinou-se a configuração do sistema de aquecimento de água com energia solar e gás mais eficiente para a cidade de Porto Alegre com um determinado perfil de consumo. Outros tipos de sistemas de aquecimento de água foram simulados para atender o mesmo perfil de demanda. Análises econômicas comparando estes sistemas entre si foram realizadas considerando diversos cenários econômicos.
Resumo:
Este trabalho aborda o desenvolvimento de uma arquitetura de controle em tempo real para servoposicionadores pneumáticos, baseada em computadores pessoais (PCs). Os servoposicionadores pneumáticos são de baixo custo, leves, não poluentes e de fácil utilização. Como apresentam boa relação entre peso e força, são bastante atraentes em aplicações de robótica. Entretanto, devido a suas não linearidades, os servoposicionadores pneumáticos apresentam dificuldades em seu controle. Visando compensá-las, são desenvolvidos algoritmos de controle cada vez mais complexos, necessitando de ferramentas mais robustas quanto ao poder de processamento. Ferramentas com características necessárias para o desenvolvimento de algoritmos e para o controle em tempo real de sistemas custam caro, o que dificulta o desenvolvimento de novas tecnologias de controle de servoposicionadores pneumáticos. Este trabalho apresenta uma revisão das soluções utilizadas na construção de sistemas pneumáticos de posicionamento e daquelas adotadas no controle digital de sistemas automáticos. Descrevese o processo de construção de uma bancada experimental, e o desenvolvimento das soluções em hardware e software para o controle digital é discutido. Visando uma solução economicamente atraente, são utilizados unicamente softwares de código aberto e de livre utilização, assim como hardwares de baixo custo.Para verificar a eficiência da solução proposta, a arquitetura de controle é utilizada para realizar a identificação dos parâmetros do sistema pneumático. Dentre eles, destacam-se a vazão mássica e o atrito, informações importantes para simulação e controle do sistema. Também são utilizados controladores do tipo Proporcional-Integral-Derivativo, implementados para apoiar o estudo do desempenho da arquitetura no controle do servoposicionador pneumático.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
O presente trabalho objetivou avaliar os sistemas de gerenciamento de resíduos de serviços de saúde frente aos instrumentos legais e normativos vigentes no Brasil, acerca dos quais existem poucos estudos. O estudo envolveu coleta de dados reais, por um período contínuo de dois anos, analisando a eficiência da segregação, os sistemas de tratamento, e os custos decorrentes, em duas instituições de assistência à saúde em nível terciário (Hospital Escola do Sistema Único de Saúde - SUS e Hospital Conveniado). O sistema de gerenciamento de resíduos iniciou com um diagnóstico da situação das unidades hospitalares, definição das estratégias educativas de sensibilização, treinamento e capacitação do quadro funcional, com ênfase na segregação de resíduos. A avaliação dos custos, decorrentes da utilização de tecnologias de tratamento via esterilização por vapor úmido (hospital do SUS), e por oxidação térmica (hospital Conveniado), bem como dos custos estendeu-se ainda à disposição final dos resíduos. Foram analisados os índices e percentuais de geração das diferentes categorias de resíduos (infectantes, especiais, comuns e recicláveis) nos dois estabelecimentos. Estudo piloto prévio à implantação do sistema de gerenciamento, revelou um índice de geração total de resíduos de 3,5 kg/leito/dia no Hospital Conveniado, e de 2,6 kg/leito/dia no Hospital SUS. Os índices de geração de infectantes nos referidos hospitais foram de 1,3 (Conveniado) e 1,1 kg/leito/dia (SUS). Os dados do monitoramento contínuo (24 meses), demonstraram, em nível de significância de 5%, uma redução nos índices de geração de resíduos infectantes de cerca de 35% no Hospital Conveniado e de 38% no Hospital SUS, e um aumento significativo nos índices de geração de resíduos comuns e recicláveis, após a implantação dos sistemas de gerenciamento e dos programas educativos, indicando falhas na segregação anteriormente a estes. Os resultados confirmaram a influência positiva dos programas educativos e do sistema organizacional, e a possibilidade de serem alcançadas índices e percentuais ainda mais baixos que os preconizados pela literatura. Os resultados apresentaram, também, altas taxas de reencape de agulhas (41% das conectadas e 51% das desconectadas no Hospital SUS; 68% das conectadas e 55% das desconectadas no hospital Conveniado), dando indicativos do potencial de risco com saúde ocupacional a que estão expostos os profissionais, e da necessidade de reforçar os conceitos de auto cuidado com os mesmos. No tocante aos custos com os sistemas de gerenciamento, o Hospital Conveniado tem um custo final menor que o Hospital SUS. Porém, quando traduzido para paciente/dia, o Hospital SUS tem um custo de R$ 3,54 enquanto que no Hospital Conveniado o custo é de R$ 5,13, ou seja, 45,1% maior que no Hospital SUS, apesar da oferta de serviços ser semelhante. Para o tratamento de resíduos infectantes junto à fonte geradora com tecnologia de esterilização via vapor úmido e microondas, somados à despesa com serviços terceirizados para situações de contingência, tratamento de peças anatômicas e pérfuro-cortantes, o Hospital SUS tem um custo de R$ 0,57 paciente/dia enquanto o tratamento via incineração do Hospital Conveniado tem um custo de R$ 0,86 paciente/dia. Estes resultados evidenciam que o tratamento junto à fonte geradora, consideradas as situações avaliadas é mais vantajoso do ponto de vista econômico e ambiental. Os custos ambientais totais obtidos para o hospital SUS são de R$ 3,54 paciente/dia para R$ 5,13 por paciente/dia no hospital Conveniado. O trabalho fornece subsídios metodológicos para definição de índices e percentuais de geração, bem como para o cálculo dos custos envolvidos no gerenciamento que podem servir de base para aplicação em outros estabelecimentos de assistência à saúde.