156 resultados para validação
Resumo:
Processos químicos integrados apresentam uma maior dificuldade para garantir o controle global da planta em função das fortes interações que se estabelecem entre as variáveis de processo. A área de estudo conhecida como Plant Wide Control preocupa-se em propor soluções a este problema de controle. Soluções típicas consistem no projeto de estruturas de controle, a partir de técnicas quantitativas de análise da controlabilidade operacional. Entretanto a dificuldade em obter-se modelos confiáveis na fase de projeto de processos, bem como as incertezas derivadas das não-linearidades de sistemas reais, são alguns exemplos das dificuldades que limitam a aplicabilidade de tais métodos e incentivam o desenvolvimento de heurísticas capazes de auxiliar a seleção de estruturas de controle adequadas. Nesta dissertação são utilizadas análises estruturais e técnicas quantitativas no estudo de sistemas simplificados e hipotéticos, permitindo a formulação de heurísticas comprometidas com o controle global do balanço material. O resultado destas análises mostra ser possível implementar uma estrutura de base, de configuração feedforward, fundamentada na garantia de baixa variabilidade do tempo de residência do sistema reacional, através de controle direto ou flutuação do inventário, e na proporcionalidade entre as correntes de processo, via introdução de razões fixas entre as vazões da planta. A utilização destas duas heurísticas garante a estabilidade do balanço material frente a variações da taxa de produção, mesmo sem a implementação de controladores de composição. Em um nível supervisório, são introduzidas malhas de controle feedback, em cascata com a estrutura de base, a fim de corrigir off-sets e controlar composições sob um horizonte de tempo longo de resposta. As estruturas de controle projetadas a partir desta base heurística apresentam um desempenho satisfatório para a rejeição de distúrbios sobre a taxa de produção, de acordo com os resultados de validação do estudo de caso Tennessee Eastman.
Resumo:
Este trabalho teve como objetivo conhecer os fatores que desfavorecem a produção de medicamentos genéricos no Brasil a partir do posicionamento do setor privado produtor de medicamentos genéricos e dos laboratórios oficiais de saúde pública. Foram entrevistados 15 empresas farmacêuticas privadas e 4 laboratórios oficiais, utilizando um questionário estruturado, onde foram destacados os aspectos referentes às características do setor produtor, às exigências previstas nas regulamentações sanitárias para o registro e produção de medicamentos genéricos e o seu atendimento pelos produtores privados e oficiais. Conclui-se que, entre as dificuldades verificadas para a produção dos medicamentos genéricos no Brasil, destacam-se a forte dependência da importação de fármacos, que cria dificuldades para o controle de qualidade; a carência de investimentos em pesquisa e desenvolvimento (P&D) pelo setor, que se reflete na escassa experiência nacional na realização de ensaios clínicos; a dificuldade no cumprimento das boas práticas de fabricação, especialmente os processos de validação; e as questões relacionadas à outros aspectos da regulamentação sanitária, da ANVISA e órgãos estaduais de vigilância sanitária. O estudo revela a necessidade de atenção e investimentos por parte do Governo na qualificação da produção da rede de laboratórios oficiais. Ressalta-se que as diretrizes de política industrial e tecnológica estabelecidas pelo atual Governo para o setor farmacêutico, a partir de 2003, quando incrementadas e implantadas, poderão inicialmente minimizar e a longo prazo atender estas difíceis questões dessa área essencial e estratégica para o País.
Resumo:
Os objetivos gerais desta tese foram a otimização do processo de congelamento do camarão, e a avaliação do efeito da adição do fosfato que pode afetar o rendimento e a qualidade do produto, conforme percebido pelo consumidor final. Inicialmente, foi feito um levantamento da capacidade tecnológica das empresas de pescado do Brasil. A seguir, foi feita uma revisão da literatura, buscando entender as variáveis que afetam o processo de congelamento do pescado, particularmente as questões associadas ao uso do fosfato no processamento do camarão. Após a revisão da literatura, foi elaborado um planejamento experimental, onde foi possível obter dados referentes ao rendimento (evolução do peso do produto) em cada etapa estudada: imersão em soluções de fosfato, congelamento, descongelamento e cocção. Os melhores rendimentos foram obtidos pelo congelamento com N2 líquido e com o uso de fosfato. A partir desses resultados preliminares, encontrou-se o ajuste ótimo dos fatores analisados e, a partir dele, foram executados novos ensaios para a validação das previsões de rendimento e complementação do estudo através de análises químicas e sensoriais. O uso de fosfato mostrou-se eficaz na retenção de água no descongelamento e após a cocção. Observou-se menor perda de peso no descongelamento do camarão tratado com blend de fosfato (-1,87 %) quando comparado com o Tripolifosfato de sódio – TPF (-2,86%) e controle (imersão em água, -15,5%) O mesmo foi verificado após a cocção: Blend (-7,61%), TPF (-9,05%) e controle (-25,3%). Esses rendimentos foram comprovados com a diminuição da perda de exsudado (drip loss) no descongelamento e após a cocção, o aumento do teor de umidade após a imersão em fosfato e a sua retenção após o descongelamento e cocção. Os níveis residuais de fosfato (TPF e blend) estavam abaixo do limite 0,5% estabelecido pela legislação internacional. Os resultados da análise sensorial demonstraram que o camarão tratado com fosfato reteve os atributos sensoriais, contribuindo, assim, para a maior preferência e aceitação pelos julgadores.
Resumo:
Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.
Resumo:
Introdução: A motilidade esofágica ineficaz (MEI) é um distúrbio motor que acomete o corpo esofágico, recentemente descrito. Caracteriza-se, manometricamente, pela presença de ondas de baixa amplitude e/ou ondas não transmitidas ao longo do esôfago em 30% ou mais das deglutições com água. Nos pacientes com doença do refluxo gastroesofágico (DRGE), a MEI associa-se à maior ocorrência de refluxo na posição supina. Entretanto, o seu impacto na qualidade de vida é desconhecido. Questionários de qualidade de vida, genéricos ou específicos, têm sido valiosos instrumentos para mensurar a qualidade de vida pela ótica do paciente. Objetivos: 1. mensurar o impacto da MEI nos sintomas da DRGE, confirmada por pHmetria prolongada, medidos por uma escala de qualidade de vida específica para a DRGE; 2. validar para a língua portuguesa a escala de qualidade de vida para a doença do refluxo gastroesofágico (EQV-DRGE) de Velanovich; 3. determinar a prevalência da MEI em pacientes com DRGE confirmada pela pHmetria prolongada. Pacientes e Métodos: A ausência de instrumentos para medir a qualidade de vida, especificamente na DRGE, em língua portuguesa nos levou a traduzir e validar a escala de qualidade de vida de Velanovich em pacientes com DRGE confirmada por pHmetria esofágica prolongada. Nessa escala, é obtido um escore específico para cada sintoma (pirose, regurgitação, disfagia e odinofagia) assim como um escore global entre 0 e 50; quanto menor for o escore melhor será a qualidade de vida relacionada aos sintomas da DRGE. Após essa validação, aplicou-se esse instrumento, prospectivamente, em pacientes avaliados no Laboratório de Fisiologia Digestiva por um período de dois anos (agosto/99 e agosto/01). Os pacientes foram submetidos, consecutivamente, à anamnese, à EQV-DRGE, à manometria e à pHmetria prolongada. Estudaram-se, nesse grupo de pacientes, a associação entre a presença de MEI e o escore da EQV-DRGE. Resultados: A versão em português da escala de qualidade de vida pareceu-nos de fácil compreensão pelos pacientes, estimando-se um acréscimo entre 5 e 10 minutos para o seu preenchimento por paciente. Inicialmente, 219 indivíduos foram admitidos ao protocolo. O grupo efetivamente estudado, após aplicação dos critérios de exclusão, consistiu em 124 pacientes com refluxo ácido patológico confirmado, com média de idade de 48 anos, predomínio do sexo feminino (65%) e presença de MEI em 40 (32,3%). Os escores das perguntas específicas “Você sente azia quando está deitado?”, “Você sente dificuldade para engolir?” e o escore global foram significativamente mais elevados no grupo de indivíduos com MEI quando comparados com o grupo sem MEI (respectivamente: P=0,019 , P=0,006 e P=0,038). Conclusões: 1) a motilidade esofágica ineficaz influencia negativamente a qualidade de vida de pacientes com DRGE medida pela EQV-DRGE, piorando significativamente os sintomas “disfagia” e “pirose em posição supina”; 2) a EQV-DRGE traduzida para a língua portuguesa apresenta evidências de validade para ser utilizada em pacientes portadores da doença; 3) a motilidade esofágica ineficaz é um distúrbio motor prevalente na DRGE confirmada pela pHmetria prolongada.
Resumo:
O simples emprego de recursos computacionais em projetos de EAD não garante o sucesso do aprendizado ou do treinamento, é necessário compreender quais as variáveis que participam do processo e como podem ser promovidas adaptações que auxiliem o desenvolvimento do aluno e a sua participação neste ambiente. A proposta para este trabalho é realizar a experiência de um curso, de modo a utilizar neste curso os modelos de ensino presencial e a distância. Os alunos serão divididos em duas turmas homogêneas, e o primeiro módulo será apresentado a uma das turmas a distância e a outra turma presencialmente. O segundo módulo do curso será apresentado presencialmente a turma que assistiu o primeiro módulo a distância, e será apresentado a distância a turma que assistiu o primeiro módulo presencialmente. As turmas serão avaliadas ao final de cada módulo, e também devem responder a um pós-questionário avaliando alguns aspectos da experiência. O objetivo deste trabalho é identificar variáveis do modelo de ensino presencial e a distância, para comparação posterior das características dos alunos, que apresentaram desempenhos diferentes em cada uma destas modalidades. As análises dos resultados deste estudo de caso pretendem identificar características que pressupõe um melhor desempenho dos alunos no modelo de ensino presencial ou no modelo de ensino a distância. A hipótese de pesquisa apresentada foi: “É possível identificar, em um ambiente de ensino técnico, as pessoas mais adaptadas ao ensino presencial e aquelas mais adaptadas ao EAD”. Para obter os dados necessários à validação da hipótese de pesquisa foi planejada uma experiência com um protocolo experimental rigoroso.
Resumo:
A inovação é uma das principais alternativas para manter a competitividade empresarial. Este trabalho apresenta um modelo para auxiliar nas decisões estratégicas associadas à inovação. Esse modelo é denominado DEIN – Decisões Estratégicas de INovação – e contempla tanto a inovação espontânea como a induzida. O modelo proposto foi construído a partir da análise do referencial teórico e entrevistas conduzidas junto a especialistas. Ele fornece uma estrutura para avaliar os diferentes elementos envolvidos na gestão da inovação: (i) avaliação de idéias associadas à inovação em produto ou processo, (ii) avaliação da competitividade dos produtos existentes, (iii) avaliação da possibilidade de inovação nos processos e produtos existentes, (iv) avaliação da competitividade de novos produtos e (v) avaliação do índice de inovação praticado pela empresa. A utilização do DEIN pode auxiliar as empresas a decidir a respeito de quais produtos serão mantidos como estão no momento, quais serão aposentados, quais serão objeto de inovação e quais novos produtos devem ser lançados. O DEIN é apresentado em detalhe e, posteriormente, validado através de uma abordagem qualitativa aplicado em duas empresas de dois setores industriais: automotivo e de cabos de ancoragem. A validação permitiu aprimorar o modelo proposto e confirmou a sua relevância e aplicabilidade junto ao meio empresarial.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Atualmente, as empresas estão expostas a uma crescente competiçao global. Neste cenário, as informações gerenciais são fundamentais para auxiliar tomada de decisões precisas e eficientes. Este trabalho propõe uma sistemática informatizada de custeio adaptada ao contexto organizacional das pequenas e médias empresas (PMEs) industriais. O desenvolvimento desta sistemática ocorreu a partir da identificação das suas necessidades de informação e da análise dos principais métodos de custeio neste tipo de organização. Para testar esta sistemática de custeio foram realizadas aplicações pilotos em três PMEs industriais. Destaca-se como resultado deste trabalho a validação de uma sistemática informatizada de custeio, através da qual os gestores das PMES industriais poderão calcular o custo dos produtos, formar o preço de venda dos mesmos e medir diversos indicadores econômico-financeiros de suas empresas.
Resumo:
A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.
Resumo:
O crescente aumento pela exigência de funcionalidades na implementação dos atuais sistemas de automação predial, vem provocando um aumento da complexidade de projeto e de gerenciamento desses sistemas. O grande desafio que se apresenta atualmente é como, a partir de dispositivos isolados e subsistemas, conseguir sistemas totalmente integrados, os quais permitam economia no investimento inicial, na operação e na manutenção dos sistemas de automação, garantindo um aumento no desempenho geral da edificação Acredita-se que uma etapa importante para avaliar a real necessidade da integração seja projetar o sistema de automação sem foco em uma tecnologia específica, o que não ocorre atualmente, uma vez que, pela carência de ferramentas de apoio ao projeto, as etapas de especificação e projeto geralmente já estão focadas em uma tecnologia disponível para implementação. Este trabalho busca preencher a lacuna deixada pela carência dessas ferramentas, tendo por finalidade a especificação de um framework orientado a objetos para o desenvolvimento de aplicações de automação predial e residencial que permita modelar estes sistemas de forma independente da tecnologia que ele irá utilizar, possibilitando o mapeamento posterior para a mais adequada ou disponível. Serviram como base para o framework proposto a análise de vários padrões abertos disponíveis para implementação de sistemas de automação predial e a especificação ISO/IEC10746, o modelo de referência para processamento distribuído aberto, usado como suporte a metodologia de projeto proposta. O trabalho também discute o mapeamento dos conceitos definidos para uma arquitetura alvo, apresentado um estudo de caso para validação da metodologia proposta.
Resumo:
Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento de água combinando energia solar e gás como fontes energéticas. A ênfase desta análise está na influência que a forma de conexão dos coletores solares e do circuito da fonte auxiliar de energia ao reservatório exercem sobre a eficiência e o custo de operação do sistema. O trabalho engloba uma montagem experimental, caracterização de componentes, validação experimental de um programa de simulação, análises de eficiência utilizando o programa e análises econômicas com dados simulados. Na fase experimental desta Tese, foram montados três sistemas de aquecimento de água. Dois sistemas utilizando reservatórios verticais e um sistema utilizando reservatório horizontal. Os sistemas foram montados com componentes similares: reservatórios metálicos isolados termicamente com capacidade de 600 litros (verticais), reservatório de polietileno isolado termicamente com capacidade de 600 litros (horizontal), 2 coletores solares de placas planas, tubulação de cobre e aquecedores a gás de passagem de 7,5 l /min. Os componentes foram caracterizados mediante a curva de eficiência dos coletores solares, eficiência dos aquecedores a gás de passagem e o coeficiente de perdas térmicas dos reservatórios Sensores foram instalados para monitorar os sistemas em operação. Os sinais dos sensores foram medidos através de uma central de aquisição de dados conectado a um computador. Temperaturas, irradiância solar, consumo de gás e consumo de água foram registrados ao longo do tempo. Os resultados experimentais foram comparados com resultados calculados por meio de um programa desenvolvido no Laboratório de Energia Solar apresentando boa concordância. Utilizando o mesmo programa determinou-se a configuração do sistema de aquecimento de água com energia solar e gás mais eficiente para a cidade de Porto Alegre com um determinado perfil de consumo. Outros tipos de sistemas de aquecimento de água foram simulados para atender o mesmo perfil de demanda. Análises econômicas comparando estes sistemas entre si foram realizadas considerando diversos cenários econômicos.
Resumo:
O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.
Resumo:
Este trabalho tem por objetivo o estudo e a integração, como forma de validação, de ferramentas de software livre para o uso em Gerência e Monitoração de Redes de computadores. Com o crescimento das redes surgiu a necessidade por controle de seus recursos. Desta necessidade foi criado o protocolo SNMP, utilizado nos dias de hoje como padrão de fato na gerência e monitoração de redes. Anteriormente ao surgimento do Software Livre, para a atividade de gerência e monitoração, existiam apenas produtos proprietários, os quais estavam restritos a poucas empresas que podiam arcar com seus custos. Com o surgimento do Software Livre, ferramentas simples de gerência e monitoração começaram a ser criadas. Estas ferramentas simples necessitam ser integradas de forma a prover maior quantidade de recursos. O método proposto desenvolve um protótipo capaz de integrar várias ferramentas de gerência e monitoração utilizando exclusivamente ferramentas de Software Livre. E para demonstrar a idéia na prática, um Estudo de Caso é apresentado utlizando o protótipo desenvolvido.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.