30 resultados para Teste baseado em modelos
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.
Resumo:
O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.
Resumo:
A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.
Resumo:
Recentes pesquisas têm apontado o Alinhamento Estratégico (AE) como uma das principais preocupações dos executivos. Extrair informações úteis a partir dos investimentos realizados em Tecnologia da Informação (TI) está entre os principais objetivos dos chefes executivos das organizações (CEO). A presente pesquisa tenta identificar os critérios de AE, juntamente com as suas práticas, que são mais promovidos em organizações da Região Sul do Brasil. Esta pesquisa pode ser classificada como um estudo quantitativo-descritivo, e utiliza o método estatístico para a obtenção, processamento e validação dos dados. O método empregado foi o de um levantamento de informações (survey), e a coleta de dados obedeceu à concepção dos estudos transversais. Como instrumentos de coleta, foram utilizados questionários auto-aplicáveis, preenchidos por chefes de informática (CIO) das empresas e por executivos de médio e alto escalões de outras áreas, tais como compras, vendas, controladoria, financeira, recursos humanos, etc. Responderam os questionários 259 executivos de 72 empresas industriais pertencentes à região sul do Brasil. A partir do procedimento de refinamento do questionário, que foi baseado nos modelos de Luftman (2000) e de Brodbeck e Hoppen (2003), foi elaborado um instrumento formado por seis critérios e por trinta práticas, postulado como adequado ao contexto brasileiro. Quanto à promoção destes critérios, o de Comunicação foi considerado o mais importante e promovido, enquanto que o critério de Medidas de Valor e Competência foi considerado o de menor promoção. A partir da realização de análise de regressão, foi possível determinar que o critério Comunicação é mais impactado pelo critério de Escopo e Arquitetura. Através da realização de análises de variância, foi possível observar que as empresas de grande porte promoveram mais os critérios de de Habilidades, Governança, Medidas de Valor e Competência e Escopo e Arquitetura, quando comparados com os resultados obtidos em empresas de pequeno porte. Como contribuições práticas, foram obtidas listagens das práticas mais importantes, mais promovidas, de implementação mais fácil e mais difícil. Estas listagens podem auxiliar gestores de empresas na promoção de níveis mais elevados de maturidade de AE.
Resumo:
O presente trabalho abrange um estudo integrado que busca as relações existentes entre processos de biorremediação de solos e alterações das condições fisiológicas dos organismos que habitam os locais contaminados. Nos estudos envolvendo biorremediação, analisou-se como um derrame de gasolina, simulado através de ensaios de laboratório em microcosmos, altera a microbiota do solo e a dinâmica dos contaminantes ao longo do tempo. Para tanto, avaliou-se a população microbiana (através de métodos de contagem direta e métodos qualitativos com lâmina enterrada, e identificação dos microrganismos), o nitrogênio mineral, o pH e a condutividade elétrica do solo, evolução de CO2, cromatografia gasosa, além de ensaios de permeabilidade, pluviometria e agregação de partículas do solo. Observou-se que materiais orgânicos melhoram as características gerais dos solos ao final dos tratamentos, e ao mesmo tempo retém o contaminante – no caso gasolina – por um maior período de tempo. Existe uma evidente influência dos microrganismos nos processos de biorremediação de gasolina e do diesel analisados, comprovada através de cromatografia gasosa. Através de testes em modelo animal, analisados através de parâmetros sangüíneos, histologia, pH e condutividade elétrica de macerados de órgãos, observou-se alterações importantes no metabolismo dos animais e, em especial, identificou-se um novo teste – baseado na variação de condutividade elétrica – que pode auxiliar na análise fisiopatológica de órgãos com supostas lesões. Uma integração entre as áreas de Engenharia Geotécnica, Agronomia, Medicina, Biologia, Farmácia e Bioquímica foi obtida, provando a necessidade de projetos multidisciplinares no futuro da pesquisa.
Resumo:
With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.
Resumo:
A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.
Resumo:
o objetivo desta tese é apresentar dois modelos distintos para representar as fissuras em peças de concreto armado: um do tipo distribuído e outro do tipo incorporado. Os modelos de fissura incorporada se baseiam no conceito de descontinuidades incorporadas dentro do campo de deslocamento do elemento finito padrão. Já nos modelos de fissura distribuída a descontinuidade do campo de deslocamentos causada pela fissura é espalhada ao longo do elemento. O modelo distribuído proposto apresenta um diagrama tensão-deformação multilinear e sua calibragem é feita, segundo o Código Modelo CEB-FIP 1990, através de ensaios de tirantes de concreto armado. O modelo incorporado implementado é baseado no modelo de Dvorlcin, CuiMo e Gioia, o qual não inclui a contribuição da armadura no equilíbrio interno de forças do elemento. A inclusão da parcela da armadura é feita através de um modelo de transferência de tensão por aderência, conforme Russo, Zingone e Romano, Russo e Romano e FIE - Bulletin 10. Para representar o comportamento do concreto intacto, utiliza-se o modelo constitutivo de Ottosen. Trata-se de um modelo elástico não-linear, tridimensional, que utiliza valores secantes dos parâmetros do material. Já para simular o comportamento das barras de aço da armadura, emprega-se o modelo incorporado desenvolvido por Elwi e Hrudey. Neste modelo, permite-se uma disposição arbitrária das barras de aço no interior dos elementos de concreto. O modelo constitutivo adotado para a armadura é do tipo elasto-plástico com endurecimento. Por fim, alguns exemplos numéricos são analisados com o objetivo de comprovar a eficácia dos dois modelos propostos.
Resumo:
Apomorfina é um potente agonista dopaminérgico D1/D2, utilizada no tratamento da Doença de Parkinson. Em maio de 2001, apomorfina HCl foi aprovada para utilização no tratamento da disfunção erétil, aumentando o número de usuários potenciais deste fármaco. Estudos sugerem que apomorfina e outros agonistas dopaminérgicos podem induzir neurotoxicidade mediada por seus derivados de oxidação semiquinonas e quinonas, os quais levam à formação de espécies reativas de oxigênio. Os objetivos do presente estudo foram de avaliar os possíveis efeitos genotóxicos, antimutagênicos, citotóxicos de apomorfina (APO) e de um produto derivado de sua oxidação, 8-oxo-apomorfina-semiquinona (8-OASQ), utilizando o teste Salmonella/microssoma, Mutoxiteste WP2, ensaio Cometa e teste de sensibilidade em Saccharomyces cerevisiae. Em adição, foram avaliados os efeitos de APO e 8-OASQ sobre a memória e o comportamento em ratos (tarefa de esquiva inibitória, comportamento e habituação ao campo aberto) e o comportamento estereotipado em camundongos. Ambos compostos induziram mutações por erro no quadro de leitura em linhagens de S. typhimurium TA97 e TA98, sendo que 8-OASQ foi cerca de duas vezes mais mutagênico que APO, na ausência de S9 mix. Para linhagens que detectam mutágenos oxidantes, 8-OASQ foi mutagênico, enquanto APO foi antimutagênico, inibindo a mutagenicidade induzida por H2O2 e t-BOOH em linhagens de S. typhimurium e derivadas WP2 de E. coli. O S9 mix inibiu todos os efeitos mutagênicos, provavelmente retardando a oxidação de APO ou devido à conjugação de APO e seus produtos de autoxidação, como 8-OASQ, a proteínas do S9. Em testes de sensibilidade com S. cerevisiae, APO foi citotóxica para algumas linhagens apenas nas doses mais altas. Para 8-OASQ este efeito foi dose-depende para todas as linhagens, sendo que as mutantes deficientes em catalase (ctt1), superóxido dismutase (sod1) e yap1 foram as mais sensíveis. APO protegeu as linhagens de S. cerevisiae contra danos oxidativos induzidos por concentrações altas de H2O2 e t-BOOH, enquanto que 8-OASQ aumentou os efeitos pró-oxidantes e induziu respostas adaptativas para aqueles agentes. APO e 8-OASQ induziram efeitos de prejuízo na memória de curta e de longa duração em uma tarefa de esquiva inibitória em ratos. APO, mas não 8-OASQ, prejudicou a habituação a um novo ambiente de forma dose-dependente. Os efeitos de prejuízo de memória não foram atribuídos à redução da nocicepção ou outra alteração inespecífica de comportamento, visto que nem APO e nem 8-OASQ afetaram a reatividade ao choque nas patas e comportamento durante a exploração ao campo aberto. Os resultados sugerem, portanto, que os produtos de oxidação de dopamina ou de agonistas dopaminérgicos podem induzir deficiências cognitivas.APO, mas não 8-OASQ, induziu comportamento estereotipado em camundongos machos CF-1. A falta da indução deste comportamento por 8-OASQ sugere que a autoxidação de APO causa a perda na sua habilidade de ligar-se a receptores dopaminérgicos. Pelo ensaio Cometa, 8-OASQ provocou danos ao DNA do tecido cerebral de camundongos sacrificados 1 h e 3 h, mas não 24 h após sua administração, enquanto que APO induziu um fraco aumento da freqüência de dano ao DNA 3 h após o tratamento. Esses resultados sugerem que ambos APO e 8-OASQ desempenham uma atividade genotóxica no tecido cerebral.
Resumo:
A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Resumo:
Este trabalho está relacionado às áreas de Sistemas Multiagentes, Simulação Computacional e Emoções. A partir do estudo destas áreas de pesquisa, foi proposto e desenvolvido um protótipo para um ambiente de simulação baseado em agentes com emoções. Os sistemas multiagentes têm sido utilizados nas mais diversas áreas de pesquisa, não apenas para a área acadêmica, mas também para fins comerciais. Isso ocorre devido a características importantes que estes possuem, como flexibilidade e cooperação. Estas características são úteis para um grande número de aplicações, como para simulação de situações reais, pois os modelos de simulação desenvolvidos utilizando a tecnologia de agentes são muito eficazes e versáteis no estudo dos mais diferentes problemas. Emoções vêm sendo estudadas há algum tempo, pois elas influenciam a tomada de decisão de todas as suas atividades. A tentativa de expressar emoções é algo complexo, dependendo de diversos fatores, tanto sociais como fisiológicos. Objetivando a abrangência das pesquisas na área de sistemas multiagentes, este trabalho propõe o desenvolvimento de um protótipo para um ambiente de simulação baseado em agentes com emoções, utilizando como base para a estruturação das emoções o modelo OCC. Este novo ambiente é chamado AFRODITE. De forma a melhor definir como o AFRODITE seria implementado, foram estudados quatro ambientes de simulação baseados em agentes existentes - SIEME, SWARM, SeSAm e SIMULA, e alguns aspectos destes foram utilizados na construção do novo ambiente. Para demonstrar como o AFRODITE é utilizado, três exemplos de aplicações de áreas de conhecimentos diferentes foram modelados: o IPD (Iterated Prisoner’s Dilemma), da área de Teoria dos Jogos; Simulação de Multidões, da área de Engenharia de Segurança; e Venda de aparelhos celulares com serviço WAP, da área de Telecomunicações. Através dos três exemplos modelados foi possível demonstrar que o ambiente proposto é de fácil utilização e que a tarefa de inserção de emoções nas regras de comportamento pode ser realizada pelo usuário de forma transparente.
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.
Resumo:
Neste trabalho, uma versão analítica do método de ordenadas discretas é usada para desenvolver soluções para alguns problemas da dinÂmica de gases rarefeitos, baseado em um modelo com freqüência de colisão variável (modelo CLF) da equação de Boltzmann linearizada. Em particular, resultados numéricos obtidos para os problemas de salto de temperatura, fluxo de Poiseuille, fluxo de Couette, Kramers, creep-térmico e deslizamento térmico são apresentados e discutidos.
Resumo:
A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.