69 resultados para Sistemas de recuperação da informação - Logistica
Desenvolvimento de um programa de simulação computacional de sistemas de aquecimento solar para água
Resumo:
Esta Tese apresenta uma análise do comportamento térmico de um sistema de aquecimento solar operando por termossifão. Neste tipo de sistema o fluido no coletor solar é circulado por convecção natural, que acontece devido à diferença de massa específica da água ao longo circuito. Nestes sistemas a vazão mássica varia ao longo do dia e do ano, dependendo, dentre outros fatores, da irradiância solar absorvida, do perfil de temperaturas da água no sistema, da geometria, do volume e do perfil de demanda de água quente. Para uma avaliação detalhada do comportamento térmico de aquecedores solares operando por termossifão foram realizados ensaios experimentais e cálculos teóricos. Os resultados dos experimentos concordaram com aqueles apresentados na literatura e sua análise fundamentou o desenvolvimento do aplicativo TermoSim, um programa de simulação computacional do comportamento térmico de sistemas de aquecimento de água com energia solar. O tratamento matemático adotado no TermoSim compreende a modelagem dos coletores solares de acordo com a teoria de Hottel-Bliss-Whillier. O reservatório térmico é modelado com estratificação térmica, convecção e condução entre as camadas. A vazão mássica é obtida a partir do balanço da quantidade de movimento no circuito. Os modelos matemáticos empregados na construção do aplicativo TermoSim foram validados através do confronto dos resultados simulados com medidas experimentais. Foi demonstrado que a utilização destes modelos é adequada e permite reproduzir com precisão o comportamento térmico dos coletores solares e do reservatório térmico. Além do programa TermoSim, foi também desenvolvido o programa TermoDim, que é uma ferramenta para o dimensionamento de sistemas de aquecimento solar, que requer apenas o conhecimento dos parâmetros geométricos do sistema, dados meteorológicos em média mensal e informação a respeito do volume de demanda. O TermoDim é apropriado para estimar o desempenho de aquecedores solares operando por termossifão com tanques verticais e horizontais. O método de dimensionamento do TermoDim é baseado na correlação para a eficiência média mensal obtida neste trabalho a partir de um grande número de simulações.
Resumo:
O uso de Tecnologia da Informação (TI) tem evoluído muito nos últimos anos e isto influencia, sem dúvida, o ensino e a prática da arquitetura. Observa-se que o ensino de projeto nas escolas de arquitetura se dá através de um processo prático-reflexivo, no qual os alunos aprendem fazendo, sob a orientação dos professores. O conhecimento arquitetônico, portanto, vai sendo construído através da análise e interpretação do projeto e a busca de significados a partir da sua representação, sejam esboços à mão livre ou imagens digitais. Desta forma, as disciplinas de prática projetual têm grande importância, sendo consideradas fundamentais para a formação do arquiteto. Reconhecendo que a aplicação da TI gera novos paradigmas projetuais, mostrou-se importante a investigação da docência e da prática profissional. Este trabalho tem por objetivo caracterizar a presença e o uso de TI no ensino de projeto arquitetônico nas Faculdades de Arquitetura e Urbanismo (FAU) de Porto Alegre, RS. Demonstra-se, através dos resultados de estudo exploratório em quatro FAUs, as características pessoais e a forma como estão sendo desenvolvidas as habilidades dos alunos para a prática de projeto arquitetônico em função das tecnologias disponíveis e das tendências futuras que se apresentam a estes profissionais. Verificou-se como os estudantes usam recursos computacionais em geral, qual o seu o nível de conhecimento sobre TI e como tem sido feita a abordagem pelas FAUs deste tema. Explorou-se, de forma especial, a aplicação de sistemas CAD no processo de projeto arquitetônico Constatou-se que os sistemas ainda são bastante sub utilizados e que as disciplinas dos currículos das FAUs estudadas levam a uma formação aquém da necessidade exigida pelos escritórios de arquitetura, onde o uso de recursos computacionais é corrente. Para estarem adequados as exigências do mercado de trabalho, os estudantes além de completarem o seu Curso, necessitam superar a necessidade de aprendizagem de sistemas computacionais, muitas vezes adquirida durante o estágio ou em cursos extra-curriculares.
Resumo:
A competitividade incremental que vem sendo requerida das empresas tem exigido um processo de gestão ágil e inteligente, no qual uma eficiente gestão da informação é crucial à sobrevivência das organizações. A adoção e implementação de sistemas informacionais, não poucas vezes, tem levado ao desperdício e à frustração pela inobservância de determinados empecilhos que podem não ser detectados quando da tomada de decisão em implantar um sistema. O presente estudo tem por objetivo identificar fatores sociais, técnicos, e financeiros, inibidores à adoção de Tecnologia da Informação avançadas, por parte das pequenas e médias empresas das Micro-Regiões da AMPLASC1 e AMMOC2. O método foi um estudo exploratório de corte transversal, onde, através de survey realizada junto a 62 empresas busca-se levantar as características da população pesquisada. O instrumento de coleta de dados composto de 83 questões foi dividido em quatro partes: a) identificação do respondente e da organização; b) identificando a TI; c) identificação dos fatores técnicos inibidores; e d) identificação dos fatores sócio-culturais inibidores. A análise dos dados foi realizada primeiramente considerando a amostra total, depois quando as organizações eram estratificadas em Pequena e Média empresa, e, finalmente, quando estas organizações eram estratificadas pelo ramo de atividade (Comércio, Industria, e Serviço), demonstrando como os fatores mencionados na literatura mundial são entendidos como com potencialidade inibidoras pelas organizações da região em estudo. Pelos resultados da presente pesquisa é possível concluir que as empresas possuem uma infraestrutura em TI satisfatória aos usuários, que consideram, em sua grande maioria, suficiente os recursos de hardware e software disponibilizados pelas organizações para realização das suas atividades. Apesar disso, é possível verificar que a situação não é totalmente confortável. Isto é, ainda que os respondentes tenham considerado que a infraestrutura em TI seja suficiente, existem alguns fatores que dificultam uma utilização mais adequada das TIs. Conclui demonstrando que alguns fatores precisam ser trabalhados para que a gestão da informação possa trazer a eficiência, eficácia e efetividade as organizações da região do estudo.
A reconstrução da realidade com a informação digital : a emergência da dupla competência sociológica
Resumo:
As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.
Resumo:
Sistemas para a geração de eletricidade a partir de fontes renováveis de energia, com um mínimo impacto ambiental, apresentam uma contribuição energética cada vez mais significativa, sendo importante conhecer em detalhe o comportamento dos mesmos. A radiação solar e o vento podem se mostrar complementares, sendo interessante empregar uma combinação eólica e fotovoltaica em um sistema único. Os sistemas assim constituídos recebem o nome de sistemas híbridos eólico-fotovoltaicos e em algumas aplicações podem mostrar vantagens em relação aos sistemas singelos. Esta Tese tem por objetivo contribuir com o conhecimento sobre o comportamento de sistemas híbridos eólico-fotovoltaicos de pequeno porte. Para obter dados experimentais foi montado um protótipo no Laboratório de Energia Solar, constituído de um painel de 420 Wp e de um aerogerador de 400 W de potência nominal, sendo que para o acionamento do aerogerador foi instalado um túnel de vento. Para a observação do comportamento do sistema híbrido foi também montado um sistema de monitoramento, sendo analisadas na Tese as incertezas associadas às medições realizadas. O sistema de monitoramento forma parte de um sistema mais amplo, que permite também o controle da velocidade do vento no túnel de vento e a ativação automática de um conjunto de cargas resistivas para simular o perfil de consumo. A Tese discute os modelos matemáticos de todos os componentes do sistema, assim como as principais configurações que podem ser dadas aos sistemas híbridos. Foram realizadas várias experiências com o sistema híbrido que permitiram a coleta de informações sobre o comportamento dos componentes independentes e como um todo Essas informações, por sua vez, serviram de base para a validação de modelos matemáticos dos diversos componentes do sistema, que foram integrados em um programa computacional de simulação elaborado como parte desta Tese. Além dos resultados do funcionamento do sistema híbrido experimental, a Tese mostra os resultados do programa de simulação e faz uma estimativa da aplicação de sistemas híbridos semelhantes em localidades de Rio Grande do Sul, a partir da informação do Atlas Eólico do Estado.
Resumo:
O mundo globalizado de hoje conduz as organizações a buscarem, cada vez mais, a Reengenharia de Processos de Negócio ou BPR – Business Process Reengineering como uma solução para se manterem competitivas em seus respectivos mercados. Uma das tecnologias de informação que aparece como habilitadora da BPR é a tecnologia de Workflow (fluxos de trabalho), onde os WfMS – Workflow Management Systems ou Sistemas de Gerenciamento de Workflow, através de metodologias e software, facilitam a transformação que está sendo exigida às empresas para se manterem competitivas. Existem, atualmente, muitos estudos sobre WfMS, o que evidência esta como sendo uma área bastante próspera e em desenvolvimento. Apesar de existirem diversos WfMS comerciais com ferramentas para dar suporte à modelagem e, posterior, reengenharia dos processos de negócio, os recursos fornecidos para a reengenharia de processos que são voltados para a análise, teste e monitoramento de workflow, não levam em consideração os mecanismos de coordenação de atividades, inerentes à estrutura organizacional existente. Busca-se, através deste trabalho, estudar o problema do processo de reengenharia e da otimização de processos, a partir da análise de (sub)processos de WfMS, considerando alguns aspetos estruturais das organizações. Neste contexto, o objetivo deste trabalho é identificar e descrever, de forma sistemática, o relacionamento existente entre (sub)processos de workflow e mecanismos de coordenação de atividades. Com isso, pretende-se que com os resultados obtidos possam ser utilizados como ponto de partida para o desenvolvimento de um sistema automatizado para auxiliar na reengenharia de processos com base em WfMS.
Resumo:
O volume cada vez maior de informações que as pessoas estão precisando ter acesso, as especificidades dos ambientes onde elas encontram-se e suas características individuais são responsáveis pelo crescimento da área hipermídia adaptativa. Os sistemas desta área tentam antecipar as necessidades e desejos dos usuários, entregando-lhes um sistema o mais personalizado possível. Este trabalho distingue sistema hipermídia adaptável de sistema hipermídia adaptativo, conforme a participação do usuário na indicação de suas características ao sistema. Qualquer um destes sistemas podem ser usados em áreas tais como hipermídia educacional, informação on-line, ajuda on-line, recuperação de informações, informação institucional e gerenciamento de visões personalizadas em espaços de informações. Um sistema hipermídia com característica de adaptatividade deve considerar dados do usuário, dados de utilização e dados do ambiente. Os dados do usuário são considerados na maioria dos sistemas e usados para construir o modelo do usuário, que é uma das principais partes de um sistema da área hipermídia adaptativa. O modelo do usuário geralmente mantém informações sobre preferências, conhecimento, interesse, objetivos, background e traços de personalidade do usuário. Além do modelo do usuário, existem também o modelo do domínio e as formas de adaptação presentes em muitos modelos. Por exemplo, o modelo AHAM (Adaptive Hypermedia Application Model) define através de regras os referidos modelos e é apresentado de forma sucinta neste trabalho. As formas de adaptação de um sistema hipermídia são realizadas, usando duas tecnologias principais de adaptação: apresentação adaptativa, que inclui todas as técnicas que adaptam o conteúdo de uma página de acordo com o modelo do usuário e suporte à navegação adaptativa, que abrange as técnicas que manipulam os links de uma apresentação para adequar o hiperespaço navegacional conforme o modelo do usuário. Atualmente, existem diversos sistemas com ferramentas de autoria que permitem construir apresentações adaptativas e controlar seu processo de adaptação. Um dos sistemas que considera a maior quantidade de características adaptativas do usuário e que está disponível para as plataformas mais difundidas é o sistema AHA! (Adaptive Hypermedia Architecture) que é apresentado neste trabalho. A percepção de que o uso de uma ferramenta de autoria para hipermídia adaptativa não garante que uma apresentação seja construída com alto grau de adaptatividade impulsionou o desenvolvimento de um sistema chamado AdaptAvaliador, capaz de avaliar o grau de adaptatividade de uma apresentação em diversos aspectos. Devido às diferenças de sintaxe das apresentações criadas por diferentes ferramentas de autoria, o AdapAvaliador apenas avalia apresentações construídas no AHA!. As características, arquitetura e funcionamento do sistema de avaliação de apresentações hipermídia adaptativas são apresentadas em detalhes no presente trabalho. Para testar a eficácia do AdaptAvaliador foi desenvolvido um curso, usando o AHA!, e submetido para avaliação pelo AdaptAvaliador. O curso e os resultados obtidos com a avaliação são também apresentados neste trabalho.
Resumo:
Neste trabalho objetivou-se estudar como as diferenças no nível de conhecimento do decisor afetam a tomada de decisões, procurando aumentar o entendimento de diferentes resultados do processo decisório. Contemplou-se três grandes áreas: o processo decisório, a perspectiva cognitiva no processo decisório e a influência do nível de conhecimento sobre o objeto de decisão no processo de decisão. Utilizando uma tarefa decisória com múltiplas alternativas e múltiplos atributos realizou-se uma pesquisa do tipo experimental onde foram controladas as variáveis qualidade da informação, complexidade da tarefa decisória e tomadores de decisão especialistas e novatos. Após formuladas e testadas as hipóteses, chegou-se à conclusão de que decisores com menos conhecimento possuem menor autoconfiança excessiva e menor consistência no resultado da decisão do que decisores com mais conhecimento, sendo indiferente o consenso na comparação entre os mesmos. Quanto às estratégias decisórias, os decisores com menos conhecimento se utilizam mais de estratégias não compensatórias para chegar a escolha do que decisores com mais conhecimento. Tomadores de decisão com mais conhecimento cometem menor número de transgressões do método multicritério do que aqueles com menos conhecimento, porém há indicações de que os primeiros possuem mais motivos explícitos para as transgressões do que os últimos. Os dois grupos não diferem significativamente no tempo e número de passos para resolução das tarefas, mas durante o processo decisório para chegar a decisão final, os decisores com mais conhecimento são mais lineares do que aqueles com menos conhecimento, ou seja, se valem de menor número de passos e repetições para chegar à escolha final.
Resumo:
O conhecimento organizacional vem se convertendo em um dos principais tópicos de interesse dos gestores, uma vez que as organizações passam a compreendê-lo como seu principal recurso e fonte de vantagem competitiva. Assim, a gestão de conhecimento procura identificar e desenvolver o conhecimento coletivo da organização para aumentar a capacidade de inovação e resposta e ajudá-la a competir. Considera-se que o sucesso da gestão de conhecimento depende mais das pessoas do que da tecnologia empregada, ao mesmo tempo em que se reconhece que a disponibilidade de novas tecnologias de informação tem proporcionado grande impulso a estas iniciativas. Esta pesquisa objetiva compreender como a tecnologia de informação está sendo utilizada no suporte a estratégias de gestão de conhecimento em organizações fabricantes de software. Para isto, apresenta um estudo de caso com uma empresa desta área, que analisa o modelo de Hansen et al. de estratégias de gestão de conhecimento e explora algumas lacunas encontradas neste modelo. O resultado da pesquisa é sintetizado na fase final, que apresenta um esquema conceitual sugerindo adições ao modelo original.
Resumo:
Apesar da importância dos investimentos em TI para o aumento da produtividade e da eficiência das empresas prestadoras de serviços contábeis, percebe-se a falta de modelos que mensurem os impactos na área. Esta dissertação tem como objetivo identificar os impactos dos investimentos em TI nas variáveis estratégicas das empresas prestadoras de serviços contábeis estabelecidas no Estado do Rio Grande do Sul. Com base na revisão da literatura de Sistemas de Informação (SI) obteve-se o modelo inicial de pesquisa. O processo de validação e refinamento do instrumento utilizou procedimentos qualitativos e quantitativos como: validade de face e conteúdo, análise de fidedignidade (alfa de Cronbach), análise de correlação itemtotal corrigido (CITC), análise fatorial exploratória nos blocos e entre os blocos e análise fatorial confirmatória. Como resultado desses processos de validação e refinamento obteve-se um instrumento de pesquisa composto por 19 itens e sete variáveis (competitividade, custos, mercado, produtos e serviços, produtividade, eficiência organizacional interna e coordenação interorganizacional). Como método foi utilizada a pesquisa survey, aplicada a uma amostra de 158 empresas. Os resultados mostram que o impacto da TI ocorre com maior intensidade na variável estratégica produtividade, seguida da coordenação interorganizacional, e com menos intensidade em custos e mercado. A análise de variância mostrou que não há diferenças estatisticamente significativas entre os grupos de respondentes. Foi realizada também a análise de regressão, utilizando como variáveis dependentes a competitividade e a produtividade, e como independentes, as demais variáveis. A eficiência organizacional interna foi apontada em ambos os casos como a mais importante. Buscando aprofundar a pesquisa, foram realizadas entrevistas com contabilistas, os quais ratificaram a maior parte dos resultados obtidos.
Resumo:
Grande parte das cidades brasileiras têm experimentado importantes perdas no número de passageiros transportados pelos sistemas de transporte coletivo. Inúmeras são as razões para este fato, dentre elas o não atendimento das necessidades dos usuários e a postura meramente reativa por parte de gestores e operadores. Na última década, os países desenvolvidos experimentaram importantes avanços tecnológicos, tendo como objetivos a reconquista e fidelização dos usuários. Entre as tecnologias aplicadas, estão os Sistemas Avançados de Transporte Urbano – APTS, que podem aparecer na forma de Sistemas de Ajuda à Operação e Sistemas de Informação ao Usuário, dentre outras. Esta dissertação foca sua atenção na instrumentação de uma estratégia de implementação de um sistema de informação ao usuário de transporte coletivo urbano por ônibus, avaliando suas preferências em relação aos diferentes tipos, formas e meios de disponibilização das informações. Para tanto, o modelo QFD (Quality Function Deployment) foi utilizado como ferramenta de apoio.
Resumo:
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
Resumo:
A importância da validação de Sistemas de Apoio à Dedisão (SAD) cresce na medida em que o uso destes tem crescido a partir da facilidade de acesso das pessoas a computadores cada vez com maior capacidade de processamento e mais baratos. Este trabalho procura estabelecer um procedimento prático para um método de validação de SAD. Para tal, este procedimento foi aplicado na validação de um SAD financeiro na área de avaliação de opções. O método foi desenvolvido em três etapas básicas: validação conceitual, verificação e legitimidade, tendo apoio em uma metodologia desenvolvida por Borenstein e Becker (2001). As conclusões basearam-se em procedimentos qualitativos de validação, utilizando-se de testes de laboratório e de campo. Constatou-se que o método apresentou bons resultados, embora o caráter qualitativo da validação, demonstrando que este tem potencial para ser aplicado a outros sistemas, preenchendo uma lacuna na literatura de SAD.
Resumo:
O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.
Resumo:
Sistemas Gerenciadores de Workflow (SGWf) têm atraído muita atenção nos últimos anos, por serem baseados em um modelo simples que permite definir, executar e monitorar a execução de processos. Mas este esquema é um tanto quanto rígido e inflexível, apresentando alguns problemas quando da necessidade de sua utilização no controle de processos com características cooperativas, em que o comportamento humano deve ser levado em conta. Este tipo de processo deve apresentar uma certa flexibilidade de forma a possibilitar a troca de resultados entre tarefas, acabando com a dependência fim-início existente entre tarefas seqüenciais nos SGWfs tradicionais. A fim de possibilitar este tipo de comportamento, surge a antecipação de tarefas, que tem por objetivo oferecer meios de flexibilizar o fluxo de controle e o fluxo de dados para permitir que tarefas possam ser disparadas antes mesmo da conclusão de suas antecessoras. A antecipação implica no aumento da cooperação entre tarefas e em melhor desempenho com relação ao tempo de execução dos processos. O aumento na cooperação está relacionado diretamente à troca de resultados, permitindo que duas ou mais tarefas trabalhem sobre instâncias de um determinado dado que ainda está sendo produzido. O melhor desempenho deve-se ao paralelismo (parcial) criado entre tarefas que deveriam executar de maneira estritamente seqüencial, devido ao disparo das tarefas antes do previsto. Este trabalho então, apresenta um estudo das abordagens de flexibilização de SGWfs, visando encontrar maneiras de prover antecipação de tarefas. O principal objetivo do trabalho é verificar a melhoria de desempenho em termos de tempo de execução dos processos que se pode obter utilizando a antecipação de tarefas Para tal, foi desenvolvido um simulador que suporta a antecipação de tarefas e foram conduzidas simulações, que mostraram os ganhos e alguns padrões de comportamento da utilização da antecipação de tarefas. Para possibilitar o uso da antecipação em processos reais foram realizadas alterações na ferramenta de definição de processos Amaya Workflow e na máquina de workflow do projeto CEMT.