980 resultados para Modelagem : Workflow
Resumo:
Workflow reuse is a major benefit of workflow systems and shared workflow repositories, but there are barely any studies that quantify the degree of reuse of workflows or the practical barriers that may stand in the way of successful reuse. In our own work, we hypothesize that defining workflow fragments improves reuse, since end-to-end workflows may be very specific and only partially reusable by others. This paper reports on a study of the current use of workflows and workflow fragments in labs that use the LONI Pipeline, a popular workflow system used mainly for neuroimaging research that enables users to define and reuse workflow fragments. We present an overview of the benefits of workflows and workflow fragments reported by users in informal discussions. We also report on a survey of researchers in a lab that has the LONI Pipeline installed, asking them about their experiences with reuse of workflow fragments and the actual benefits they perceive. This leads to quantifiable indicators of the reuse of workflows and workflow fragments in practice. Finally, we discuss barriers to further adoption of workflow fragments and workflow reuse that motivate further work.
Resumo:
La reproducibilidad de estudios y resultados científicos es una meta a tener en cuenta por cualquier científico a la hora de publicar el producto de una investigación. El auge de la ciencia computacional, como una forma de llevar a cabo estudios empíricos haciendo uso de modelos matemáticos y simulaciones, ha derivado en una serie de nuevos retos con respecto a la reproducibilidad de dichos experimentos. La adopción de los flujos de trabajo como método para especificar el procedimiento científico de estos experimentos, así como las iniciativas orientadas a la conservación de los datos experimentales desarrolladas en las últimas décadas, han solucionado parcialmente este problema. Sin embargo, para afrontarlo de forma completa, la conservación y reproducibilidad del equipamiento computacional asociado a los flujos de trabajo científicos deben ser tenidas en cuenta. La amplia gama de recursos hardware y software necesarios para ejecutar un flujo de trabajo científico hace que sea necesario aportar una descripción completa detallando que recursos son necesarios y como estos deben de ser configurados. En esta tesis abordamos la reproducibilidad de los entornos de ejecución para flujos de trabajo científicos, mediante su documentación usando un modelo formal que puede ser usado para obtener un entorno equivalente. Para ello, se ha propuesto un conjunto de modelos para representar y relacionar los conceptos relevantes de dichos entornos, así como un conjunto de herramientas que hacen uso de dichos módulos para generar una descripción de la infraestructura, y un algoritmo capaz de generar una nueva especificación de entorno de ejecución a partir de dicha descripción, la cual puede ser usada para recrearlo usando técnicas de virtualización. Estas contribuciones han sido aplicadas a un conjunto representativo de experimentos científicos pertenecientes a diferentes dominios de la ciencia, exponiendo cada uno de ellos diferentes requisitos hardware y software. Los resultados obtenidos muestran la viabilidad de propuesta desarrollada, reproduciendo de forma satisfactoria los experimentos estudiados en diferentes entornos de virtualización. ABSTRACT Reproducibility of scientific studies and results is a goal that every scientist must pursuit when announcing research outcomes. The rise of computational science, as a way of conducting empirical studies by using mathematical models and simulations, have opened a new range of challenges in this context. The adoption of workflows as a way of detailing the scientific procedure of these experiments, along with the experimental data conservation initiatives that have been undertaken during last decades, have partially eased this problem. However, in order to fully address it, the conservation and reproducibility of the computational equipment related to them must be also considered. The wide range of software and hardware resources required to execute a scientific workflow implies that a comprehensive description detailing what those resources are and how they are arranged is necessary. In this thesis we address the issue of reproducibility of execution environments for scientific workflows, by documenting them in a formalized way, which can be later used to obtain and equivalent one. In order to do so, we propose a set of semantic models for representing and relating the relevant information of those environments, as well as a set of tools that uses these models for generating a description of the infrastructure, and an algorithmic process that consumes these descriptions for deriving a new execution environment specification, which can be enacted into a new equivalent one using virtualization solutions. We apply these three contributions to a set of representative scientific experiments, belonging to different scientific domains, and exposing different software and hardware requirements. The obtained results prove the feasibility of the proposed approach, by successfully reproducing the target experiments under different virtualization environments.
Resumo:
Postprint
Resumo:
Nos países em desenvolvimento, como o Brasil, a secagem de produtos agrícolas com uso de secador solar representa uma alternativa promissora de baixo custo, reduzindo perdas e agregando valor aos produtos. Porém, devido à natureza periódica da radiação solar e das condições do tempo, nem sempre é viável sua utilização. Dessa forma, o objetivo do trabalho foi a modelagem de um sistema auxiliar de armazenagem de energia térmica (SAET) em um secador solar, cuja finalidade é armazenar energia durante o dia para ser utilizada conforme necessário. Com base em registros de temperatura e umidade relativa, ambas do ar, de um secador solar, foi feito um estudo da termodinâmica dos processos envolvidos, a fim de propor meios para o dimensionamento do SAET. Foram explorados a estimativa do fluxo de massa de ar no secador, a modelagem da temperatura em função da radiação, e o dimensionamento para diferentes modos de operação do SAET, considerando o sistema ideal. Este dimensionamento tratou tanto do caso de fornecimento contínuo de fluxo de água preaquecida, como de uso de automação para controlar o fluxo. A estimativa de fluxo de ar no secador se aproximou de valores típicos encontrados na literatura. O dimensionamento do sistema, embora considerado ideal, mostra que a utilização do SAET melhora o desempenho do secador, servindo como parâmetro para melhor compreender o comportamento das variáveis durante seu funcionamento.
Resumo:
Atualmente vêm sendo desenvolvidas e utilizadas várias técnicas de modelagem de distribuição geográfica de espécies com os mais variados objetivos. Algumas dessas técnicas envolvem modelagem baseada em análise ambiental, nas quais os algoritmos procuram por condições ambientais semelhantes àquelas onde as espécies foram encontradas, resultando em áreas potenciais onde as condições ambientais seriam propícias ao desenvolvimento dessas espécies. O presente estudo trata do uso da modelagem preditiva de distribuição geográfica, através da utilização de algoritmo genético e algoritmo de distância, de espécies como ferramenta para a conservação de espécies vegetais, em três situações distintas: modelagem da distribuição do bioma cerrado no estado de São Paulo; previsão da ocorrência de espécies arbóreas visando à restauração da cobertura vegetal na bacia do Médio Paranapanema e modelagem da distribuição de espécies ameaçadas de extinção (Byrsonima subterranea). A metodologia empregada e os resultados obtidos foram considerados satisfatórios para a geração de modelos de distribuição geográfica de espécies vegetais, baseados em dados abióticos, para as regiões de estudo. A eficácia do modelo em predizer a ocorrência de espécies do cerrado é maior se forem utilizados apenas pontos de amostragem com fisionomias de cerrado, excluindo-se áreas de transição. Para minimizar problemas decorrentes da falta de convergência do algoritmo utilizado GARP (Genetic Algorithm for Rule Set Production), foram gerados 100 modelos para cada espécie modelada. O uso de modelagem pode auxiliar no entendimento dos padrões de distribuição de um bioma ou ecossistema em uma análise regional e local.
Resumo:
Este trabalho apresenta o controle de posição e orientação de um modelo não linear de Plataforma de Stewart com seis graus de liberdade construído no ambiente de sistemas multicorpos ADAMS® desenvolvido pela Mechanical Dynamics, Inc. O modelo não linear é exportado para o ambiente SIMULINK® desenvolvido pela MathWorks, Inc., onde o controle de posição e orientação é realizado a partir da linearização do modelo e a aplicação de um sistema seguidor com realimentação de estados. Utililiza-se, também o SIMULINK® para implementar a dinâmica de um sistema servoválvula e cilindro hidráulico com um servocontrole de pressão e assim simular o comportamento dinâmico de um simulador de vôo com acionamento hidráulico. A utilização destes pacotes comerciais visa obter uma economia de tempo e esforço na modelagem de sistemas mecânicos complexos e na programação para obtenção da resposta do sistema no tempo, além de facilitar a análise de várias configurações de Plataformas de Stewart
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
Esse trabalho constitui o desenvolvimento da modelagem térmica e simulação por métodos numéricos de dois componentes fundamentais do ciclo de refrigeração por absorção de calor com o par amônia/água: o absorvedor e o gerador. A função do absorvedor é produzir mistura líquida com alta fração mássica de amônia a partir de mistura líquida com baixa fração mássica de amônia e mistura vapor mediante retirada de calor. A função do gerador é produzir mistura líquido/vapor a partir de mistura líquida mediante o fornecimento de calor. É proposto o uso da tecnologia de filmes descendentes sobre placas inclinadas e o método de diferenças finitas para dividir o comprimento da placa em volumes de controle discretos e realizar os balanços de massa, espécie de amônia e energia juntamente com as equações de transferência de calor e massa para o filme descendente. O objetivo desse trabalho é obter um modelo matemático simplificado para ser utilizado em controle e otimização. Esse modelo foi utilizado para calcular as trocas de calor e massa no absorvedor e gerador para diversas condições a partir de dados operacionais, tais como: dimensões desses componentes, ângulo de inclinação da placa, temperatura de superfície e condições de entrada da fase líquida e vapor. Esses resultados foram utilizados para estabelecer relações de causa e efeito entre as variáveis e parâmetros do problema. Os resultados mostraram que o ângulo de inclinação da placa ótimo tanto para o absorvedor como para o gerador é a posição vertical, ou 90°. A posição vertical proporciona o menor comprimento de equilíbrio (0,85 m para o absorvedor e 1,27 m para o gerador com as condições testadas) e se mostrou estável, pois até 75° não foram verificadas variações no funcionamento do absorvedor e gerador. Dentre as condições testadas para uma placa de 0,5 m verificou-se que as maiores efetividades térmicas no absorvedor e gerador foram respectivamente 0,9 e 0,7 e as maiores efetividades mássicas no absorvedor e gerador foram respectivamente 0,6 e 0,5. É esperado que os dados obtidos sejam utilizados em trabalhos futuros para a construção de um protótipo laboratorial e na validação do modelo.
Resumo:
Mudança climática é um processo global, real e inequívoco. Para sua mitigação, a substituição de combustíveis fósseis por energias renováveis está sendo cada vez mais empregada. Devido à rápida velocidade de crescimento das microalgas, seu cultivo é visto como uma das alternativas mais promissoras para a produção de biocombustíveis. No presente trabalho, foi elaborado um modelo matemático fenomenológico que descreve o crescimento da microalga Chlorella vulgaris. Este modelo foi validado através de experimentos realizados em um reator piloto com capacidade de 1000 L tipo \"open pond\" (reator de raias) aberto ao ambiente, em condições não-axênicas. A variação de concentração devida à evaporação e/ou adição de água foi levada em conta no modelo. O modelo matemático desenvolvido, contendo dois parâmetros ajustáveis, descreve a variação da concentração de biomassa em função do tempo sob condições variáveis de luminosidade e temperatura. Os parâmetros ajustáveis são q (constante para conversão de intensidade luminosa em crescimento fotossintético, em klux-1 min-1) e Imax (limite máximo de intensidade luminosa, em klux). Previamente ao projeto do reator, foram realizados experimentos em reator de laboratório (utilizando a metodologia Taguchi) com o objetivo de determinar quais os fatores mais críticos para o crescimento da espécie de microalga selecionada e que, por isso, deveriam ser controlados com maior precisão. Além disso, foi analisada teoricamente a relevância da consideração do transporte de massa de CO2 no processo. Como este transporte é muito mais lento, a resistência controladora do processo é o crescimento fotossintético. Após a construção do reator piloto, foram realizados dois experimentos preliminares (os quais serviram para aperfeiçoar o aparato e o procedimento experimental) e três experimentos definitivos, registrando-se dados ambientais (temperatura, intensidade luminosa e pH) e de concentração ao longo do tempo. Utilizando os dados de temperatura e luminosidade em função do tempo como entrada, os parâmetros q e Imax otimizados foram ajustados às curvas de concentração versus tempo de cada experimento. Para tal foram desenvolvidos programas de integração de equações diferenciais e de otimização escritos em ambiente Scilab®. Verificou-se que, apesar da variabilidade devida às condições ambientais dos experimentos, obteve-se boa aderência dos dados simulados aos experimentais. Uma análise estatística dos parâmetros q e Imax calculados em cada experimento forneceu coeficientes de variação para estes parâmetros de 17 % e 5 %, respectivamente. Concluiu-se, portanto, que o modelo matemático desenvolvido neste trabalho pode ser empregado para prever o desempenho de um reator de raias em condições ambientais variáveis, bastando para isto o ajuste de dois parâmetros.
Resumo:
No mercado global e digital, as empresas são desafiadas a encontrar caminhos inovadores para atender o aumento da pressão -competitiva. A competição é uma das formas de interação das organizações, além da colaboração e da cooperação. A cooperação e a colaboração apresentam formas de produzir conjuntamente aumentando o potencial de atendimento das empresas. Os desafios mais encontrados no mercado são: reduzir os custos, sempre assegurar qualidade e personalizar os produtos e serviços. Um fenômeno de negócios comum hoje é a terceirização da manufatura e da logística para fornecedores domésticos e estrangeiros e provedores de serviços. Essa terceirização provoca, intrinsecamente, um espalhamento geográfico da produção em novos centros que oferecem vantagens nos recursos energéticos, matérias primas e centros de produção de conhecimento. Essa terceirização pode ser realizada também nas formas de colaboração e cooperação. Para isso, as empresas necessitam estabelecer uma forma de confiança entre si. No conceito de empresa virtual, a confiança é amplamente discutida para atingir uma colaboração e/ou cooperação entre empresas. O objetivo deste trabalho é propor e modelar uma ferramenta que atenda as necessidades das empresas para colaboração e/ou cooperação entre elas, considerando suas necessidades de confiança. As empresas aqui são vistas como sistemas produtivos, com suas camadas de gerenciamento de negócios, de acordo com o padrão ANSI/ISA 95. Além disso, um tipo de interpretação da rede de Petri, chamada de rede de Petri produtiva é introduzida como ferramenta para descrever o processo produtivo realizado pelas empresas na forma de workflow. A modelagem dessa arquitetura do sistema produtivo utiliza técnicas de sistemas distribuídos, como a arquitetura orientada a serviços. Além disso, um dos enfoques é das necessidades para o desenvolvimento de novos produtos, que envolve o desafio de personalização. Testes foram realizados para avaliar a proposta de workflow com pessoas de diferentes níveis de conhecimento sobre os processos, sejam de manufatura, sejam de outras áreas. Já a arquitetura proposta foi submetida a um estudo analítico das hipóteses levantadas no ambiente colaborativo.
Resumo:
Devido ao esgotamento de recursos não renováveis e o aumento das preocupações sobre as alterações climáticas, a produção de combustível renovável a partir de microalgas continua a atrair muita a atenção devido ao seu potencial para taxas rápidas de crescimento, alto teor de óleo, capacidade de crescer em cenários não convencionais e a neutralidade de carbono, além de eliminar a preocupação da disputa com as culturas alimentares. Em virtude disso, torna-se importante o desenvolvimento de um processo de conversão das microalgas em gás combustível, em destaque o gás de síntese. Visando essa importância, estudou-se a reação de gaseificação da microalga Chlorella vulgaris através de experimentos de análise termogravimétrica para estimar os parâmetros cinéticos das reações e através da simulação de um modelo matemático dinâmico termoquímico do processo usando equações de conservação de massa e energia acoplados a cinética de reação. Análises termogravimétricas isotérmicas e dinâmicas foram realizadas usando dois diferentes tipos de modelos cinéticos: isoconversionais e reações paralelas independentes (RPI). Em ambos os modelos, os valores dos parâmetros cinéticos estimados apresentaram bons ajustes e permaneceram dentro daqueles encontrados na literatura. Também foram analisados os efeitos dos parâmetros cinéticos do modelo RPI sobre a conversão da microalga no intuito de observar quais mais se pronunciavam diante a variação de valores. Na etapa de simulação do sistema controlado pelo reator solar, o modelo matemático desenvolvido foi validado por meio da comparação dos valores de temperatura e concentrações de produtos obtidos medidos experimentalmente pela literatura, apresentando boa aproximação nos valores e viabilizando, juntamente com a etapa experimental de termogravimetria, a produção de gás de síntese através da gaseificação da microalga Chlorella vulgaris.
Resumo:
Em um cenário de aumento de competitividade, crescente expectativa por inovações do produto e necessidade de atender diferentes perfis de consumidores, o conceito de gerenciamento de cadeias de suprimentos globais (GSCM) surge como uma estratégia para coordenar mais eficazmente as atividades dispersas geograficamente dos sistemas produtivos. Na adoção do GSCM, as organizações devem lidar com rupturas que impactam no gerenciamento das suas atividades, tais como a interrupção de vias de transporte, pane no fornecimento de energia, desastres naturais e até ataques terroristas. Nesse contexto, o trabalho introduz um procedimento sistematizado para modelagem das cadeias de suprimentos visto como um sistema a eventos discretos e sua análise por simulação das atividades do GSCM baseada em técnicas formais como a rede de Petri (PN) e o Production Flow Schema (PFS). Um exemplo é também apresentado para ilustrar e comprovar as vantagens do método proposto na análise do GSCM.
Resumo:
A doença de Chagas é uma parasitose extremamente negligenciada, cujo agente etiológico é o protozoário Trypanosoma cruzi. Atualmente, 21 países da América Latina são considerados regiões endêmicas, onde 75-90 milhões de pessoas estão expostas à infecção, 6-7 milhões estão infectadas e mais de 41 mil novos casos surgem por ano. Entretanto, apenas os fármacos nifurtimox e benznidazol estão disponíveis no mercado. Estes, além da baixa eficácia na fase crônica da parasitose, apresentam diversos efeitos adversos, sendo que no Brasil apenas o benznidazol é utilizado. Este fato mostra a importância de se ampliar o número de fármacos disponíveis e propor quimioterapia mais eficaz para o tratamento da doença de Chagas. Como forma de contribuir para essa busca, este trabalho objetiva a síntese de compostos híbridos bioisostéricos N-acilidrazônicos e sulfonilidrazônicos, contendo grupo liberador de óxido nítrico, com potencial de interação com cisteíno-proteases parasitárias, tais como a cruzaína. Nestes derivados, os grupos liberadores de óxido nítrico utilizados foram os grupos furoxano (contendo substituinte metílico e fenílico) e éster nitrato. Propôs-se a variação de anéis aromáticos substituídos e não-substituídos, com o intuito de avaliar a possível relação estrutura-atividade (REA) desses análogos. Até o momento, somente os compostos da série N-acilidrazônica tiveram avaliação biológica realizada. Os valores de IC50 dos compostos na forma amastigota do parasita variaram entre >100 a 2,88 µM, sendo este último valor comparável ao fármaco de referência. A atividade inibitória frente à cruzaína foi de 25,2 µM a 2,2 µM. Já a liberação de óxido nítrico foi avaliada pelo método indireto de detecção de nitrato e os valores variaram entre 52,0 µM e 4.232,0 µM. Estes são bem inferiores ao composto padrão, além de não se identificar correlação direta entre a atividade biológica e a liberação de NO. Na sequência, os dois compostos mais ativos (6 e 14) foram submetidos a estudos de permeabilidade e de citotoxicidade. O composto 6 foi considerado o de maior permeabilidade segundo o Sistema de Classificação Biofarmacêutica (SCB) e todos os compostos apresentaram a taxa de fluxo menor que 2, indicando a ausência de mecanismo de efluxo. Na avaliação do potencial citotóxico desses compostos em células humanas, o derivado 6 apresentou índice de seletividade superior ao do benznidazol. Em estudos de modelagem molecular usando análise exploratória de dados (HCA e PCA), propriedades estéricas/geométricas e eletrônicas foram consideradas as mais relevantes para a atividade biológica. Além disso, estudos de docking mostraram que a posição do grupo nitro no anel aromático é importante para a interação com a cruzaína. Ademais o composto 6 não provocou mudanças significativas no ciclo celular e na fragmentação de DNA em células humanas, mostrando-se como líder promissor para futuros estudos in vivo. Atividade tripanomicida, citotoxicidade, potencial de liberação de NO e estudos de permeabilidade dos 23 derivados sulfonilidrazônicos e ésteres nitrato estão sendo avaliados.
Resumo:
Esta tese trata de um robô bípede em caminhar dinâmico. Neste robô, que normalmente é um sistema sub-atuado, fazemos uso de um disco de inércia que funciona num certo sentido como um atuador adicional. Através deste disco, obtém-se mais liberdade para a elaboração de passos repetitivos e um aumento na robustez. Por outro lado, o sistema de controle dos passos deve controlar, além do passo propriamente dito, também a velocidade do disco, de modo que não sejam saturados os atuadores (motores elétricos). Apresentamos então um controlador capaz de realizar estas ações simultaneamente.
Resumo:
Em testes nos quais uma quantidade considerável de indivíduos não dispõe de tempo suciente para responder todos os itens temos o que é chamado de efeito de Speededness. O uso do modelo unidimensional da Teoria da Resposta ao Item (TRI) em testes com speededness pode nos levar a uma série de interpretações errôneas uma vez que nesse modelo é suposto que os respondentes possuem tempo suciente para responder todos os itens. Nesse trabalho, desenvolvemos uma análise Bayesiana do modelo tri-dimensional da TRI proposto por Wollack e Cohen (2005) considerando uma estrutura de dependência entre as distribuições a priori dos traços latentes a qual modelamos com o uso de cópulas. Apresentamos um processo de estimação para o modelo proposto e fazemos um estudo de simulação comparativo com a análise realizada por Bazan et al. (2010) na qual foi utilizada distribuições a priori independentes para os traços latentes. Finalmente, fazemos uma análise de sensibilidade do modelo em estudo e apresentamos uma aplicação levando em conta um conjunto de dados reais proveniente de um subteste do EGRA, chamado de Nonsense Words, realizado no Peru em 2007. Nesse subteste os alunos são avaliados por via oral efetuando a leitura, sequencialmente, de 50 palavras sem sentidos em 60 segundos o que caracteriza a presença do efeito speededness.