1000 resultados para Diagrama de fluxo de dados
Resumo:
Para estudar técnicas de amostragem, úteis ao mapeamento digital de solos (MDS), objetivou-se avaliar o efeito da variação da densidade de pontos amostrais com base em dados de áreas já mapeadas por métodos tradicionais na acurácia dos modelos de árvores de decisão (AD) para a geração de mapas de solos por MDS. Em duas bacias hidrográficas no noroeste do Rio Grande do Sul, usou-se, como referência, antigos mapas convencionais de solos na escala 1:50.000. A partir do modelo digital de elevação do terreno e da rede hidrográfica, foram gerados mapas das variáveis preditoras: elevação, declividade, curvatura, comprimento de fluxo, acúmulo de fluxo, índice de umidade topográfica e distância euclideana de rios. A escolha dos locais dos pontos amostrais foi aleatória e testaram-se densidades amostrais que variaram de 0,1 a 4 pontos/ha. O treinamento dos modelos foi realizado no software Weka, gerando-se modelos preditores usando diferentes tamanhos do nó final da AD para obter AD com tamanhos distintos. Quando não se controlou o tamanho das AD, o aumento da densidade de amostragem resultou no aumento da concordância com os mapas básicos de referências e no aumento do número de unidades de mapeamento preditas. Nas AD com tamanho controlado, o aumento da densidade de amostragem não influenciou a concordância com os mapas de referência e interferiu muito pouco no número de unidades de mapeamento preditas.
Resumo:
O objetivo deste trabalho foi avaliar a eficiência da aplicação do modelo SEBAL em estimar os fluxos de energia em superfície e a evapotranspiração diária, numa extensa área de cultivo de arroz irrigado, no município de Paraíso do Sul, RS, tendo como parâmetros dados do sensor ASTER. As variáveis estudadas constituem importantes parâmetros do tempo e do clima em estudos agrometeorológicos e de racionalização no uso da água. As metodologias convencionais de estimativa desses parâmetros são pontuais e geralmente apresentam incertezas, que aumentam quando o interesse é o comportamento espacial desses parâmetros. Aplicou-se o algoritmo "Surface Energy Balance Algorithm for Land" (SEBAL), em uma imagem do sensor "Advanced Spaceborne Thermal Emission and Reflection Radiometer" (ASTER). As estimativas obtidas foram comparadas com medições em campo, realizadas por uma estação micrometeorológica localizada no interior da área de estudo. As estimativas mais precisas foram as de fluxo de calor sensível e de evapotranspiração diária, e a estimativa que apresentou maior erro foi a do fluxo de calor no solo. A metodologia empregada foi capaz de reproduzir os fluxos de energia em superfície de maneira satisfatória para estudos agrometeorológicos e de rendimento de culturas.
Resumo:
As diversas técnicas de interpolação espacial adotadas oferecem desempenhos diferentes, de acordo com as características dos dados iniciais, e é muito comum encontrar avaliadores contando somente com R² (coeficiente de determinação múltiplo) e erro residual. Neste trabalho, objetivou-se aplicar o Diagrama de Taylor para analisar 15 métodos diferentes de interpolação espacial, em área com cultivo comercial de eucalipto, para comparação e escolha do melhor método de interpolação de um conjunto de valores da fração granulométrica do solo (argila), na profundidade de 0-0,20 m do solo. De acordo com os resultados, considera-se muito satisfatória a ferramenta do Diagrama de Taylor, pois, além de definir graficamente os melhores métodos de interpolação, essa ferramenta permite fazer escolhas entre eles, dentro de um conjunto menor e mais definido de informações; logo, optou-se pelo método Splines em detrimento da krigagem modelo linear. As estatísticas desses dois métodos estão muito próximas, com pequenas variações, estando o desvio-padrão do Splines mais próximo dos dados observados; logo, é o melhor método de interpolação para argila, na profundidade de 0-0,20 m do solo.
Resumo:
Os objetivos do presente trabalho foram desenvolver rotina computacional para a solução da equação de Yalin e do diagrama de Shields e avaliar uma equação simplificada para modelar a capacidade de transporte de sedimento num Latossolo Vermelho Distrófico que possa ser utilizada no Water Erosion Prediction Project - WEPP, assim como em outros modelos de predição da erosão do solo. A capacidade de transporte de sedimento para o fluxo superficial foi representada como função-potência da tensão cisalhante, a qual revelou ser aproximação da equação de Yalin. Essa equação simplificada pôde ser aplicada em resultados experimentais oriundos de topografia complexa. A equação simplificada demonstrou acuracidade em relação à equação de Yalin, quando calibrada utilizando-se da tensão média cisalhante. Testes de validação com dados independentes demonstraram que a equação simplificada foi eficiente para estimar a capacidade de transporte de sedimento.
Resumo:
O estudo do fluxo de água em zonas não saturadas do solo é de grande importância para pesquisas relacionadas à disponibilidade hídrica para o desenvolvimento das plantas. Devido ao alto custo, ao tempo demandado e ao esforço humano nas investigações de campo, os modelos matemáticos, aliados às técnicas numéricas e avanços computacionais, constituem-se em uma ferramenta importante na previsão desses estudos. No presente trabalho, objetivou-se solucionar a equação diferencial parcial não linear de Richards mediante a aplicação do Método de Elementos Finitos. Na aproximação espacial, foi empregada a adaptatividade com refinamento "h" na malha de elementos finitos e, na derivada temporal, foi aplicado o esquema de Euler Explícito. A função interpolação polinomial utilizada foi de grau 2, e a que garantiu a conservação de massa da estratégia de adaptação. Para a validação do modelo, foram utilizados dados disponíveis em literatura. A utilização da função interpolação polinomial de grau 2 e o refinamento "h", com considerável redução do tempo de execução da rotina computacional, permitiram uma boa concordância do modelo em comparação a soluções disponíveis na literatura.
Resumo:
OBJETIVO: Avaliar o fluxo sangüíneo portal na esquistossomose hepato-esplênica e o efeito tardio do tratamento cirúrgico na hemodinâmica portal. MÉTODO: Foram estudados 64 pacientes por Doppler dúplex: grupo I (pacientes com hipertensão portal esquistossomótica); grupo II (pacientes submetidos a desconexão ázigo-portal com esplenectomia) e grupo III (pacientes submetidos derivação esplenorrenal distal). RESULTADOS: O fluxo da veia porta foi maior no grupo I (1954,46 ± 693,73ml/min) e foi menor no grupo III (639,55 ± 285,86ml/min), neste correlacionou-se com o tempo pós-operatório (r=-0,67, p=0,0005). O fluxo sangüíneo portal do grupo II (1097,18 ± 342,12ml/min) foi semelhante ao de indivíduos normais. As mesmas alterações foram verificadas com relação ao diâmetro da veia porta nos grupos I, II, e III (cm): 1,46 ± 0,23; 1,12 ± 0,22; 0,93 ± 0,20, respectivamente. CONCLUSÕES: Estes dados sugerem que: 1) Existe hiperfluxo portal na fisiopatologia da hipertensão portal esquistossomótica; 2) o tratamento cirúrgico interferiu na hemodinâmica portal, diminuindo o fluxo sangüíneo da veia porta; 3) Esta redução do fluxo sangüíneo portal correlacionou-se com o tempo de seguimento pós-operatório no grupo III mas não no grupo II.
Resumo:
A densidade de fluxo de calor que atravessa uma superfície é classicamente determinada mediante a medição das temperaturas apropriadas e da aplicação da Lei de Fourier. Uma alternativa a esse procedimento é a utilização de transdutores de fluxo de calor, os quais geram um sinal elétrico proporcional ao fluxo térmico que os atravessa. Neste trabalho, processos de aquecimento e de resfriamento de alimentos foram estudados em laboratório, utilizando-se um recipiente de vidro cilíndrico para simular uma embalagem. Dois transdutores de fluxo de calor a gradiente tangencial foram previamente instalados no recipiente, revestindo completamente a superfície lateral do mesmo. O recipiente contendo a amostra foi inserido em banho de água circulante à temperatura constante. Os sinais fornecidos pelos transdutores e por termopares inseridos no interior do recipiente foram registrados por um sistema de aquisição de dados computadorizado. Os resultados obtidos com o uso dos transdutores foram comparados com aqueles obtidos através de balanços de energia realizados a partir dos dados experimentais de evolução temporal das temperaturas da amostra junto à superfície interna da embalagem e no centro da mesma. A comparação mostrou que os transdutores de fluxo de calor a gradiente tangencial puderam determinar os fluxos de calor, com tempo de resposta característico dos termopares. Os resultados apresentados mostraram a viabilidade de utilização desses fluxímetros no estudo não destrutivo e não invasivo dos processos de aquecimento e de resfriamento de alimentos, fornecendo informações complementares àquelas obtidas pelo uso de termopares instalados no interior da embalagem.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
A globalização eliminou, ao longo dos tempos, as fronteiras territoriais para os capitais financeiros e intelectuais e, conseqüentemente, tem exigido dos governos, empresas, administradores e investidores uma enorme variedade de informações para nortear investimentos potencialmente eficientes e geradores de riquezas capazes de atrair e mobilizar esses recursos. Empreendedores modernos, coadunados com essa nova realidade mundial, têm buscado nas teorias da administração financeira elementos importantes na análise de seus planos estratégicos e dos projetos de investimentos, buscando minimizar os riscos e maximizar os recursos financeiros disponíveis e suas estruturas físicas e materiais, além de conhecer e prever os desdobramentos de suas decisões sobre a perpetuidade de suas empresas. Esses novos visionários agregam valor econômico à empresa e aos investidores, pois suas decisões empresariais e de investimentos são tabuladas de forma a projetar seus empreendimentos no longo prazo, afastando, desde já, a insolvência das empresas como suporte sócio-econômico da dinâmica das nações. Os variados modelos desenvolvidos nos campos acadêmicos para as áreas de administração financeira, quer por desconhecimento, descaso dos administradores ou pela complexidade de alguns destes, ainda não foram disseminados para um grande contingente de empresas ao redor do planeta. Certos modelos possuem especificidades restritas ou se prestam a situações especiais. Alguns empreendedores ainda se utilizam dos resultados extraídos da contabilidade tradicional na definição de valor econômico de seus investimentos, de uma maneira geral, dando ênfase aos dados financeiros tradicionais originados na contabilidade Para corrigir está deficiência estrutural, os acadêmicos desenvolveram modelos que, acompanhados dos dados relatados pela contabilidade, da forma como se apresenta na atualidade, complementam e dão suporte aos envolvidos, objetivando a mensuração do valor econômico de seus empreendimentos e a eficiência de suas decisões. Dentre esses variados modelos, pode-se destacar o modelo de fluxo de caixa descontado (DFC), considerado uma ferramenta eficiente para a avaliação de investimentos ao capturar a agregação de valor do projeto no longo prazo e os riscos inseridos no mesmo, muitas vezes negligenciado pelos administradores. O modelo em questão, e os outros mais, serão, sumariamente, conceituados ao longo do presente estudo, buscando identificar as potencialidades de cada um e em que tipo de avaliação pode, ou deve, ser aplicado. Conclusivamente, serão aplicadas todas as premissas abstraídas do modelo DFC, recomendado por COPELAND, KOLLER e MURRIN (2002), ajustado às características da empresa, para conhecer o valor de mercado da Linck Agroindustrial Ltda.
Resumo:
O novo cenário mundial, marcado pela globalização e atingindo todos os tipos de empresas nos mais variados setores, é descrito como um ambiente de competição muito acirrada, no qual as empresas precisam encontrar soluções cada vez mais rápidas, com precisão e eficiência, entregando um valor maior para seus clientes e melhores retornos para os acionistas. Nesse ambiente, a informação é um fator primordial de diferenciação, sobrevivência e prosperidade para as organizações. Fluxos de informações confiáveis devem ser desenvolvidos, a fim de contribuir para uma melhor qualidade das decisões. O operador de central de atendimento, ou atendente como é conhecido no segmento, é um infomediário e deve ser preparado e treinado para melhor desempenhar o seu papel na coleta de dados e informações. Assim, o objetivo deste trabalho é propor um fluxo que disponibilize informações precisas e confiáveis a respeito dos clientes, a partir de contatos via central de atendimento da Telet, tornando o processo decisório mais ágil e com foco do cliente. Para isso, foram realizadas entrevistas para identificar as carências e as dificuldades de informações disponibilizadas pela Central de Atendimento às áreas clientes da empresa (marketing, planejamento,engenharia e TI), e foi aplicada uma pesquisa com os atendentes, buscando entender os fatores críticos que os levam a não registrar corretamente as demandas dos clientes, bem como o entendimento de seu papel na organização. Da análise dos dados das entrevistas com especialistas das áreas clientes e dos resultados da pesquisa, estruturada e aplicada em uma amostra de atendentes, emergiu a proposta de um novo fluxo de informações que qualifique a tomada de decisão. Constatou-se que não basta apenas a central de atendimento estar preparada, treinada e capacitada, para melhor atender o cliente e coletar dados e informações dos produtos e serviços. Um fluxo de informações estruturado é fundamental para que a informação trafegue até o destino correto, apoiando a tomada de decisão, permitindo a aprendizagem e a geração do conhecimento.
Resumo:
o objetivo deste trabalho foi analisar o Fluxo de Informações entre a CAIXA e os outros órgãos do Governo, na área de Fomento - Habitação e Saneamento, do Setor Público e com aplicação dos recursos do FGTS, e propor soluções que visem melhorar sua eficiência e eficácia, procurando dar maior transparência ao processo. Na realização do trabalho, foram selecionadas para análise as seguintes categorias: Capacidade de Pessoal, Sistema de Informação, Estrutura Organizacional e a questão Habitacional. A análise dos dados tomou possível propor o desenvolvimento de um sistema, que através de um modelo descentralizado, permita o tratamento das informações de forma mais eficiente e eficaz.
Resumo:
As atividades de exploração e produção de petróleo e gás no Brasil têm se tornado mais intensas ao longo desta última década, apresentando uma tendência de avanço em direção a ambientes de maior profundidade, onde se localizam grande parte das reservas de óleo já comprovadas. Os processos de exploração e produção de petróleo e gás apresentam muitas etapas com considerável potencial gerador de impactos ao meio ambiente, entre elas, a perfuração de poços exploratórios marítimos, objeto do presente estudo. Este estudo originou-se do Projeto MAPEM – Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Profundas), do qual foram utilizados os dados analisados nesta dissertação. O monitoramento foi realizado visando avaliar os efeitos da perfuração do poço Eagle, localizado em talude continental, região norte da Bacia de Campos, Brasil, próximo ao limite entre os estados do Rio de Janeiro e Espírito Santo, a 902 metros de profundidade. Foram coletadas amostras de sedimentos superficiais na região de entorno da atividade, em 48 estações de monitoramento e 6 estações de controle, durante os cruzeiros oceanográficos realizados um mês antes, um mês após e um ano após a perfuração. As análises dos sedimentos geraram informações sobre sua composição granulométrica, mineralógica (argilominerais e carbonato de cálcio) e química (hidrocarbonetos e metais), e foram comparadas em sua variação espacial (área de monitoramento/estações de controle) e temporal (3 cruzeiros oceanográficos). A variação temporal foi abordada de três maneiras distintas, onde o Cruzeiro I representou o background da área, a variação do Cruzeiro I para o II representou o impacto sobre a área de monitoramento e na variação do Cruzeiro II para o III, buscou-se evidências de recuperação da área monitorada com tendência de retorno às suas características iniciais O background da área definiu os níveis médios de todas variáveis analisadas, identificando, além de teores naturais para alguns dos componentes dos sedimentos, sinais de contaminação de origem antrópica, principalmente de As, Pb e hidrocarbonetos petrogênicos (n-alcanos) e pirogênicos (aromáticos). Na perfuração do poço Eagle foi utilizado fluido de base aquosa (FBA) e fluido de base sintética (FBS), dos quais se buscou identificar as áreas de influência e as alterações causadas nos sedimentos. Identificou-se a ocorrência de um fluxo gravitacional de massa, no período entre o Cruzeiro I e a perfuração, restrito ao cânion submarino que cruza a área de monitoramento, do qual também foi avaliada a influência sobre a composição dos sedimentos. A influência do FBA (indicada pelos teores de bário) estendeu-se por uma grande área, apresentando maiores concentrações nas estações próximas do poço. A área de influência do FBS (indicada pelos n-alcanos entre C14 e C22) apresentou distribuição mais restrita, em duas manchas, uma a norte e outra a oeste do poço. Além dos n-alcanos, foi identificado aumento dos teores de bário, UCM (mistura complexa não resolvida), fluoreno e acenaftaleno. O fluxo gravitacional de massa causou elevações na proporção de areia das estações do cânion submarino e redução do carbono orgânico. Efetivamente pode se concluir que a atividade de perfuração exerceu influência significativa nas propriedades químicas dos sedimentos, contudo, de improvável efeito tóxico sobre a biota. Pode-se concluir também que ocorreu recuperação da área, após o período de um ano, por redução das concentrações médias de algumas variáveis e sinais de reposição de n-alcanos naturais, porém não foi possível a identificação de degradação do material sintético utilizado no FBS.
Resumo:
O estudo em questão tem por objetivo atestar a eficácia do modelo do Fluxo de Caixa pelo Método Indireto em comparação ao Fluxo de Caixa Direto e à Demonstração de Origens e aplicações de Recursos, como sendo o instrumento mais recomendado para avaliar e mensurar a capacidade de geração de caixa em relação a um determinado período de tempo. O fundamento teórico foi baseado nos seguintes autores: Matarazzo (1998), Brigham e Houston (1999), Vinagre Brasil e Guimarães Brasil (1992); Sanvicente (1993), Assaf Neto (1991), Falcini (1992), Ross, Westerfild e Jaffe (1995), Hoji (2001), Brigham, Gapenski e Ehrhardt (2001), Campos (1999) e Gitman (2001). Para validar a questão central, foi elaborada uma análise dos dados relativos aos demonstrativos da Petrobrás SI A referentes aos anos de 2001 e 2000, comparando-se os resultados observados no Fluxo de Caixa Indireto com os da Demonstração de Origens e Aplicações de Recursos. A pesquisa conclui que o fluxo de caixa pelo método indireto é um instrumento útil para se avaliar qualitativamente a capacidade de geração de caixa, porém limitado às organizações de maior porte, em função da necessidade de um sistema integrado de planejamento e análise de informações gerenciais, que nem sempre é observado no universo das empresas de menor dimensão.
Resumo:
trata da determinação das taxas de desconto ajustadas ao risco para avaliação, pelo método do fluxo de caixa descontado, do valor econômico de estatais brasileiras privatizadas no período 1991-1992. Utiliza conceitos financeiros como valor presente líquido, eficiência de mercado, capital asset pricing model e risco sistemático, que são aplicados a dados do mercado de capitais e demonstrativos financeiros das empresas. Com as metodologias de regressão linear simples múltipla, desenvolve uma equação que relaciona índices fundamentais com os coeficientes de risco sistemático (betas) das empresas de uma amostra, que por sua vez serve para estimar os coeficientes de risco das estatais.
Resumo:
O presente trabalho compreende o estudo do fluxo de informações entre os agentes de uma cadeia produtiva, representada por uma cadeia organizada da carne bovina no Estado do Rio Grande do Sul. Os objetivos foram estudar os processos informacionais desta cadeia, identificando as informações utilizadas pelos agentes (produtores, frigoríficos e varejo) para promover o seu desenvolvimento. Juntamente com esses dados, foram identificadas as informações que estão sendo enviadas e recebidas pelos agentes e a percepção da qualidade da informação recebida pelos agentes que a constituem. A análise dos resultados foi subsidiada por uma base conceitual relevante para o estudo através da Gestão da Cadeia de Suprimentos, Economia dos Custos de Transação, Gerenciamento da Informação e Qualidade da Informação. A metodologia utilizada no trabalho foi o estudo de caso. Foram estudados um hipermercado, um frigorífico e cinco produtores, todos pertencentes à mesma cadeia produtiva. Os resultados obtidos demonstram que o fluxo de informações entre os agentes da cadeia produtiva é insatisfatório frente às informações que os agentes detém. A estruturação do processo informacional do setor de varejo limita-se basicamente as informações geradas no próprio varejo. Por outro lado, o processo do setor industrial é mais amplo, compreendendo varias fontes de informações. Entretanto, os produtores, apresentam processos informacionais deficientes, com poucas fontes de informação. A mensuração da qualidade das informações que fluem na cadeia produtiva apresentou bons índices de qualidade. Entretanto as informações de origem externa a cadeia caracterizaram-se por apresentarem índices inferiores de qualidade da informação.