118 resultados para Método Delphi
Resumo:
O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.
Resumo:
O desenvolvimento de um método analítico para determinação de Mg, Ti e Cl emcatalisadores suportados Ziegler-Natta (ZN) por espectroscopia de fluorescência de raios Xcom dispersão em comprimento de onda (WDXRF) foi avaliado. Três famílias decatalisadores com distintos teores de Mg, Ti e Cl foram utilizados. Para fins de comparação,os analitos foram também determinados por métodos clássicos, a saber, Mg porcomplexometria com EDTA, Ti por espectrofotometria e Cl por argentimetria. A naturezahigroscópica desses catalisadores impossibilitou a análise direta por WDXRF. Melhoresresultados na preparação da amostra foram obtidos através da calcinação (1000 0C), seguida de mistura com aglomerante (H3BO3), na proporção 1:4, para a determinação da razãoMg/Ti. O estudo do efeito da pressão sobre a intensidade do sinal analítico de Mg e de Ti evidencioua necessidade de prensagem das amostras em pressões superiores a 200 MPa. No caso de Mg e Ti, a determinação por Parâmetros Fundamentais (FP), a partir da medida da linha espectral do Ti, forneceu resultados equivalentes àqueles obtidos porcalibração univariada e por métodos clássicos. No entanto, a utilização de FP a partir damedida da linha espectral do Mg mostrou-se inadequada, provavelmente, devido ao baixo valor do número atômico do Mg. Nas três famílias de catalisadores ZN a razão Mg/Tiobservada foi 0,44 ± 0,01; 1,8 ± 0,05 e 4,9 ± 0,02. A determinação de Cl foi estudada através de extração em meio aquoso, seguida pordeposição de um alíquota da solução sobre diferentes suportes (filmes finos) e posteriorevaporação do solvente. Foram avaliados os suportes papel filtro quantitativo, membranasMillipore FHLC Teflon®, de difluoreto de polivinilideno, celulose, Nylon®, fita Kapton®(poliamida) e Mylar® (poliéster). Devido à natureza do Cl, houve perdas do elemento químicopor volatilização, durante as medidas, possivelmente devido ao vácuo e aquecimento daamostra dentro da câmara de análise do equipamento. A tentativa de fixação do Cl comoAgCl, seguida por deposição sobre a membrana Millipore FHLC foi considerada adequada.No entanto, a média dos resultados obtidos por WDXRF mostrou-se inferior quando comparada ao método argentimétrico utilizado como referência, para um nível de certeza de95%.
Resumo:
O sistema produtivo orgânico está sujeito a uma série de variáveis, as quais afetam o processo decisório do gestor, pois indicam características e probabilidade de resultados, como em qualquer sistema. A necessidade de uma fundamentação informacional confiável e organizada, para auxiliar o gerenciamento da produção orgânica, foi o fato gerador dessa pesquisa. Assim, por exemplo, para definir qual variedade convém plantar, é preciso conhecer o solo, o clima, a capacidade de liberação de nutrientes, etc, a fim de escolher a varietal mais adequada às condições específicas do local e obter a melhor produtividade possível. A produção orgânica busca interagir, convivendo com a heterogeneidade encontrada no ecossistema, evitando fortes impactos ambientais, embora aumentando o número de variáveis, se comparado à produção industrial. Através do método ABC – custeio baseado em atividades, foram planificadas e analisadas as atividades do sistema produtivo de alface orgânica na empresa Porto Verde, responsável por produção e comercialização de verduras orgânicas. Para implantar o método ABC no sistema estudado, foi desenvolvido e testado um modelo de aplicação do ABC na produção de alface orgânica, de modo que em casos semelhantes possa ser repetida a pesquisa. A análise dos dados permitiu quantificar comparações entre cultivos, onde conhecimento dos defeitos e vantagens de cada um auxiliam o gestor no processo decisório. Comparativamente é possível identificar aprimoramentos a serem feitos nos mais diversos cultivos, que possuem suas características distintas. Isto se explica, não apenas no nível operacional de remediar situações ainda durante o cultivo, como também no nível estratégico, subsidiando o planejamento de futuros cultivos.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
Um dos debates dentro a temática ambiental concentra-se sobre o desenvolvimento de indicadores de sustentabilidade para monitorar, mensurar e avaliar a sustentabilidade do desenvolvimento. Neste contexto, o presente trabalho objetivou desenvolver um método de modelagem de um sistema de indicadores para avaliar a sustentabilidade do sistema dos recursos hídricos, propiciando a participação dos atores sociais e visando ter maior conhecimento do problema e legitimidade do processo da gestão dos recursos hídricos numa bacia hidrográfica. Para tal, adotou-se o paradigma construtivista e foram abordados três temas: gestão ambiental, sistemas de apoio à decisão e indicadores de sustentabilidade. Esta metodologia foi aplicada, através de um estudo de caso, na bacia hidrográfica do Rio dos Sinos. A proposta do sistema de indicadores congrega duas áreas de interesse: a primeira, na perspectiva dos objetivos privados - a sustentabilidade como fluxo de bens e serviços, que contempla 8 Clusters: abastecimento público, abastecimento industrial, irrigação, criação de animais, geração de energia elétrica, navegação, aquicultura, turismo e recreação; a segunda, na perspectiva dos interesses públicos - a sustentabilidade como estoque dos recursos hídricos, que contempla 4 Clusters: regime hidrológico, qualidade da água, estrutura "habitat", resíduos sólidos. Em suma, foram definidos um total de 238 indicadores básicos, alguns deles (88 indicadores) são partilhados entre os Clusters, mostrando a interação dos indicadores e dependência entre os Clusters setoriais do sistema de recursos hídricos. Em termos gerais, recomenda-se empregar esse método se o interesse for, além do resultado, sendo a proposta de um sistema de indicadores de sustentabilidade, também do processo de participação dos atores envolvidos para compreender a problemática dos recursos hídricos. Assim, a modelagem de um sistema de indicadores será feita sob as inter-relações da ciência, política e os valores e objetivos dos atores sociais.
Resumo:
Este trabalho desenvolve um método numérico para a solução de escoamentos bidimensionais em torno de geometrias automobilísticas utilizando o método de diferenças finitas. O código computacional resolve as equações de Navier-Stokes e de Euler para uma distribuição adequada dos pontos discretos na malha. O método de integração empregado baseia-se no esquema explícito de Runge-Kutta de 3 estágios para as equações da quantidade de movimento e no de sub-relaxações sucessivas para a pressão na base Gauss-Seidel. Utilizou-se a técnica dos contornos virtuais em coordenadas cartesianas para resolver o escoamento sobre uma geometria simplificada, com a superfície coincidente com a malha computacional, e uma geometria automobilística mais complexa (BMW). Para a certificação da técnica empregada, optou-se pela utilização da teoria do escoamento potencial e pela comparação com dados experimentais encontrados na literatura e outros coletados em túnel de vento em escala reduzida. Houve dificuldade nesta comparação devido à falta de artigos relativos às simulações numéricas de escoamentos sobre automóveis e na aplicação da técnica dos contornos virtuais em geometrias complexas. Os resultados foram satisfatórios, com boas perspectivas para trabalhos futuros, contribuindo assim para o desenvolvimento da área.
Resumo:
Aduelas protendidas externamente utilizadas em pontes contrastam com as clássicas construções monolíticas, consistindo de “pequenos” segmentos pré-moldados protendidos por cordoalhas externas. Há muitas vantagens na utilização deste tipo de composição, como rapidez e versatilidade na construção, alto controle de qualidade e economia. No presente trabalho, discute-se uma formulação, baseada no método dos elementos finitos, para simular o comportamento de estruturas compostas por aduelas externamente protendidas. Esta formulação permite tanto a análise de situações de serviço, onde as seções permanecem completamente comprimidas, como também de situações últimas, onde se considera a abertura das juntas e a transferência de esforços através das mesmas. O modelo computacional utiliza dois procedimentos distintos, baseados em um modelo elasto-viscoplástico. No primeiro, determina-se a resposta da estrutura ao longo do tempo, considerando-se, nesta etapa, que o material possui comportamento viscoelástico. No segundo, busca-se a resposta da estrutura para um carregamento instantâneo, considerando-se o material com um comportamento elastoplástico. As juntas entre as aduelas são representadas através de elementos de contato unidimensionais. Os nós de cada elemento de contato coincidem com os nós do elemento de concreto que a ele foi associado.Um modelo de camadas superpostas é utilizado para representar o comportamento viscoelástico do concreto e da armadura protendida Para representar o concreto fissurado, utiliza-se um modelo de fissuras distribuídas, que leva em conta a contribuição do concreto entre fissuras. A armadura passiva é introduzida na análise através de um modelo incorporado e a armadura de protensão não aderente é disposta em elementos fictícios, paralelos aos elementos reais da estrutura. Para verificar a adequação do modelo computacional, compararam-se resultados numéricos com valores experimentais disponíveis na literatura.
Resumo:
Resumo não disponível.
Resumo:
Este trabalho apresenta o estudo e projetação de uma sala de controle de uma central de geração de energia de uma mineradora do norte do Brasil. Foi utilizada a ferramenta participativa Design Macroergonômico (DM) para a identificação da demanda ergonômica de usuários, além da análise da representação mental que os usuários tem do seu ambiente de trabalho. Foi feita a comparação das demandas dos usuários, da gerência, da chefia e do especialista, o que mostrou que o usuário é quem melhor define as suas necessidades. A etapa de projeto foi embasada na revisão biliográfica sobre o trabalho de controle e no conhecimento da equipe multidisciplinar. Para avaliação e visualização das propostas elaboradas pelos participantes da pesquisa, foi utilizado uma maquete eletrônica que permitiu a visualização do ambiente futuro o mais próximo do real. A participação é um fator de sucesso na aprovação de mudanças pois o projeto está em vias de implantação.
Resumo:
A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.
Resumo:
Este trabalho tem como objeto de estudo dois romances – O Reino deste Mundo e O Recurso do Método, do escritor cubano Alejo Carpentier, precursor do real maravilhoso, sob uma perspectiva comparatista a partir das teorias e noções que são de interesse da literatura comparada, como o processo de transculturação na América Latina, a intertextualidade, a descolonização cultural, a carnavalização do seu discurso, a desterritorialização, o hibridismo cultural e literário, a busca da identidade cultural e da consciência latino-americana no contexto sócio-político, histórico e cultural no qual essas obras se inserem. Fundamenta-se esse estudo nas contribuições de dois teóricos latino-americanos, o etnólogo cubano Fernando Ortíz, pioneiro do conceito de transculturação, e o crítico literário uruguaio Ángel Rama, teórico da transculturação narrativa na América Latina. Destaca-se, ainda, a relevância que o ato tradutório, em geral, e a tradução literária, em particular, têm como mediadores interculturais, apontando-se algumas questões de tradução cultural nas traduções das obras para o português e o importante papel do tradutor em obras dessa natureza.
Resumo:
Neste trabalho é apresentada uma solução analítica de um problema bidimensional e transiente de dispersão de poluentes atmosféricos. O modelamento utilizado é conhecido na literatura como modelo Kzz para dispersão de poluentes atmosféricos e é representado por uma equação difusivo-advectiva com coeficientes de difusão e advecção variáveis. São utilizados três diferentes coeficientes de difusão nas simulações, bem como as componentes horizontal e vertical do vento são tomadas como variáveis. A solução analítica é gerada através da aplicação da técnica GITT (Generalized Integral Transform Technique) dupla com problema transformado resolvido por Transformada de Laplace e diagonalização de matrizes. Filtros matemáticos são usados para homogenizar as condições de contorno viabilizando o uso da técnica citada. Além disso, o tipo de filtro matemático utilizado permite a sensível diminuição do custo computacional. Resultados numéricos são obtidos e comparados com dados experimentais e outras soluções da literatura.
Resumo:
Este trabalho teve como objetivos: determinar, para suínos, os valores de ED e EM de farinhas de sangue e farinhas de víceras, obtidas por diferentes processamentos, com base na EB e na digestibilidade da proteína e da gordura; estimar valores de ED e EM de farinhas de sangue e de víceras, pela soma das energias da proteína e da gordura digestíveis destas fontes; estudar influências da origem e do tipo de processamento sobre os valores energéticos das farinhas de origem animal; gerar dados para atualizar tabelas de composição química e valores energéticos de alimentos para suínos.
Resumo:
O estudo dos mecanismos de fadiga por contato tem grande relevância para o estudo dos componentes mecânicos que estão sujeitos ao desgaste. O desgaste é um tipo de falha que ocorre na maioria dos componentes que trabalham em contato. Atualmente para prever o desgaste são utilizados métodos experimentais que permitem ajustar curvas semi-empíricas, ou seja, o resultado depende de vários testes que além de caros são demorados. Com o aumento da competitividade na indústria, o tempo se tornou artigo de luxo e com isso o aprimoramento dos modelos de cálculo e das simulações numéricas são muito bem justificados. O estudo aprofundado do mecanismo de fratura por contato sem dúvida pode dar subsídios para um melhor projeto do componente mecânico e assim conseguir predizer com maior precisão quando a falha por desgaste ocorrerá e assim evitar falhas catastróficas e paradas de máquinas não programadas gerando grandes prejuízos e também risco de vidas humanas Este estudo apresenta um modelo numérico utilizando o método dos elementos finitos computacional para a simulação do spalling em componentes mecânicos sujeitos à fadiga de contato. O modelo foi simplificado para duas dimensões e foi considerado estado plano de deformações. Este estudo apresenta uma aproximação na aplicação dos conceitos da Mecânica da Fratura para estimar a vida de componentes mecânicos. O resultado do modelo numérico é confrontado qualitativamente com resultados práticos. A geometria dos pits assim como as relações entre o Fator de intensidade de tensões e o tamanho da trinca é apresentado.