884 resultados para Modelagem empírica


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Este trabalho apresenta um estudo sobre transmissões de vídeo em sistemas sem fio. O objetivo da metodologia aplicada é comprovar a existência de uma relação direta entre a BER e a perda de qualidade (Perda de PSNR) nas transmissões de vídeo em sistemas OFDM (Orthogonal Frequency Division Multiplexing). Os resultados foram obtidos a partir de simulações, desenvolvidas no ambiente computacional Matlab®, e, aferições em cenários reais, realizadas no campus universitário e dentro do laboratório de estudos, em ambiente controlado. A partir da comparação entre dados simulados e aferidos, foi comprovada a relação entre BER e Perda de PSNR, resultando na formulação de um modelo empírico Cross-Layer com característica exponencial. A modelagem obteve erro RMS e desvio padrão próximos de 1,65 dB quando comparada com as simulações. Além disso, sua validação foi realizada a partir dos dados obtidos de cenários reais, que não foram usados para ajustar os parâmetros da equação obtida. O modelo obtido não necessita da especificação do tipo de canal ou codificação utilizada no FEC (Forward Error Correction), possibilitando uma futura integração com softwares de planejamento de redes, em versões comerciais ou open-sources.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A oportunidade de produção de biomassa microalgal tem despertado interesse pelos diversos destinos que a mesma pode ter, seja na produção de bioenergia, como fonte de alimento ou servindo como produto da biofixação de dióxido de carbono. Em geral, a produção em larga escala de cianobactérias e microalgas é feita com acompanhamento através de análises físicoquímicas offline. Neste contexto, o objetivo deste trabalho foi monitorar a concentração celular em fotobiorreator raceway para produção de biomassa microalgal usando técnicas de aquisição digital de dados e controle de processos, pela aquisição de dados inline de iluminância, concentração de biomassa, temperatura e pH. Para tal fim foi necessário construir sensor baseado em software capaz de determinar a concentração de biomassa microalgal a partir de medidas ópticas de intensidade de radiação monocromática espalhada e desenvolver modelo matemático para a produção da biomassa microalgal no microcontrolador, utilizando algoritmo de computação natural no ajuste do modelo. Foi projetado, construído e testado durante cultivos de Spirulina sp. LEB 18, em escala piloto outdoor, um sistema autônomo de registro de informações advindas do cultivo. Foi testado um sensor de concentração de biomassa baseado na medição da radiação passante. Em uma segunda etapa foi concebido, construído e testado um sensor óptico de concentração de biomassa de Spirulina sp. LEB 18 baseado na medição da intensidade da radiação que sofre espalhamento pela suspensão da cianobactéria, em experimento no laboratório, sob condições controladas de luminosidade, temperatura e fluxo de suspensão de biomassa. A partir das medidas de espalhamento da radiação luminosa, foi construído um sistema de inferência neurofuzzy, que serve como um sensor por software da concentração de biomassa em cultivo. Por fim, a partir das concentrações de biomassa de cultivo, ao longo do tempo, foi prospectado o uso da plataforma Arduino na modelagem empírica da cinética de crescimento, usando a Equação de Verhulst. As medidas realizadas no sensor óptico baseado na medida da intensidade da radiação monocromática passante através da suspensão, usado em condições outdoor, apresentaram baixa correlação entre a concentração de biomassa e a radiação, mesmo para concentrações abaixo de 0,6 g/L. Quando da investigação do espalhamento óptico pela suspensão do cultivo, para os ângulos de 45º e 90º a radiação monocromática em 530 nm apresentou um comportamento linear crescente com a concentração, apresentando coeficiente de determinação, nos dois casos, 0,95. Foi possível construir um sensor de concentração de biomassa baseado em software, usando as informações combinadas de intensidade de radiação espalhada nos ângulos de 45º e 135º com coeficiente de determinação de 0,99. É factível realizar simultaneamente a determinação inline de variáveis do processo de cultivo de Spirulina e a modelagem cinética empírica do crescimento do micro-organismo através da equação de Verhulst, em microcontrolador Arduino.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Apesar dos impactos ambientais ocasionados pela poluição e acidentes químicos, constata-se que algumas organizações ainda investem pouco na prevenção, redução ou eliminação de seus resíduos. Em algumas Instituições de Ensino e Pesquisa (IES) do Brasil, não é incomum o manejo inadequado dos resíduos perigosos gerados em laboratórios de ensino e pesquisa, aumentando tais riscos. Para minimizar ou eliminar tais riscos, há que se realizarem investimentos em processos tecnológicos de tratamento e na seleção de métodos adequados ao gerenciamento. O objetivo desta pesquisa foi modelar um Sistema de Gerenciamento Integrado de Resíduos Perigosos e validá-lo através de sua aplicação em estudo piloto nos laboratórios dos Institutos de Química e Biologia da Universidade do Estado do Rio de Janeiro. A pesquisa empírica e exploratória foi realizada através de revisão bibliográfica e coleta de dados sobre o estado da arte no gerenciamento de resíduos em algumas IES nacionais e internacionais, seguido da seleção do sistema adequado a ser modelado e aplicado nestes contextos. O trabalho de campo consistiu na coleta de dados através de observação direta e aplicação de questionário junto aos responsáveis pelos laboratórios. As etapas do estudo foram: levantamento das instalações dos laboratórios; observação do manejo e geração dos resíduos; elaboração do banco de dados; análise qualitativa e quantitativa dos dados; modelagem do Sistema de Gerenciamento Integrado de Resíduos Perigosos SIGIRPE; implantação do modelo; apresentação e avaliação dos resultados; elaboração do manual para uso do sistema. O monitoramento quantitativo de resíduos foi feito através de ferramentas do sistema para a sua análise temporal. Os resultados da pesquisa permitiram conhecer a dinâmica e os problemas existentes nos laboratórios, bem como verificar a potencialidade do modelo. Conclui-se que o SIGIRPE pode ser aplicado a outros contextos desde que seja adequado para tal fim. É imprescindível ter uma estrutura institucional que elabore o Plano de Gerenciamento Integrado de Resíduos e viabilize sua implementação. A universidade, enquanto formadora dos futuros profissionais, é um lócus privilegiado na construção e disseminação do conhecimento, tendo o dever de realizar boas práticas no trato das questões ambientais, em particular, com relação aos resíduos. Assim, elas devem estabelecer entre suas estratégias de ação, a inclusão de políticas ambientais em seus campi, onde a Educação Ambiental deve ser permanente. Espera-se que este trabalho contribua com o planejamento e o gerenciamento dos resíduos perigosos gerados em laboratórios e com as mudanças necessárias rumo à sustentabilidade ambiental. O SIGIRPE foi elaborado e testado, mas não foi possível verificar sua aplicação por outros usuários. É o que se espera com a continuidade desta pesquisa e no desenvolvimento de futuros trabalhos, tais como: teste do sistema em hospitais, laboratórios, clínicas; estudar outras aplicações na área de segurança química de laboratórios através da inclusão de roteiro de transporte interno de resíduos, rotas de fuga, mapas de risco, localização de equipamentos de proteção individual e coletiva; demonstrar a potencialidade de uso do sistema e sensibilizar os segmentos envolvidos através de palestras, mini-cursos e outras estratégias de informação em revistas científicas especializadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As ligações desempenham um papel fundamental no comportamento global das estruturas de aço. Inúmeros trabalhos de pesquisa têm sido desenvolvidos para entender o comportamento real de uma ligação e sua influência na resistência global dos pórticos. Atualmente, a Norma Brasileira de estruturas de aço de edificações, NBR 8800, considera o comportamento das ligações entre duas situações extremas: rígidas, onde não ocorre nenhuma rotação entre os membros conectados, transferindo momento fletor, força cortante e força normal; ou flexíveis, caracterizadas pela liberdade de rotação entre os membros conectados, impedindo a transmissão de momento fletor. Outras normas de projeto de estruturas de aço, consideram que as ligações apresentam um comportamento intermediário, ou seja, semi-rigídas, que podem estar submetidas a uma combinação de momento fletor e esforço normal. Porém, mesmo com a combinação, estas normas não consideram a presença de esforço normal (tração e/ou compressão). Uma limitação empírica de 5% da resistência plástica da viga é a única condição imposta no Eurocode 3. Para o estudo da ligação semi-rigída será utilizada a filosofia do Método das Componentes, que verifica a resistência da ligação e sua classificação quanto à rigidez rotacional, desenvolvida através de modelos mecânicos (modelos de molas). O objetivo deste trabalho é descrever alguns resultados de caracterização de ligações viga-coluna com placa de extremidade ajustada à altura da viga obtidos através de um modelo de elementos finitos. Para tal, será realizada uma análise não-linear geométrica e de material. Esta análise possibilitará avaliar os principais parâmetros que influenciam no comportamento deste componente no que diz respeito a sua avaliação em termos de distribuição de tensões e deformações no modelo de forma global.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste artigo é desenvolvido um modelo de equilíbrio das firmas a dois setores, mineral e não mineral, que possibilita a construção da trajetória da produtividade total dos fatores setorial. A partir dessa modelagem, o estudo tem dois objetivos: Primeiro, testar a influência da dotação de recursos minerais no desempenho macroeconômico dos países, via PTF. Segundo, testar a dinâmica macroeconômica, PTF, PIB e inflação, gerada por um choque no preço das commodities minerais. Os resultados sugerem a presença da doença holandesa, países com grande dotação de recurso mineral têm um pior desempenho econômico, e que um choque no preço das commodities minerais leva a um aumento da taxa de crescimento do PIB, no curto prazo, e a elevação da inflação mais adiante, em países ricos nesse recurso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uma das questões críticas relacionadas com um Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web diz respeito à eficácia da aprendizagem do aluno remoto. Assim como diversos trabalhos de pesquisa na literatura, nosso estudo preocupou-se com a modelagem do Estilo Cognitivo de Aprendizagem (ECA) do aluno visando, em um futuro próximo, a adaptação dos conteúdos pedagógicos a esta importante característica individual do aluno. Esta tese descreve a metodologia utilizada para investigar como modelar o ECA do aluno remoto, baseado na observação e análise de seu comportamento em um ambiente de ensino e aprendizagem na Web. Em nosso estudo, o ECA representa o estágio de desenvolvimento cognitivo do aluno, de acordo com a taxonomia de Bloom. Nós acreditamos que os principais benefícios de adaptar a instrução ao ECA do aluno estão relacionados com a possibilidade de oportunizar a ampliação de suas habilidades cognitivas, assim como oportunizar a aprendizagem em profundidade sobre os conteúdos em estudo. A metodologia quase-experimental usada para a modelagem do ECA do aluno compreendeu duas fases distintas: (i) geração das classes de ECA a partir da aplicação de um teste psicológico em uma amostra da população-alvo; e (ii) desenvolvimento do módulo de ensino experimental e o estudo das Trajetórias de Aprendizagem (TA) padrão das classes de ECA, a partir da observação de seus comportamentos durante a execução de uma sessão de estudo na Web. Como resultado deste estudo, identificamos os principais indicadores, que melhor discriminaram as classes de ECA consideradas. Os resultados foram obtidos a partir da observação e análise das TAs na Web. Todo o conhecimento obtido a partir desta investigação deverá nos permitir automatizar o diagnóstico do ECA do aluno remoto. Este conhecimento também será utilizado como base para o desenvolvimento dos conteúdos a serem oferecidos ao aluno pelo Ambiente Adaptativo de Ensino e Aprendizagem baseado na Web.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tese propõe um modelo para descrever o campo de velocidade do vento originado numa tormenta elétrica. O escoamento descendente que ocorre durante uma tormenta elétrica madura é modelado como um campo de fluxo axial simétrico. A evolução da velocidade do vento com o tempo é considerada por meio de uma função de modulação empírica. As flutuações da velocidade ao redor da velocidade média em evolução são representadas por um processo aleatório do tipo ruído branco em faixa. Todos os parâmetros utilizados no modelo estão relacionados a variáveis meteorológicas, tais como a altura e diâmetro da nuvem cumulonimbus causadora do evento, a diferença de pressão e a distância entre o solo e a base da nuvem. Adicionalmente considera-se que a nuvem é transportada numa direção pré escolhida pelo vento de fundo, que pode ser devido à circulação geral na região ou a um ciclone extra-tropical. O campo de velocidades do vento resulta da superposição de ambos campos. O modelo é validado comparando as velocidades do vento determinadas em eventos simulados, com registros de estações meteorológicas. Adicionalmente, perfis verticais previstos pelo modelo são comparados com vários perfis para tormentas elétricas propostos na literatura. Finalmente, séries de velocidade máximas anuais a altura padrão de 10m foram simuladas para três estações meteorológicas no sul do Brasil, para as quais dados experimentais são conhecidos, em termos do número médio de tormentas elétricas por ano e das funções distribuição de probabilidade que caracterizam o vento de fundo. A comparação com séries de registros máximos existentes é satisfatória, dando credibilidade adicional ao modelo proposto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A estabilidade econômica que o Brasil atualmente experimenta permite resgatar a tradição de construção e análises prospectivas de médio e longo prazos. Isto remete à necessidade de se pensar mais profundamente acerca da possível evolução da economia brasileira, sendo mister o conhecimento de ferramentas de previsão. O objetivo deste trabalho é contribuir com este propósito. Avanços significativos têm sido observados na modelagem de previsões macro econômicas. Para se avaliar como os modelos de previsão estarão se desenvolvendo no futuro próximo, é necessário entender a evolução das abordagens dos modelos de previsão não-estruturais e estruturais. Como dependem da teoria econômica, os modelos estruturais ganham importância e descaso na medida em que a teoria evolui e cai em desuso. A marca registrada das previsões macroeconômicas nos próximos anos será o casamento das melhores abordagens estruturais e não-estruturais, facilitadas por avanços em técnicas numéricas e de simulação. Para ilustrar o trabalho de forma empírica, três cenários para a economia brasileira foram desenvolvidos, utilizando-se como base o arcabouço teórico resumido em uma das seções deste trabalho. Cenários potencialmente têm um valor muito grande na gestão de uma empresa ou de uma instituição. Cenários são a oitava ferramenta gerencial mais utilizada nas empresas em todo o mundo1 e esta dissertação é mais uma contribuição para este rico campo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this dissertation, the theoretical principles governing the molecular modeling were applied for electronic characterization of oligopeptide α3 and its variants (5Q, 7Q)-α3, as well as in the quantum description of the interaction of the aminoglycoside hygromycin B and the 30S subunit of bacterial ribosome. In the first study, the linear and neutral dipeptides which make up the mentioned oligopeptides were modeled and then optimized for a structure of lower potential energy and appropriate dihedral angles. In this case, three subsequent geometric optimization processes, based on classical Newtonian theory, the semi-empirical and density functional theory (DFT), explore the energy landscape of each dipeptide during the search of ideal minimum energy structures. Finally, great conformers were described about its electrostatic potential, ionization energy (amino acids), and frontier molecular orbitals and hopping term. From the hopping terms described in this study, it was possible in subsequent studies to characterize the charge transport propertie of these peptides models. It envisioned a new biosensor technology capable of diagnosing amyloid diseases, related to an accumulation of misshapen proteins, based on the conductivity displayed by proteins of the patient. In a second step of this dissertation, a study carried out by quantum molecular modeling of the interaction energy of an antibiotic ribosomal aminoglicosídico on your receiver. It is known that the hygromycin B (hygB) is an aminoglycoside antibiotic that affects ribosomal translocation by direct interaction with the small subunit of the bacterial ribosome (30S), specifically with nucleotides in helix 44 of the 16S ribosomal RNA (16S rRNA). Due to strong electrostatic character of this connection, it was proposed an energetic investigation of the binding mechanism of this complex using different values of dielectric constants (ε = 0, 4, 10, 20 and 40), which have been widely used to study the electrostatic properties of biomolecules. For this, increasing radii centered on the hygB centroid were measured from the 30S-hygB crystal structure (1HNZ.pdb), and only the individual interaction energy of each enclosed nucleotide was determined for quantum calculations using molecular fractionation with conjugate caps (MFCC) strategy. It was noticed that the dielectric constants underestimated the energies of individual interactions, allowing the convergence state is achieved quickly. But only for ε = 40, the total binding energy of drug-receptor interaction is stabilized at r = 18A, which provided an appropriate binding pocket because it encompassed the main residues that interact more strongly with the hygB - C1403, C1404, G1405, A1493, G1494, U1495, U1498 and C1496. Thus, the dielectric constant ≈ 40 is ideal for the treatment of systems with many electrical charges. By comparing the individual binding energies of 16S rRNA nucleotides with the experimental tests that determine the minimum inhibitory concentration (MIC) of hygB, it is believed that those residues with high binding values generated bacterial resistance to the drug when mutated. With the same reasoning, since those with low interaction energy do not influence effectively the affinity of the hygB in its binding site, there is no loss of effectiveness if they were replaced.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Não é uma tarefa fácil definir requisitos para os sistemas de software que darão suporte a um negócio, dada a dinâmica de mudanças nos processos. O levantamento de requisitos tem sido feito de forma empírica, sem o apoio de métodos sistematizados que garantam o desenvolvimento baseado nos reais objetivos do negócio. A engenharia de software carece de métodos que tornem mais ordenadas e metódicas as etapas de modelagem de negócios e de levantamento de requisitos de um sistema. Neste artigo é apresentada uma metodologia de desenvolvimento de software resultante da incorporação de atividades propostas para modelagem de negócios e levantamento de requisitos, baseadas em uma arquitetura de modelagem de negócios. Essas atividades tornam o desenvolvimento de software mais sistemático e alinhado aos objetivos da organização, e podem ser incorporadas em qualquer metodologia de desenvolvimento baseada no UP (Unified Process - Processo Unificado).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artigo tem como objetivo identificar as práticas de gestão da cadeia de suprimentos que estão sendo adotadas no setor eletroeletrônico brasileiro e verificar se as prioridades competitivas da produção das empresas desse setor se relacionam com a adoção de tais práticas. Desenvolveu-se uma pesquisa empírica, de cunho quantitativo, a partir da realização de uma pesquisa survey por e-mail com gerentes de empresas do setor eletroeletrônico da Associação Brasileira da Indústria Elétrica e Eletrônica. Técnicas estatísticas descritivas e multivariadas de segunda geração (modelagem de equações estruturais) foram empregadas para analisar os dados obtidos. Como principais resultados deste artigo destacam-se: a) as práticas de gestão da cadeia de suprimentos que estão sendo mais implantadas são voltadas à integração e apoio das atividades de desenvolvimento de produtos com os clientes; e b) não foram verificadas relações significativas entre as prioridades competitivas das empresas estudadas e a adoção de práticas de gestão da cadeia de suprimentos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Pós-graduação em Ciências Cartográficas - FCT