1000 resultados para Equações diferenciais ordinarias - Estudo e ensino
Resumo:
A biomassa é uma das fontes de energia renovável com maior potencial em Portugal, sendo a capacidade de produção de pellets de biomassa atualmente instalada superior a 1 milhão de toneladas/ano. Contudo, a maioria desta produção destina-se à exportação ou à utilização em centrais térmicas a biomassa, cujo crescimento tem sido significativo nos últimos anos, prevendo-se que a capacidade instalada em 2020 seja de aproximadamente 250 MW. O mercado português de caldeiras a pellets é bastante diversificado. O estudo que realizamos permitiu concluir que cerca de 90% das caldeiras existentes no mercado português têm potências inferiores a 60 kW, possuindo na sua maioria grelha fixa (81%), com sistema de ignição eléctrica (92%) e alimentação superior do biocombustível sólido (94%). O objetivo do presente trabalho foi o desenvolvimento de um modelo para simulação de uma caldeira a pellets de biomassa, que para além de permitir otimizar o projeto e operação deste tipo de equipamento, permitisse avaliar as inovações tecnológicas nesta área. Para tal recorreu-se o BiomassGasificationFoam, um código recentemente publicado, e escrito para utilização com o OpenFOAM, uma ferramenta computacional de acesso livre, que permite a simulação dos processos de pirólise, gasificação e combustão de biomassa. Este código, que foi inicialmente desenvolvido para descrever o processo de gasificação na análise termogravimétrica de biomassa, foi por nós adaptado para considerar as reações de combustão em fase gasosa dos gases libertados durante a pirólise da biomassa (recorrendo para tal ao solver reactingFoam), e ter a possibilidade de realizar a ignição da biomassa, o que foi conseguido através de uma adaptação do código de ignição do XiFoam. O esquema de ignição da biomassa não se revelou adequado, pois verificou-se que a combustão parava sempre que a ignição era inativada, independentemente do tempo que ela estivesse ativa. Como alternativa, usaram-se outros dois esquemas para a combustão da biomassa: uma corrente de ar quente, e uma resistência de aquecimento. Ambos os esquemas funcionaram, mas nunca foi possível fazer com que a combustão fosse autossustentável. A análise dos resultados obtidos permitiu concluir que a extensão das reações de pirólise e de gasificação, que são ambas endotérmicas, é muito pequena, pelo que a quantidade de gases libertados é igualmente muito pequena, não sendo suficiente para libertar a energia necessária à combustão completa da biomassa de uma maneira sustentável. Para tentar ultrapassar esta dificuldade foram testadas várias alternativas, , que incluíram o uso de diferentes composições de biomassa, diferentes cinéticas, calores de reação, parâmetros de transferência de calor, velocidades do ar de alimentação, esquemas de resolução numérica do sistema de equações diferenciais, e diferentes parâmetros dos esquemas de resolução utilizados. Todas estas tentativas se revelaram infrutíferas. Este estudo permitiu concluir que o solver BiomassGasificationFoam, que foi desenvolvido para descrever o processo de gasificação de biomassa em meio inerte, e em que a biomassa é aquecida através de calor fornecido pelas paredes do reator, aparentemente não é adequado à descrição do processo de combustão da biomassa, em que a combustão deve ser autossustentável, e em que as reações de combustão em fase gasosa são importantes. Assim, é necessário um estudo mais aprofundado que permita adaptar este código à simulação do processo de combustão de sólidos porosos em leito fixo.
Resumo:
A animação de superfícies deformáveis, nomeadamente a modelação de tecidos, atravessa hoje uma época de grande relevância na indústria do cinema e no mundo dos jogos. A grande dedicação a este tema, em termos de investigação e a evolução das capacidades das arquitecturas de computadores no que toca a poder de processamento, tornou hoje possível efectuar este tipo de simulações usando um vasto leque de técnicas com diferentes objectivos. Entre estas técnicas encontra-se a simulação através de modelos discretos. Geralmente, neste tipo de modelação, as características do tecido são discretizadas num sistema de partículas organizadas entre si segundo um esquema de forças ou energias internas. Assim, a simulação pode ser efectuada integrando o sistema de forma a calcular as novas posições das partículas ao longo do tempo. Este tipo de computação é normalmente caracterizado como sendo bastante intensivo. A aceleração da animação de superfícies deformáveis recorrendo ao poder de processamento para além do CPU convencional foi realizada em vários trabalhos. No entanto, apenas uma pequena parte desses artigos está relacionada com a arquitectura Cell/B.E. O Cell/B.E. foi desenvolvido por uma equipa de investigadores vindos da Toshiba, Sony e IBM. Esta equipa tinha como objectivo a criação de uma arquitectura que suportasse um elevado leque de aplicações, incluindo o suporte de uma consola de jogos, de forma eficaz e com baixo consumo de energia. Assim, o processador Cell/B.E. convencional pode ser descrito por um chip multicore heterogéneo composto por um processador PowerPC e oito processadores vectoriais (SIMD) de 128 bits, permitindo assim ao programador uma maior flexibilidade na forma de paralelização de um determinado processamento. O principal objectivo deste trabalho passou pelo estudo desta arquitectura e da forma de a explorar e avaliar as suas capacidades, aplicando-as na aceleração de um simulador de superfícies deformáveis com
Resumo:
O nosso trabalho tem como objectivo apresentar uma organização de um Vocabulário de Base no Ensino Primário em Angola, numa perspectiva de ensino e aprendizagem do Português, em contexto angolano, com vista à contribuição e melhoria das estratégias do ensino e aprendizagem do vocabulário, não só em sala de aula, como também a sua aplicação em materiais didácticos, como em dicionários de aprendizagem. Apresentámos, de uma forma sucinta, a organização e o contexto de desenvolvimento dos Sistema de Educação de Angola, com a finalidade de fazer um enquadramento dos planos de estudo do Ensino Primário. Foram importantes as abordagens sobre os conceitos básicos de Lexicologia, Lexicografia, léxico, cultura, vocabulário, Lexicultura. Usámos o software Hyperbase como metodologia para o levantamento, selecção e organização dos vocábulos nos manuais escolares. O software serviu para análise dos dados dos textos, de modo a propor um dicionário de aprendizagem, conforme o modelo apresentado no final do trabalho.
Resumo:
Relatório de estágio de mestrado em Ensino de Música
Resumo:
O objetivo neste estudo foi identificar os fatores relevantes na adoção do canal on-line para a realização de compras, tendo como principais referências os modelos Unified Theory of Acceptance and Use of Technology (UTAUT), de Venkatesh et al. (2003), de Heijden, Verhagen e Creemers (2003) e de Bramall, Schoefer e McKechnie (2004). Além da revisão da literatura dos assuntos pertinentes, foi realizada uma pesquisa de campo descritiva, de natureza quantitativa com uma amostra de 172 pessoas residentes na cidade de São Paulo, pertencentes às classes socioeconômicas A, B e C (critério Brasil), compradores de livros, CDs ou DVDs no canal off-line. Os dados coletados foram analisados com o uso de técnicas estatísticas nos contextos uni, bi e multivariado. Aplicou-se a técnica de modelagem de equações estruturais (MEE ou Structural Equation Modeling - SEM) para serem identificadas relações de dependência entre construtos e a contribuição de cada um deles na estimação das intenções de adoção da compra pela Internet. Entre os principais resultados encontrados, a atitude em relação ao uso da tecnologia, a confiança e a expectativa de desempenho figuraram como os aspectos mais relevantes para uma possível adoção do canal on-line.
Resumo:
É estudado o comportamento de pós-encurvadura de painéis sanduiche axialmente comprimidos. Aborda-se o problema com formulação alternativas, permitindo investigar a possibilidade de configurações deformadas deferentes daquelas obtidas por uma análise de Rayleigh-Ritz convencional. São usados alguns princípios gerais de elasticidade, deduzindo-se a função de emergia potencial total, dependente de um campo de deslocamentos. Admite-se um campo harmónico de amplitude constante, que é introduzido na função da energia potencial total, e discutem-se algumas diferenças observadas nos estudos, em relação a modelos estudados anteriormente. As técnicas utilizadas na pesquisa de soluções localizadas são introduzidas com o estudo do problema da viga em função elástica não linear. Analogia dinâmica e a técnica de dupla escala com perturbação são utilizadas para a introdução de conceitos de localização. Por último, aplica-se a um painel sanduíche a técnica de dupla escala com perturbação para deduzir as equações diferenciais nas amplitudes. Discute-se a solução destas equações com alguns exemplos, fazendo-se a resolução analítica e numérica das equações diferencias nas amplitudes.
Resumo:
O trabalho de investigação que ora se apresenta entronca nas preocupações do dia a dia enquanto profissional e dirigente da educação que tem experimentado e acompanhado de perto a prática pedagógica e docente. Por esses imperativos, senti-me na obrigação de procurar uma resposta, refletir sobre as dificuldades do ensino da língua portuguesa e perceber melhor esses obstáculos, nomeadamente o erro linguístico nas práticas letivas, as causas subjacentes e, eventualmente, a quota-parte de responsabilidades dos outros intervenientes no processo, nomeadamente, dos professores de língua portuguesa e do próprio sistema. Nesta sequência, o presente estudo aborda o erro como conceito, marcado pela polissemia da sua definição, abordado pelas múltiplas metodologias de ensino, mas também como elemento central no ensino e aprendizagem de uma língua segunda, no ensino básico, em contextos de coabitação de línguas muito próximas como o português e a língua cabo-verdiana; pretendemos também elencar os procedimentos e atitudes dos atores no processo, bem como os meios didático-pedagógicos essenciais com vista a sua deteção, análise e tratamento do mesmo. A aprendizagem de uma língua segunda como o português, num contexto como o de Cabo Verde, constitui uma tarefa complexa e por vezes demorada, que não pode ser resumida a atos corriqueiros e previsíveis de sala de aula, ignorando as necessidades, disposições e interesses dos aprendentes que são colocados perante uma encruzilhada, o de aprender uma língua que não é sua, mas que não pode recusar. A aparente aproximação entre as duas línguas constitui um obstáculo acrescido, por propiciar a interferência, principal causa do erro, apesar do avanço verificado no desenvolvimento de metodologias e materiais de apoio que auxiliam e tornam mais eficiente o processo de aquisição de uma língua segunda. Para operacionalização do assunto foi elaborado um estudo com recurso à análise de erros, em quarenta e um (41) textos produzidos por alunos do 6.º ano de escolaridade de cinco escolas do ensino básico do Tarrafal, Cabo Verde, com o intuito de recolher informações, analisá-las e, após uma reflexão sobre os resultados, concluir sobre as suas implicações no ensino aprendizagem da língua portuguesa.
Resumo:
A utilização da biomassa como fonte de matéria-prima renovável para a obtenção de biocombustíveis e produtos de consumo pode reduzir os riscos geopolíticos e de segurança energética. As hemiceluloses – um dos principais componentes da biomassa vegetal - são convertidas industrialmente em furfural (Fur) que tem uma vasta gama de aplicações, sendo, por isso, considerado um dos compostos químicos renováveis de base mais importantes para biorefinarias. Este trabalho está relacionado com a valorização química do Fur, inserindo-se no conceito da Biorefinaria e nos objetivos de investigação do laboratório associado CICECO. Foi investigada a conversão catalítica do Fur em determinados bio-produtos de interesse para diversos setores da indústria química. Em particular, alquilfurfuril éteres, ésteres alquil-4-oxopentanoato, 5-metil-2-furanonas, ácido levulínico e gama-valerolactona são importantes para a produção de bio-aditivos para combustíveis, bio-polímeros, agroquímicos, aromas e fragrâncias, solventes, etc. A conversão do Fur nos bio-produtos envolve mecanismos reacionais complexos e requer o uso de catalisadores ácidos e de redução. A realização das múltiplas etapas num único reator é importante em termos de intensificação de processos. Neste trabalho, investigou-se a conversão do Fur em bio-produtos, num reator descontínuo fechado, a 120 ºC, utilizando catalisadores multifuncionais nanocristalinos do tipo zeólito beta contendo centros ativos de zircónio (Zr) e alumínio (Al). Com base numa revisão bibliográfica, propuseram-se dois modelos cinéticos pseudo-homogéneos para a conversão do Fur. Os modelos foram testados por ajuste das equações diferenciais ordinárias, representativas dos balanços às espécies reativas num reator descontínuo isotérmico, aos resultados experimentais de concentração versus tempo do Fur e cada um dos bio-produtos. Os estudos cinéticos foram combinados com os de caracterização dos catalisadores no estudo da influência das propriedades dos materiais nos diferentes passos do mecanismo global. Os centros ácidos de Al e Zr promoveram as reações ácidas e os de Zr eram essenciais para os passos de redução. No geral, as constantes cinéticas aparentes relativas às reações ácidas desejadas aumentaram com a razão Al/Zr dos catalisadores, e as dos passos de redução aumentaram com a diminuição da razão Si/Zr. O aumento da razão Al/Zr simultaneamente promoveu as reações indesejadas, diminuindo o rendimento total dos bio-produtos.
Resumo:
O objetivo deste trabalho foi determinar as rotações econômicas para um povoamento florestal, considerando-se um único corte e infinitos cortes, e para uma floresta regulada, por meio de modelos matemáticos, bem como compará-las através da análise marginal das condições de otimalidade. Para validar o modelo e verificar a magnitude dos efeitos, foi utilizado um estudo de caso de um projeto florestal com valores reais de produção, custos, receitas e taxa de desconto. Os resultados indicaram que os modelos foram eficientes para determinar a rotação econômica e que a rotação do povoamento para um único corte e infinitos cortes e para a floresta regulada foi, respectivamente, de 6,5; 5,5; e 5 anos. O Valor Esperado do Solo (VES) para a floresta regulada foi inferior ao VES do povoamento, em virtude de se impor ao manejo a condição de regulação.
Resumo:
A Matemática e as Ciências Farmacêuticas encontram-se relacionadas desde há muito, no entanto, foi a partir do séc. XVII, período de notável agitação cultural e científico que os métodos experimentais foram sustentados com cálculos matemáticos. Esta ciência e as técnicas de modelagem matemática tornaram-se numa ferramenta amplamente utilizada, de tal modo, que nos dias de hoje são consideradas como fundamentais na generalidade das profissões e em especial nas Ciências Farmacêuticas. Contudo, para muitos ainda não é vista como fundamental e essencial para a formação de futuros farmacêuticos. Deste modo, pretende-se demonstrar como a Matemática e as técnicas de modelagem se tornaram ao longo dos anos nesta poderosa ferramenta. Quer pelos instrumentos, quer pelas competências que nos proporcionam. Pretende-se também, com recurso aos conteúdos programáticos desta unidade curricular, avaliar se os conhecimentos, sistemas de avaliação e distribuição da carga horária são efetuados de forma homogénea pelas diferentes instituições portuguesas, públicas ou privadas que lecionam o Mestrado Integrado em Ciências Farmacêuticas. Verificou-se que a Matemática é uma ciência plena de capacidades e recursos e que estabelece uma relação interdisciplinar com as Ciências Farmacêuticas. Quer pela componente utilitária, quer pela componente formativa que proporciona. A análise dos conteúdos programáticos demonstra que apesar de serem transversais, as Universidades que não lecionam Sistemas de Equações Lineares e Equações diferenciais deveriam faze-lo e também realizarem um melhor controlo da carga horária por temática.
Resumo:
Neste trabalho estudamos um sistema de equações diferenciais parabólicas que modelam um processo de difusão-reação em duas dimensões da mistura molecular e reação química irreverssível de um só passo entre duas espécies químicas A e B para formar um produto P. Apresentamos resultados analíticos e computacionais relacionados à existência e unicidade da solução, assim como estimativas do erro local e global utilizando elementos finitos. Para os resultados analíticos usamos a teoria de semigrupos e o principio do m´aximo, e a simulação numérica é feita usando diferenças finitas centrais e o esquema simplificado de Ruge-Kutta. As estimativas do erro local para o problema semi-discretizado são estabelecidas usando normas de Sobolev, e para estimar o erro global usamos shadowing finito a posteriori. Os resultados computacionais obtidos mostram que o comportamento da solução está dentro do esperado e concorda com resultados da referências. Assim mesmo as estimativas do erro local e global são obtidas para pequenos intervalos de tempo e assumindo suficiente regularidade sobre a velocidade do fluído no qual realiza-se o processo. Destacamos que a estimativa do erro global usando shadowing finito é obtida sob hipóteses a posteriori sobre o operador do problema e o forte controle da velocidade numa vizinhança suficientemente pequena.
Resumo:
Apresentar um modelo para simular um sistema de armazenamento de calor no solo em estufas para plasticultura é o objetivo do presente trabalho. O sistema consiste num feixe de tubos enterrados no solo. A convecção forçada de ar no seu interior realiza a troca térmica necessária para manter as estufas sob faixas desejadas de temperatura. O objetivo do modelo é investigar os efeitos no calor armazenado e a influência das variáveis, tais como diâmetro, comprimento, espaçamento entre os tubos e a velocidade de ar no canal provocam no sistema. O solo é tratado como um meio difusivo e avalia-se a contribuição do termo de condensação e evaporação da água contida no ar em escoamento nos tubos. A equação da energia é resolvida para o solo e para o ar. Os tubos de seção transversal circular são modelados como tubos de seção transversal quadrada com o objetivo de que as simulações possam ser processadas em coordenadas cartesianas. O programa resolve situações tridimensionais, transientes e emprega o Método dos Volumes Finitos para integrar as equações diferenciais governantes. O modelo original é baseado no modelo de Gauthier et al., 1997, tendo sido os resultados do mesmo foram usados para a validação do presente estudo. Um circuito de água quente é também projetado e apresentado para o aquecimento das estufas. A água circula através de mangueiras sobre o solo e é aquecida por um sistema de queimadores a gás liqüefeito de petróleo ou óleo combustível, transferindo assim calor para o interior da mesma. O projeto de aquecimento foi realizado através de um programa de parceria entre a Ufrgs, Sebrae, Fapergs e a Agropecuária Clarice.
Resumo:
Este trabalho visa desenvolver um modelo físico e matemático geral para os processos de extração sólido-líquido em fluxos contracorrente cruzados (CCC) que são utilizados na indústria de alimentos. Levam-se em consideração os processos principais (o transporte de massa entre as fases, difusão e convecção) envolvidos por todo o campo de extração, com uma abordagem bidimensional evolutiva, incluindo as zonas de carregamento, drenagem e as bandejas acumuladoras. O modelo matemático é formado por equações diferenciais parciais que determinam a alteração das concentrações nas fases poro e “bulk” em todo o campo de extração e equações diferenciais ordinárias (que refletem as evoluções das concentrações médias nas bandejas). As condições de contorno estabelecem as ligações entre os fluxos CCC da micela e matéria-prima e consideram, também, a influência das zonas de drenagem e carregamento. O algoritmo de resolução utiliza o método de linhas que transforma as equações diferenciais parciais em equações diferenciais ordinárias, que são resolvidas pelo método de Runge-Kutta. Na etapa de validação do modelo foram estabelecidos os parâmetros da malha e o passo de integração, a verificação do código com a lei de conservação da espécie e um único estado estacionário. Também foram realizadas a comparação com os dados experimentais coletados no extrator real e com o método de estágios ideais, a análise da influência de propriedades da matéria-prima nas características principais do modelo, e estabelecidos os dados iniciais do regime básico (regime de operação) Foram realizadas pesquisas numéricas para determinar: os regimes estacionário e transiente, a variação da constante de equilíbrio entre as fases, a variação do número de seções, a alteração da vazão de matéria-prima nas características de um extrator industrial e, também foram realizadas as simulações comparativas para diferentes tipos de matéria-prima (flocos laminados e flocos expandidos) usados amplamente na indústria. Além dessas pesquisas, o modelo também permite simular diferentes tipos de solventes. O estudo da capacidade de produção do extrator revelou que é necessário ter cuidado com o aumento da vazão da matéria-prima, pois um pequeno aumento desta pode causar grandes perdas de óleo tornando alto o custo da produção. Mesmo que ainda seja necessário abastecer o modelo com mais dados experimentais, principalmente da matéria-prima, os resultados obtidos estão em concordância com os fenômenos físico-químicos envolvidos no processo, com a lei de conservação de espécies químicas e com os resultados experimentais.
Resumo:
A presente tese apresenta a concepção de uma rede neural oscilatória e sua realização em arquitetura maciçamente paralela, a qual é adequada à implementação de chips de visão digitais para segmentação de imagens. A rede proposta, em sua versão final, foi denominada ONNIS-GI (Oscillatory Neural Network for Image Segmentation with Global Inhibition) e foi inspirada em uma rede denominada LEGION (Locally Excitatory Globally Inhibitory Oscillator Network), também de concepção recente. Inicialmente, é apresentada uma introdução aos procedimentos de segmentação de imagens, cujo objetivo é o de situar e enfatizar a importância do tema abordado dentro de um contexto abrangente, o qual inclui aplicações de visão artificial em geral. Outro aspecto abordado diz respeito à utilização de redes neurais artificiais em segmentação de imagens, enfatizando as denominadas redes neurais oscilatórias, as quais têm apresentado resultados estimulantes nesta área. A implementação de chips de visão, integrando sensores de imagens e redes maciçamente paralelas de processadores, é também abordada no texto, ressaltando o objetivo prático da nova rede neural proposta. No estudo da rede LEGION, são apresentados resultados de aplicações originais desenvolvidas em segmentação de imagens, nos quais é verificada sua propriedade de separação temporal dos segmentos. A versão contínua da rede, um arranjo paralelo de neurônios baseados em equações diferenciais, apresenta elevada complexidade computacional para implementação em hardware digital e muitos parâmetros, com procedimento de ajuste pouco prático. Por outro lado, sua arquitetura maciçamente paralela apresenta-se particularmente adequada à implementação de chips de visão analógicos com capacidade de segmentação de imagens. Com base nos bons resultados obtidos nas aplicações desenvolvidas, é proposta uma nova rede neural, em duas versões, ONNIS e ONNIS-GI, as quais suplantam a rede LEGION em diversos aspectos relativos à implementação prática. A estrutura dos elementos de processamento das duas versões da rede, sua implementação em arquitetura maciçamente paralela e resultados de simulações e implementações em FPGA são apresentados, demonstrando a viabilidade da proposta. Como resultado final, conclui-se que a rede ONNIS-GI apresenta maior apelo de ordem prática, sendo uma abordagem inovadora e promissora na solução de problemas de segmentação de imagens, possuindo capacidade para separar temporalmente os segmentos encontrados e facilitando a posterior identificação dos mesmos. Sob o ponto de vista prático, a nova rede pode ser utilizada para implementar chips de visão digitais com arquitetura maciçamente paralela, explorando a velocidade de tais topologias e apresentando também flexibilidade para implementação de procedimentos de segmentação de imagens mais sofisticados.