128 resultados para simulacio computacional


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho é parte integrante de um projeto multidisciplinar cujo objetivo é construir uma ferramenta computacional capaz de simular a operação de uma Usina Termoelétrica tratando, especificamente, da câmara de reação (local da caldeira onde se desenvolve a queima do combustível). Foi desenvolvido um modelo matemático dinâmico, pseudo-homogêneo, unidimensional e, com propriedades físicas variáveis, com o objetivo de descrever a conversão do calor gerado pela combust em energia térmica, que está baseado em balanços de massa e energia. Este modelo foi implementado no simulador gPROMS e seus parâmetros foram estimados utilizando o módulo gEST deste software (método da máxima verossimilhança), com base em dados de operação da Usina e dados cinéticos de literatura. Para a simulação dinâmica da câmara de reação foi utilizado um método de integração implícita de passos múltiplos com ordem e passo variáveis. A câmara de combustão foi dividida em três zonas, sendo realizados, em cada zona, os balanços de massa e energia, adotando-se a hipótese de mistura perfeita. O modelo desenvolvido prevê o perfil de temperatura ao longo da câmara, as correntes de saída e a composição dos gases de combustão em cada zona; incluindo uma previsão aproximada da concentração dos poluentes formados, principalmente monóxido de nitrogênio e dióxido de enxofre. Os resultados apresentados mostraram que o modelo prediz satisfatoriamente a composição do gás de combustão na saída da câmara de reação e que a divisão da câmara em diferentes zonas de combustão é apropriada para avaliar a geração e o aproveitamento energético na caldeira.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Muitos aplicativos atuais, envolvendo diversos domínios de conhecimento, são estruturados como arquiteturas de software que incorporam, além dos requisitos funcionais, requisitos não funcionais, como segurança, por exemplo. Tais requisitos podem constituir um domínio próprio, e, portanto, serem comuns a várias outras arquiteturas de software. Tecnologias como Programação Orientada a Aspectos, Reflexão Computacional e Padrões de Projeto colaboram no desenvolvimento de arquiteturas que provêem a separação de requisitos não funcionais. Porém, sua experimentação e adoção no domínio da segurança computacional ainda é incipiente. O foco deste trabalho é a elaboração de um padrão de projeto voltado à segurança, utilizando como arquitetura conceitual programação orientada a aspectos, e como arquitetura de implementação, reflexão computacional. A composição destas tecnologias resulta em um middleware orientado à segurança, voltado a aplicações desenvolvidas em Java. Estuda-se as tecnologias, seus relacionamentos com a área de segurança, seguido da proposta de uma arquitetura de referência, a partir da qual é extraído um protótipo do middleware de segurança. Este, por sua vez, provê mecanismos de segurança tão transparentes quanto possível para as aplicações que suporta. Com o objetivo de realizar a implementação do middleware de segurança, também são estudadas os mecanismos de segurança da plataforma Java, porém limitado ao escopo deste trabalho. Segue-se o estudo da base conceitual das tecnologias de Reflexão Computacional, o modelo de implementação, seguido de Programação Orientada a Aspectos, o modelo conceitual, e, por fim, têm-se os Padrões de Projeto, a arquitetura de referência. Integrando as três tecnologias apresentadas, propõe-se um modelo, que estabelece a composição de um Padrão Proxy, estruturado de acordo com a arquitetura reflexiva. Este modelo de arquitetura objetiva implementar o aspecto de segurança de acesso a componentes Java, de forma não intrusiva,. Baseado no modelo, descreve-se a implementação dos diversos elementos do middleware, estruturados de forma a ilustrar os conceitos propostos. Ao final, apresenta-se resultados obtidos durante a elaboração deste trabalho, bem como críticas e sugestões de trabalhos futuros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o desenvolvimento e crescimento das tecnologias de informação e, em especial, a Internet, encontrar informação relevante e útil tornou-se uma tarefa complexa que envolve os aspectos computacionais dos Sistemas de Recuperação de Informação (SRIs) e os aspectos situacionais, psicológicos e cognitivos dos usuários. No entanto, há um desequilíbrio neste cenário pois o enfoque das pesquisas de recuperação de informação (RI) está extremamente voltado para a abordagem computacional. Decorrente deste viés, o aspecto central da recuperação de informação – o julgamento de relevância – tornou-se muito limitado e acarretou em baixo desempenho dos SRIs. Notando esta problemática, esta pesquisa teve como objetivo caracterizar os fatores de relevância empregados pelos usuários durante o processo de RI com o intuito de contribuir para a especificação de requisitos e avaliação daqueles sistemas. Assim, a pesquisa foi composta por duas etapas de avaliação denominadas ex ante e ex post para verificar a mudança de percepção em torno dos julgamentos de relevância. Para tanto, foi criado um instrumento de pesquisa para verificar os julgamentos de relevância que foram avaliados por 49 respondentes, obtendo um total de 238 objetos informacionais avaliados no momento ex ante e destes, 224 foram retornados (ex post). Os resultados encontrados mostraram que existe uma significativa mudança de percepção dos usuários nas duas medições, e demonstraram que os fatores de relevância obedecem a um processo decisório bem definido. Observou-se também que a utilidade e os aspectos cognitivos são as manifestações de relevância consideradas mais importantes pelos usuários e as demais servem para ter a noção de rejeição ou não do objeto informacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas para a geração de eletricidade a partir de fontes renováveis de energia, com um mínimo impacto ambiental, apresentam uma contribuição energética cada vez mais significativa, sendo importante conhecer em detalhe o comportamento dos mesmos. A radiação solar e o vento podem se mostrar complementares, sendo interessante empregar uma combinação eólica e fotovoltaica em um sistema único. Os sistemas assim constituídos recebem o nome de sistemas híbridos eólico-fotovoltaicos e em algumas aplicações podem mostrar vantagens em relação aos sistemas singelos. Esta Tese tem por objetivo contribuir com o conhecimento sobre o comportamento de sistemas híbridos eólico-fotovoltaicos de pequeno porte. Para obter dados experimentais foi montado um protótipo no Laboratório de Energia Solar, constituído de um painel de 420 Wp e de um aerogerador de 400 W de potência nominal, sendo que para o acionamento do aerogerador foi instalado um túnel de vento. Para a observação do comportamento do sistema híbrido foi também montado um sistema de monitoramento, sendo analisadas na Tese as incertezas associadas às medições realizadas. O sistema de monitoramento forma parte de um sistema mais amplo, que permite também o controle da velocidade do vento no túnel de vento e a ativação automática de um conjunto de cargas resistivas para simular o perfil de consumo. A Tese discute os modelos matemáticos de todos os componentes do sistema, assim como as principais configurações que podem ser dadas aos sistemas híbridos. Foram realizadas várias experiências com o sistema híbrido que permitiram a coleta de informações sobre o comportamento dos componentes independentes e como um todo Essas informações, por sua vez, serviram de base para a validação de modelos matemáticos dos diversos componentes do sistema, que foram integrados em um programa computacional de simulação elaborado como parte desta Tese. Além dos resultados do funcionamento do sistema híbrido experimental, a Tese mostra os resultados do programa de simulação e faz uma estimativa da aplicação de sistemas híbridos semelhantes em localidades de Rio Grande do Sul, a partir da informação do Atlas Eólico do Estado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo o estudo dos tratamentos termoquímicos comuns na indústria metalúrgica denominados: nitretação, nitrocarburação e carbonitretação com o auxílio da ferramenta conhecida como ‘termodinâmica computacional’. Com o uso de um aplicativo computacional e de um banco de dados compacto procurou-se primeiramente o perfeito entendimento dos processos, por exemplo, através da análise do efeito de variáveis como temperatura, pressão e composição das fases gasosa e condensada. A partir deste entendimento procurouse simular os tratamentos termoquímicos dentro de parâmetros conhecidos da prática industrial e, finalmente, procurou-se sugerir algumas outras atmosferas possíveis de serem aplicadas, que se mostraram apropriadas aos objetivos de tais tratamentos. Durante a simulação, constatou-se que alguns resultados mostraram-se algo diferente dos existentes na literatura, provavelmente por diferenças nos dados termodinâmicos utilizados. Este fato, contudo, não invalida as simulações. Sugere-se apenas, para o futuro, a utilização de bancos de dados ainda mais compatíveis com os resultados obtidos na prática industrial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A lactação é um processo fisiológico complexo que ainda não foi compreendido na sua totalidade. Inúmeros fatores intervêm na síntese e secreção do leite, sendo os mais importantes a nutrição e o metabolismo endógeno dos nutrientes. A qualidade do leite é valorizada tanto pela sua composição química, como pelo conteúdo de células somáticas. No entanto, visando a comercialização do leite, as maiores mudanças e melhoras na qualidade podem ser atingidas através da manipulação da dieta dos animais, em especial em vacas leiteiras de alta produção. Avaliar os processos de absorção de alimentos, bem como o metabolismo catabólico e anabólico direcionado para a síntese do leite, têm sido uma grande preocupação na pesquisa de nutrição e bioquímica da produção animal. O principal objetivo da presente pesquisa foi gerar modelos matemáticos que pudessem explicar a participação de diferentes metabólitos sobre a composição química do leite. Neste intuito foram coletadas amostras de fluído ruminal, sangue, urina e leite de 140 vacas da raça Holandesa nas primeiras semanas de lactação e mantidas sob sistema semi-intensivo de produção e dieta controlada. Os animais foram selecionados de sistemas de produção no ecossistema do Planalto Médio de Rio Grande do Sul e foram amostrados em dois períodos climáticos críticos. No fluido ruminal foram avaliados o pH e o tempo de redução do azul de metileno. No sangue foram determinados os metabólitos: glicose, colesterol, β-hidroxibutirato (BHB), triglicerídeos, fructosamina, ácidos graxos não esterificados (NEFA), proteínas totais, albumina, globulina, uréia, creatinina, cálcio, fósforo e magnésio. As enzimas: aspartato amino transferase (AST), gama glutamil transferase (GGT) e creatina kinase (CK). Os hormônios: cortisol, insulina, triiodotironina (T3), tiroxina (T4), e leptina. Foi efetuado hemograma, para conhecer: hematócrito, hemoglobina, e contagem total e diferencial de células brancas. Na urina foram dosados: corpos cetônicos, pH e densidade. No leite foi determinada: proteína, gordura, lactose, sólidos totais, sólidos não gordurosos, contagem de células somáticas e uréia. Para a determinação de cada um dos metabólitos ou compostos foram usadas técnicas específicas validadas internacionalmente. Os diferentes valores obtidos constituíram os parâmetros básicos de entrada para a construção dos diversos modelos matemáticos executados para predizer a composição do leite. Mediante procedimentos de regressão linear múltipla algoritmo Stepwise, procedimentos de correlação linear simples de Pearson e procedimentos de análise computacional através de redes neurais, foram gerados diferentes modelos para identificar os parâmetros endógenos de maior relevância na predição dos diferentes componentes do leite. A parametrização das principais rotas bioquímicas, do controle endócrino, do estado de funcionamento hepático, da dinâmica ruminal e da excreção de corpos cetônicos aportou informação suficiente para predizer com diferente grau de precisão o conteúdo dos diferentes sólidos no leite. O presente trabalho é apresentado na forma de quatro artigos correspondentes aos parâmetros energéticos, de controle endócrino, modelagem matemática linear múltipla e predição através de Artificial Neural Networks (ANN).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese analisa os efeitos na aprendizagem, a partir de uma proposta pedagógica que integra uma metodologia de intervenção apoiada por recursos tecnológicos. A proposta pedagógica é implementada em ambiente virtual de aprendizagem e se destina à realização de estudos complementares, para alunos reprovados em disciplinas iniciais de matemática em cursos de graduação. A metodologia de intervenção é inspirada no método clínico de Jean Piaget e visa identificar noções já construídas, propor desafios, possibilitar a exploração dos significados e incentivar a argumentação lógica dos estudantes. O ambiente de interação é constituído por ferramentas tecnológicas capazes de sustentar interações escritas, numéricas, algébricas e geométricas. A Teoria da Equilibração de Piaget possibilita a análise de ações e reflexões dos estudantes diante dos desafios propostos. São identificados desequilíbrios cognitivos e processos de reequilibração advindos das interações com os objetos matemáticos. A transformação de um saber-fazer para um saber-explicar é considerada indicativo de aprendizagem das noções pesquisadas e decorre de um desenvolvimento das estruturas de pensamento. Além da análise de processos de reequilibração cognitiva, analisou-se o aproveitamento dos estudantes, considerando os graus de aprendizagem definidos nos critérios de certificação dos desempenhos. Os resultados indicam que as interações promovidas com a estratégia pedagógica proposta colaboraram para a aprendizagem de noções e conceitos matemáticos envolvidos nas atividades de estudo. A análise do processo de equilibração permite identificar a aprendizagem como decorrência do desenvolvimento de estruturas cognitivas. O movimento das aprendizagens revelou processos progressivos de aquisição de sentido dos objetos matemáticos, com graus que expressaram condutas de regulação. Estas permitiram ultrapassar um fazer instrumental, por aplicação de fórmulas ou regras, e avançar por um fazer reflexivo sobre os significados dos conceitos envolvidos. A pesquisa sugere a implementação da proposta como estratégia pedagógica na proposição de ambientes de aprendizagem para a educação matemática a distância e como apoio ao ambiente presencial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No momento em que a sociedade acompanha a evolução do sistema educacional e profissional com a educação a distância em ambiente virtual na Web cada vez mais presente em nosso cotidiano com as tecnologias de informação e comunicação chegando às escolas e universidades, exige-se uma mudança pedagógica na educação. Diretores, professores e toda a comunidade envolvida no processo precisam repensar o seu papel de orientadores e estimuladores e os conceitos sobre a sua prática pedagógica. O aluno tem que modificar a sua forma de agir: aprender por si próprio, ser criativo, saber trabalhar em grupo de modo cooperativo e ser capaz de organizar seu próprio trabalho. Esse tipo de abordagem contribuiu para a construção deste estudo, que tem como objetivo realizar uma análise investigativa sobre o conjunto de procedimentos que asseguram o processo de ensino-aprendizagem na prática pedagógica no ambiente de educação a distância (EAD), abordando e contextualizando as possíveis implicações dessa prática. Para tanto, faz-se necessário compreender a metodologia de interação, cooperação/colaboração e autonomia estabelecida entre as pessoas envolvidas no sistema de educação on-line com o intuito de contribuir para uma ação mais efetiva na organização e no planejamento desse sistema de ensino. Sabemos que a separação física entre o professor e o aluno é uma das peculiaridades do ensino a distância, o que provoca uma necessidade de construir novos conceitos para compreender as relações de mediação que se diferenciam dos parâmetros da sala de aula convencionais. Essa é uma preocupação deste trabalho, cuja intenção é identificar as características específicas que estão inseridas na Didática e como elas estão envolvidas no processo de comunicação e interação entre docentes e alunos nesse espaço de formação. Para desenvolver esta pesquisa, adota-se uma abordagem qualitativa, com a utilização de técnicas como questionários estruturados, fórum e relatos gravados das apresentações feitas pelos alunos participantes do workshop de encerramento do curso e no próprio ambiente. A partir da análise dos dados coletados, diante da multiplicidade de meios, materiais e linguagens disponibilizadas pela educação a distância, faz-se necessário discutir sistematicamente os pressupostos didáticos que interligam os indivíduos em rede de comunicação global proporcionada pelo ambiente tecnológico de aprendizagem – alunos/ professores, alunos/alunos e alunos/ambiente. Como professora/multiplicadora do Programa de Informática Educativa, o espaço escolhido para direcionar o olhar investigativo desta pesquisa foi o Curso de Especialização em Informática Educativa, realizado no ambiente e-ProInfo e oferecido pela Universidade Federal do Espírito Santo no período de 2002 a 2003, para formar novos multiplicadores que atuarão nos Núcleos de Tecnologia Educacional da Secretaria Estadual de Educação e professores facilitadores do laboratório de informática das escolas estaduais de vários municípios do Estado do Espírito Santo. Estes estudos apontaram a importância das estratégias didáticas na prática pedagógica em educação a distância em ambiente virtual na Web, aplicadas com o uso dos instrumentos interativos mediando os interlocutores, aproximando os indivíduos que estão fisicamente distantes e envolvidos nesse processo de ensino-aprendizagem. Considerando que o foco deste estudo é a educação a distância, modalidade de ensino desenvolvida pelo Programa de Pós-Graduação em Educação da Universidade Federal do Rio Grande do Sul, que hoje é uma referência em nível nacional de Educação a Distância, espero estar contribuindo para a inserção deste trabalho no contexto das Universidades e Instituições de Ensino que propõem consolidar esta modalidade de ensino usando como recurso um ambiente virtual de aprendizagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os estudos realizados sobre Unidades de Conservação, e a relação destas Unidades com a população que as habita, trataram em sua maioria dos aspectos antropo-sociológicos da questão. Visto que um aspecto essencial para uma melhor compreensão da questão das populações tradicionais e Unidades de Conservação, contudo pouco explorado, é o processo de mudanças de uso do solo nas regiões em que se inserem estas Unidades, esta pesquisa teve como pretensão preencher esta lacuna. Para tal, são analisadas as transformações de uso do solo em regiões com Unidades de Conservação ambiental e comunidades tradicionais nelas inseridas dentro da realidade brasileira, a fim de melhor compreender suas inter-relações, assim como as implicações de políticas de preservação ambiental incidentes nestas áreas. Esta análise se dá através de modelos de mudança de uso do solo, que são artifícios científicos com estrutura matemática e computacional para apoio ao Planejamento e Gestão Urbana e Regional, e que permitem a análise das causas e das conseqüências da dinâmica dos usos do solo, e quando cenários são utilizados, podem ainda dar suporte ao estabelecimento de políticas e ações de planejamento. Optou-se pela utilização de um sistema de modelagem espaço-temporal integrando um sistema de informações geográficas e um modelo de autômatos celulares como ferramenta de análise das mudanças de uso do solo, incrementado pela análise de demandas pela cadeia de Markov, e com cálculo de preferências de alocação de usos do solo através da Regressão Logística. Procede-se nesta pesquisa a uma avaliação das tendências de uso do solo no Parque Nacional do Superagui, localizado no litoral norte do Estado do Paraná, enquanto estudo de caso. As tendências de uso apresentadas entre os períodos de 1980 e 1990, período anterior à implementação da lei que transformou a área em Parque Nacional, e que poderia ser traduzida como a tendência natural destas comunidades sem a interferência das políticas, são trabalhadas com vista a demonstrar o papel da modelagem na compreensão de realidades, e fornecer embasamento para intervenções pretendidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma abordagem numérica da fratura baseada no Método dos Elementos Finitos na qual são considerados materiais frágeis como objeto de estudo. As simulações realizadas são possíveis através de um algoritmo computacional que consiste na implementação de molas entre as faces dos elementos finitos. Esta composição constitui o método denominado Interfaces Coesivas. As molas fornecem o efeito de coesão e é representado por leis constitutivas do tipo bi-linear. Sua descrição é apresentada, bem como sua implementação na análise. Tanto o modo I como o modo II de ruptura são considerados. Com o objetivo de verificar o presente modelo com outros resultados e soluções, são analisados exemplos numéricos e experimentais extraídos da literatura. Tais exemplos tratam da nucleação, propagação e eventuais paradas de trincas em peças estruturais submetidas aos mais diversos carregamentos e condições de contorno. É ainda discutido como os parâmetros de fratura do material interferem no processo de ruptura. Uma tentativa é feita de determinar estes parâmetros, em especial no caso de concreto.