230 resultados para ferramenta
Resumo:
A tecnologia sem fio (wireless) vem tomando conta do mundo. A cada dia mais pessoas estão trocando seus equipamentos com fio por equipamentos com a tecnologia wireless. Isso vem crescendo, devido as suas vantagens, tais como: facilidade de instalação e manutenção, redução de tempo de instalação de dispositivos, inexistência de estrutura de cabeamento, economia no custo de projetos, economia em infraestrutura, flexibilidade de configuração de dispositivos, economia no custo de montagem, flexibilidade na alteração de arquiteturas existentes e outros. Por essas facilidades supracitadas a área de automação industrial está também aumentando o seu interesse nessa tecnologia wireless. Nessa área, a segurança, confiabilidade e robustez dos dados são de suma importância. Então, para minimizar os efeitos das interferências geradas nesse meio são usadas técnicas de espalhamento em frequência e topologia em malha ou árvore para transmissão dos dados enviados pelos sensores aos nós roteadores até chegar ao gateway. Sendo assim, o posicionamento dos nós roteadores na rede em malha garantirá a menor influência dessas interferências. Esse trabalho propõe uma ferramenta de posicionamento de nós roteadores intermediários, chamado POSIMNET (Positioning Immune Network Rede Imunológica de Posicionamento), que auxilia o projetista da rede de automação industrial a encontrar a melhor configuração da rede sem fio. O POSIMNET é baseado nas redes imunológicas artificiais, que propõe criar n caminhos quaisquer ou disjuntos para as informações enviadas pelos nós sensores chegarem ao gateway, através da supressão, clonagem e reconfiguração de nós roteadores intermediários. Além disso, o algoritmo também é capaz de atender os critérios de baixo grau de falha e baixo número de retransmissão pelos roteadores. Esses critérios podem ser habilitados individualmente ou combinados com pesos iguais ou diferentes para cada um, a critério do usuário. A ferramenta POSIMNET é formada por dois módulos: (i) Rede Imunológica agrega elementos de dois modelos de redes imunológicas (SSAIS e AiNet); (ii) Campos Potenciais - posiciona os nós roteadores pelos campos potenciais, onde os sensores críticos os atraem enquanto que os obstáculos e outros roteadores os repelem.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.
Resumo:
O gerenciamento do tempo nos projetos de construção civil usualmente utiliza algoritmos determinísticos para o cálculo dos prazos de finalização e algoritmos PERT para avaliação da probabilidade de o mesmo terminar até uma determinada data. Os resultados calculados pelos algoritmos tradicionais possuem defasagens nos prazos se comparados aos encontrados na realidade o que vem fazendo com que a simulação venha se tornando uma ferramenta cada vez mais utilizada no gerenciamento de projetos. O objetivo da dissertação é estudar o problema dos prazos de finalização dos projetos desenvolvendo novas técnicas de cálculo que reflitam melhor os prazos encontrados na vida real. A partir disso é criada uma ferramenta prática de gerenciamento do tempo de atividades de projetos de construção enxuta baseada em planilha eletrônica onde serão utilizadas técnicas de simulação a eventos discretos, com base em distribuições de probabilidade como, por exemplo, a distribuição beta.
Resumo:
A dissertação ora apresentada traz em foco um homem da cultura musical nordestina de grande valor. Referimo-nos a João do Vale, O poeta do povo. Suas produções musicais refletem a cultura de uma parcela significativa do povo brasileiro, o nordestino. Canto do poeta do povo: um estudo nas letras de João do Vale analisa as letras das canções do primeiro disco deste compositor, por entendê-las no contexto em que foram produzidas e examina-as no seu processo de atuação dos anos 60 em que, sem cortar vínculos com o sertão nordestino, ligou-se às questões políticas, social e cultural de todo o país. Abordam-se as canções populares como ferramenta eficaz para atrair a atenção dos educandos, para o estudo dos fatos da língua portuguesa nos diferentes contextos em que ela se apresenta, por meio de temas instigantes, tal como a ditadura e a cultura popular do homem do sertão. Entre as várias possibilidades de estudo da língua, privilegiou-se estudar a estilística como ciência da expressividade, dando ênfase à estilística poética, pela força da poeticidade de João do Vale mostrada quando externa à poesia simples e aos ensinamentos sábios do povo. Ao apontar caminhos para o estudo da língua portuguesa através das produções musicais populares, em especial as letras de João do Vale divulga-se seu trabalho e torna-se conhecida a trajetória e a produção deste cancioneiro maranhense que, na leveza de sua expressividade, no anseio de ser compreendido e ver valorizada a história de seu povo, registrou-a com musicalidade
Resumo:
A inflação consegue dar conta de uma série de problemas do Modelo padrão da Cosmologia, preservando ainda o sucesso do modelo do Big Bang. Na sua versão mais simples, a inflação é controlada por um campo escalar, o ínflaton, que faz com que o universo se expanda exponencialmente. Após, o ínflaton decai e ocorre o reaquecimento do universo. Contudo, alguns autores apontam a existência de uma fase intermediária, chamada de pré-aquecimento. O decaimento do ínflaton possui uma rica dinâmica não-linear. No primeiro estágio, a ressonância paramétrica promove o crescimento exponencial de alguns modos do ínflaton. Isto altera a dinâmica do modo homogêneo do ínflaton, promovendo uma reestruturação das cartas de ressonâncias da equação de movimento dos modos perturbativos. Desta forma, ocorre a transferência de energia para estes modos, até que o universo termaliza. Esta transferência de energia é típica de um sistema turbulento. Por se tratar de uma evolução não-linear, torna-se conveniente a implementação computacional de métodos numéricos. Neste contexto, os métodos espectrais têm se mostrado uma excelente ferramenta para estudar este tipo de sistema. Esta dissertação apresenta os resultados do esquema numérico desenvolvido para o modelo com potencial quártico, que será a base para os demais estudos a serem desenvolvidos. Como mostrado, este esquema é extremamente preciso e eficiente.
Resumo:
A estabilidade de taludes naturais é um tema de grande interesse ao engenheiro geotécnico, face às significativas perdas econômicas, e até mesmo humanas, resultantes da ruptura de taludes. Estima-se que a deflagração de escorregamentos já provocou milhares de mortes, e dezenas de bilhões de dólares em prejuízos anuais em todo o mundo. Os fenômenos de instabilização de encostas são condicionados por muitos fatores, como o clima, a litologia e as estruturas das rochas, a morfologia, a ação antrópica e outros. A análise dos condicionantes geológicos e geotécnicos de escorregamentos proporciona a apreciação de cada um dos fatores envolvidos nos processos de instabilização de encostas, permitindo a obtenção de resultados de interesse, no que diz respeito ao modo de atuação destes fatores. O presente trabalho tem como objetivo a utilização da Lógica Nebulosa (Fuzzy) para criação de um Modelo que, de forma qualitativa, forneça uma previsão do risco de escorregamento de taludes em solos residuais. Para o cumprimento deste objetivo, foram estudados os fatores envolvidos nos processos de instabilização de encostas, e a forma como estes fatores se interrelacionam. Como experiência do especialista para a elaboração do modelo, foi analisado um extenso banco de dados de escorregamentos na cidade do Rio de Janeiro, disponibilizado pela Fundação Geo-Rio. Apresenta-se, neste trabalho, um caso histórico bem documentado para a validação do Modelo Fuzzy e análises paramétricas, realizadas com o objetivo verificar a coerência do modelo e a influência de cada um dos fatores adotados na previsão do risco de escorregamento. Dentre as principais conclusões, destaca-se a potencialidade da lógica nebulosa na previsão de risco de escorregamentos de taludes em solo residual, aparecendo como uma ferramenta capaz de auxiliar na detecção de áreas de risco.
Resumo:
O projeto de Estações de Tratamento de Efluentes Industriais (ETEIs) deve objetivar um desempenho médio, o qual não pode ser ultrapassado certo número de vezes durante seu tempo operacional. Este trabalho propõe a aplicação da metodologia conhecida como Coeficiente de Confiabilidade (CDC) para quantificação da confiabilidade das etapas de tratamento físico (Separação Águaóleo SAO e flotação) e biológico (lodos ativados com aeração prolongada), considerando efluente oleoso proveniente de refino de petróleo. Tal metodologia, entretanto, não possibilita a identificação das prováveis causas do baixo desempenho na tratabilidade. Por isso também é proposta a aplicação da ferramenta de gestão riscos conhecida como FMECA (Failure Modes, Effects and Criticality Analysis), que permite a quantificação das observações qualitativas de campo, tornando os valores comparáveis para definir a hierarquização dos riscos e criticidade das etapas de tratamento estudadas. A etapa biológica para o parâmetro NH3 apresentou a maior confiabilidade, ainda que a análise de risco tenha apontado esta etapa como mais crítica. Ou seja, um sistema confiável não necessariamente apresenta menor criticidade, pois uma má gestão implicará em possíveis infrações às metas pré-fixadas ou à própria legislação ambiental.
Resumo:
Partículas nanoestruturadas têm sido amplamente utilizadas como carga de reforço em matrizes elastoméricas, sendo substitutos eficazes das cargas convencionais, já consagradas, como o negro de fumo, mica, sílica. Em especial, as argilas têm mostrado grande potencial ao que se refere a melhor dispersão na matriz polimérica, em função de sua elevada razão de aspecto. Dentro do vasto universo de argilominerais, as argilas aniônicas, também conhecidas hidróxido duplo lamelar (HDL), apresentam como vantagem a possibilidade de ser projetada estruturalmente para as mais diversas finalidades, ao se modificar os ânions ou os cátions, ou até mesmo combiná-los na estrutura lamelar. E dentre os métodos existentes para se preparar compósitos a base de elastômero/argila, a co-coagulação do látex, é uma forma bastante eficaz e economicamente viável, uma vez que a borracha obtida após processo de coagulação já contém a carga incorporada. Este trabalho se dedicou a avaliar o processo de co-coagulação do látex de NBR e HDL, visando a obtenção de nanocompósitos. Para tanto HDL de composição Mg/Al-CO3 foi modificado com ânions DS, DBS e ST e foram preparadas suspensões aquosas, utilizando como ferramentas de dispersão ultraturrax e ultrassom de ponteira. As variáveis de processo avaliadas foram tipo e teor de HDL, tempo de mistura látex/suspensão aquosa de HDL, quantidade de coagulante e velocidade de agitação. Por fim, os coágulos obtidos foram formulados para avaliar a influência dos HDL na cinética de vulcanização e também para determinação das propriedades mecânicas convencionais. Os resultados obtidos comprovaram que a metodologia de dispersão de hidrotalcita ao látex nitrílico de modo prévio ao processo de coagulação é uma alternativa viável para a obtenção de nanocompósitos. O uso do ultrassom de ponteira como ferramenta na dispersão aquosa de HDL contribuiu para maior estabilidade da suspensão e o ajuste nos parâmetros do sistema de coagulação, levaram a obtenção de grumos uniformes do ponto de vista macroscópico e microscópico. As micrografias dos coágulos não vulcanizados obtidas por MEV-FEG confirmaram as informações apuradas a partir dos difratogramas de raios-X que apontou a formação de um sistema parcialmente esfoliado, em função da ausência dos picos característicos da hidrotalcita, além de indicarem a coexistência de partículas em dimensões micrométrica a nanométricas em uma mesma estrutura. A composição química do HDL, com a presença de átomos de magnésio e alumínio combinados com grupos hidroxila favoreceu a redução tanto o tempo de indução como de pré-cura. As propriedades mecânicas que se mostraram mais sensíveis ao grau de dispersão da carga foram a dureza, a deformação permanente à compressão (DPC) e o módulo de tração a 300% de deformação (E300), em especial para os compósitos contendo 10% m/m de HDL natural e modificado com estearato. A resistência à chama dos nanocompósitos de NBR-HDL vulcanizados apresentou um ligeiro aumento quando comparados à NBR pura, visto que esta é uma característica própria da hidrotalcita, decorrente da sua composição química
Resumo:
Esta pesquisa busca contribuir para a compreensão e as investigações das políticas curriculares de formação de professores como ciência social, apropriando-se das teorias pós-estruturalistas. Repensa algumas temáticas como a hegemonia, o poder, a constituição das identidades docentes nas políticas curriculares, a produção do discurso pedagógico e do discurso curricular na formação de professores. Nas pesquisas sobre políticas de currículo, percebe-se que o foco na formação de professores marca o protagonismo docente, na medida em que esse agente é significado como a peça-chave nas mudanças políticas curriculares. O professor é identificado como quem ressignifica o conhecimento, dissemina e transforma o discurso político-pedagógico nas várias instâncias educacionais. Esse espaço ora é significado pela omissão de sua atuação ou formação, remetendo a um discurso de culpabilização docente, ora marcado por um espaço de endeusamento e que significa o professor como parceiro nas mudanças e projetos curriculares propostos pelos órgãos nacionais e internacionais. Esse movimento de contínua produção de significados é um movimento de endereçamento de sentidos. Os discursos produzidos nos contextos FHC e Lula convivem com diferentes discursos sociais e culturais que são reinterpretados ao mesmo tempo em que recriam novos discursos. Nessa contínua produção de sentidos, a formação de professores é marcada por uma tendência a naturalizar certos sentidos para o currículo estabelecendo uma interface entre discurso pedagógico e discurso de política curricular de formação de professores. A pesquisa apresenta um estudo na temática da identidade docente, no campo das políticas curriculares, no período dos governos Fernando Henrique Cardoso (FHC) e Lula da Silva (Lula), a partir da discussão sobre a formação docente como projeto curricular que busca endereçar uma dada identidade, relacionando discurso pedagógico e discurso curricular. A análise dos documentos é feita por meio da ferramenta tecnológica do programa WordSmith Tools, versão 5, investigando os endereçamentos de sentidos para a constituição da identidade docente, bem como o/s sentido/s defendido/s em cada contexto para a formação de professores. A fundamentação teórica tem por base o Ciclo de Políticas de Stephen Ball, processos de hibridização e identidade com Stuart Hall, S. Ball e Rita Frangella, Política Curricular com Alice C. Lopes, Elizabeth Macedo, Teoria do Discurso com Ernesto Laclau e Chantal Mouffe e formação de professores com Helena de Freitas, Carlinda Leite e Rosanne Dias. Defende-se que o endereçamento de sentidos e a busca por hegemonizar determinados discursos fazem parte de uma luta de poder, de articulações que constituem sujeitos e contextos e, por isso, produzem processos provisórios e contingentes de constituição de identidades docentes. Entende-se, nessa perspectiva, que não existe uma identidade fixa e universal que possa dar conta de representar o social. A tese apresentada é de antagonismo entre os projetos políticos, aqui denominados como FHC e Lula, pois engendram discursos de formação de identidade docente que defendem, ao mesmo tempo em que justificam, a necessidade de mudanças nas políticas curriculares de formação de professores e na significação do discurso pedagógico mais adequado para cada contexto. Contudo, apesar de defenderem diferentes discursos e concepções de identidade docente, acabam por assemelharem-se nas propostas finais por meio dos mecanismos de aferição da qualidade docente pautados em índices nacionais e internacionais através de avaliações, minimizando dessa forma o antagonismo entre as duas propostas. Conclui-se que há antagonismo entre as duas cadeias discursivas e, ainda que em alguns momentos enfraquecidos por força de demandas à margem do projeto político social mais amplo, permanecem antagônicas mesmo que por sutis diferenças
Resumo:
Instituições de Ensino Superior (IES) que realizam atividades de ensino e pesquisa em Química, em geral são potenciais áreas de risco de acidentes, uma vez que utilizam substâncias químicas perigosas em seus processos de ensino e pesquisa. Esta pesquisa se justifica em face da existência de substâncias de natureza química e biológica as quais possuem riscos à saúde e ao meio ambiente e de alguns acidentes já ocorridos em diversas IES no Brasil e exterior. O objetivo da pesquisa foi elaborar diretrizes para a gestão de emergências em acidentes químicos que possam ser aplicadas nos laboratórios de um Instituto de Química de uma Universidade Pública do Estado do Rio de Janeiro. Trata-se de um estudo exploratório e descritivo, aplicado a um caso estudado, de uma emergência. Realizou-se de revisão em literatura especializada, visitas aos laboratórios, registros fotográficos e entrevistas dirigidas a funcionários, técnicos e professores do IQ. A metodologia de avaliação de vulnerabilidade baseou-se no método dos cinco passos da Federal Emergency Management Agency. O estudo de caso mostrou que o Instituto de Química não possui uma Gestão de Emergências Químicas, com ausência de brigada de incêndio e o não cumprimento de normas técnicas e regulamentares. Apesar disso, existem laboratórios que possuem um perfil satisfatório quanto à segurança e saúde. O estudo mostrou também que a metodologia de Análise de Vulnerabilidade é uma boa ferramenta para elaboração de diretrizes voltadas para um Plano de Emergência, quando conduzida por equipe especializada.
Resumo:
A água é essencial à manutenção da vida. No entanto, com as situações de estresse hídrico - disponibilidade hídrica inferior a 1.700 m per capita ao ano (FALKENMARK, 1989) - vivenciadas em diversos pontos do planeta, somadas ao acelerado crescimento da população mundial, os problemas relacionados ao uso da água tendem a aumentar. Neste contexto, a pegada hídrica (PH), que é um indicador de sustentabilidade ambiental, se torna uma importante ferramenta de gestão de recursos hídricos pois indica o consumo de água doce com base em seus usos. O presente trabalho objetiva mensurar a pegada hídrica em função das componentes industrial, doméstica e alimentar da população do bairro Rocinha, um aglomerado subnormal localizado no município do Rio de Janeiro. A pesquisa se deteve a um Estudo de Caso de 20 sub-bairros da comunidade. Sua abordagem foi quantitativa, contando com uma amostra de 203 domicílios, erro amostral de 7% e grau de confiança de 93%. Para tal, foi utilizada como ferramenta de cálculo o modelo Water Footprint Network do ano de 2005. Os resultados indicaram que, em média, a PH dos indivíduos que compõem a amostra é de 1715 m/ano per capita assim divididos: PH de consumo doméstico de água de 175 m/ano per capita (479 l/hab.dia); PH de produtos agrícolas igual a 1470 m/ano per capita, e PH de produtos industrializados de 70 m/ano per capita. Os resultados obtidos sugerem que os indivíduos da amostra com uma maior despesa mensal tendem a ter pegadas hídricas industrial e total também maiores.
Resumo:
Este trabalho apresenta uma estimativa a priori para o limite superior da distribuição de temperatura considerando um problema em regime permanente em um corpo com uma condutividade térmica dependente da temperatura. A discussão é realizada supondo que as condições de contorno são lineares (lei de Newton do resfriamento) e que a condutividade térmica é constante por partes (quando considerada como uma função da temperatura). Estas estimativas consistem em uma ferramenta poderosa que pode prescindir da necessidade de uma simulação numérica cara de um problema de transferência de calor não linear, sempre que for suficiente conhecer o valor mais alto de temperatura. Nestes casos, a metodologia proposta neste trabalho é mais eficaz do que as aproximações usuais que assumem tanto a condutividade térmica quanto as fontes de calor como constantes.
Resumo:
O crescimento do uso dos aerogeradores de pequeno porte em áreas urbanas em todo o mundo aponta para um mercado em expansão e extremamente promissor, principalmente no brasil, onde o potencial eólico é grande. tratando-se de máquinas pequenas existe interesse dos consumidores residenciais na sua utilização, seja para economia de energia ou por adesão às fontes alternativas. existe uma grande quantidade de fabricantes no mundo incluindo aerogeradores de alta, média e baixa qualidade. com isso surge a necessidade de criar métodos que avaliem estes produtos quanto ao seu rendimento energético, como ocorrem com as geladeiras, lâmpadas, fogões e outros, a fim de resguardar a qualidade deste equipamento ao consumidor. a proposta é criar um ciclo de teste (ou ciclo de ventos) baseado nos perfis de comportamentos diários de ventos urbano obtidos através de medições reais feitos pelo projeto sonda. esse perfil será usado para testar os aerogeradores de até 1 kw em laboratório, com auxílio de um túnel de vento a fim de determinar o rendimento energético do conjunto gerador, servindo como método para o aprimoramento desses aparelhos. outra possibilidade é o uso desta metodologia no programa brasileiro de etiquetagem, que classifica os produtos em função de sua eficiência energética. este trabalho também pode ser usado para acreditação de laboratórios de certificação que avaliam produtos em função de sua eficiência e/ou rendimento, visto que a acreditação é uma ferramenta estabelecida em escala internacional para gerar confiança na atuação de organizações que executam atividades de avaliação da conformidade.
Resumo:
Neste trabalho é apresentado a aplicação de um método de otimização a fim de estimar parâmetros que normalmente estão presentes na modelagem matemática da dinâmica de espécies químicas na interface água-sedimento. O Problema Direto aqui consistiu na simulação das concentrações das espécies orgânicas e inorgânicas (amônia e nitrato) de nitrogênio, num ambiente idealizado, o qual foi fracionado em quatro camadas: uma camada de água (1 metro) e três camadas de sedimento (0-1 cm, 1-2 cm e 2-10 cm). O Problema Direto foi resolvido pelo Método de Runge Kutta, tendo sido gerada uma simulação de 50 dias. Na estimativa dos coeficientes de difusão e porosidade foi aplicado o Método Simulated Annealing (SA). A eficiência da estratégia aqui adotada foi avaliada através do confronto entre dados experimentais sintéticos e as concentrações calçadas pela solução do Problema Direto, adotando-se os parâmetros estimados pela SA. O melhor ajuste entre dados experimentais e valores calculados se deu quando o parâmetro estimado foi a porosidade. Com relação à minimização da função objetivo, a estimativa desse parâmetro também foi a que exigiu menor esforço computacional. Após a introdução de um ruído randômico às concentrações das espécies nitrogenadas, a técnica SA não foi capaz de obter uma estimativa satisfatória para o coeficiente de difusão, com exceção da camada 0-1 cm sedimentar. Para outras camadas, erros da ordem de 10 % foram encontrados (para amônia na coluna dágua, pro exemplo). Os resultados mostraram que a metodologia aqui adotada pode ser bastante promissora enquanto ferramenta de gestão de corpos dágua, especialmente daqueles submetidos a um regime de baixa energia, como lagos e lagoas costeiras.