250 resultados para Resultados obtidos na aprendizagem


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A demanda pelo uso de perfis tubulares em estruturas na construção civil tem tido grande avanço no Brasil, apesar de ser, há muito tempo, amplamente empregado na Europa e países desenvolvidos. O lançamento de uma norma técnica brasileira específica para dimensionamento de perfis tubulares confirma esta tendência, havendo então a necessidade de uma maior divulgação e execução de estudos e trabalhos de pesquisa para uma melhor compreensão e desenvolvimento desta tecnologia. O presente trabalho apresenta uma análise da influência da aplicação de esforço normal no banzo no comportamento de ligações tubulares do tipo T. No desenvolvimento deste trabalho, foram realizados seis ensaios em laboratório com ligações do tipo T com perfis do tipo RHS para o banzo e SHS para o montante, sendo utilizados perfis conformados a frio para composição das ligações ensaiadas. Do total dos ensaios foram executados dois ensaios sem aplicação de esforço normal no banzo; dois com aplicação de esforço normal de compressão e dois com aplicação de esforço normal de tração. A resistência última das ligações nos ensaios foi obtida por meio do Critério de Deformação Limite proposto por diversos pesquisadores. Estes resultados foram comparados com os resultados obtidos em modelos numéricos em elementos finitos desenvolvidos no programa ANSYS 12.0, sendo considerado nestes modelos as não-linearidades geométricas e de material. Estes resultados também foram comparados com os resultados teóricos obtidos com base nas prescrições constantes nas normas Eurocode 3; norma brasileira NBR 16239 e do CIDECT. Conclui-se com este estudo que os resultados obtidos tanto nos ensaios experimentais quanto nos modelos numéricos ficaram a favor da segurança quando comparados com os valores teóricos obtidos pelas normas Eurocode 3 e NBR 16239:2013 e CIDECT com o banzo sem aplicação de esforço normal e com aplicação de esforço normal de compressão de até 60% e 80 % da carga de plastificação do banzo, respectivamente, para o Eurocode 3/NBR16239:2013 e para o CIDECT. As resistências obtidas para as ligações com a aplicação de esforço normal de tração no banzo foram superiores aos resultados teóricos no caso estudado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diversas formas de geração de energia vêm sendo desenvolvidas com o objetivo de oferecer alternativas ecologicamente corretas. Neste contexto, a energia eólica vem se destacando na região Nordeste do Brasil, devido ao grande potencial dos ventos da região. As torres, que representam parcela significativa do custo total do sistema, tendem a crescer buscando ventos mais fortes e permitindo assim a utilização de aerogeradores com maior capacidade de geração de energia. Este trabalho tem como objetivo formular um modelo de otimização de torres tubulares de aço, para aerogeradores eólicos. Busca-se minimizar o volume total (custo, indiretamente), tendo como variáveis de projeto as espessuras da parede da torre. São impostas restrições relativas à frequência natural e ao comportamento estrutural (tensão e deslocamento máximo de acordo com recomendações da norma Europeia). A estrutura da torre é modelada com base no Método dos Elementos Finitos e o carregamento atuante na estrutura inclui os pesos da torre, do conjunto de equipamentos instalados no topo (aerogerador), e o efeito estático da ação do vento sobre a torre. Para verificação das tensões, deslocamentos e frequências naturais, foram utilizados elementos finitos de casca disponíveis na biblioteca do programa de análise ANSYS. Os modelos de otimização foram também implementados no modulo de otimização do programa ANSYS (design optimization), que utiliza técnicas matemáticas em um processo iterativo computadorizado até que um projeto considerado ótimo seja alcançado. Nas aplicações foram usados os métodos de aproximação por subproblemas e o método de primeira ordem. Os resultados obtidos revelam que torres para aerogeradores merecem atenção especial, em relação à concepção do projeto estrutural, sendo que seu desempenho deve ser verificado através de metodologias completas que englobem além das análises clássicas (estáticas e dinâmicas), incluam também as análises de otimização.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A utilização de biomarcadores cardioespecíficos vem sendo recomendado como ferramenta útil na monitoração e identificação precoce de lesão cardíaca, em decorrência do potencial de cardiotoxicidade da terapêutica oncologica. O objetivo do presente estudo foi avaliar o nível plasmático do peptídeo natriurético do tipo B (BNP) e da expressão gênica do BNP e outros genes relacionados a sua síntese, a interleucina-6 (IL-6), fator β1 de transformação de crescimento (TGF-β1) e procolágeno tipo I, mediante a associação dos agentes antineoplásicos docetaxel e ciclofosfamida (TC) e da radiação ionizante (IR) no coração de ratas Wistar, 2 meses após o término do tratamento. Para isso, Ratas Wistar (3-4 meses, n=7) foram irradiadas no coração com dose única de 20Gy, em um campo ântero-posterior de 2x2cm2, em acelerador linear com feixe de energia nominal de 6 MeV; outras (n=7) foram tratadas (4 ciclos, com 7 dias de intervalo) com docetaxel (12,5 mg/Kg) e ciclofosfamida (50 mg/Kg) e irradiadas após 7 dias do tratamento quimioterápico. Como controle (n=7), animais não irradiados e não tratados com quimioterápicos. Após 2 meses do fim do tratamento, a eutanásia dos animais foi realizada. Amostras de plasma e tecido cardíaco, ventrículo esquerdo (VE), foram coletadas. Por ensaio ELISA foi quantificada a concentração plasmática de BNP; parte do tecido cardíaco foi fixado, incluído em parafina e cortado em micrótomo, para assinalar a presença de BNP no VE, avaliação qualitativa, pela técnica de imunohistoquímica (IHQ); e a outra parte para a técnica RT-qPCR, onde foram avaliados a expressão relativa de mRNA dos genes do BNP, IL-6, TGF-β1 e procolágeno tipo I. Na IHQ o grupo controle apresentou uma marcação pontual, enquanto que os grupos tratados apresentaram uma marcação mais difusa, sendo que o grupo TC+IR foi o que apresentou maior dispersão na marcação do BNP no tecido cardíaco. Embora não tenha sido observado no ensaio ELISA uma diferença significativa entre as concentrações plasmáticas de BNP dos grupos tratados em relação ao controle, nota-se uma tendência de aumento no grupo TC+IR. Na analise por RT-qPCR, a expressão relativa de BNP foi similar ao apresentado no ELISA. O grupo TC+IR foi o grupo que apresentou maior expressão gênica de BNP, porém a diferença não é significativa em relação ao controle. A única análise em que se obteve diferença na expressão gênica em relação ao controle foi a do gene IL-6 que apresentou expressão reduzida. Todos os demais genes analisados por RT-qPCR apresentaram uma expressão similar ao controle. Assim, os resultados obtidos sugerem que o BNP não se apresentou como um bom biomarcador cardioespecífico para identificação precoce de lesão cardíaca, no período a qual foi avaliado. As ratas Wistar, 2 meses após a submissão do tratamento, não apresentaram um resultado diferenciado em relação ao controle, nos genes TGF-β1 e procolágeno tipo I, sugerindo ausência de um quadro de remodelamento cardíaco. Entretanto, apresentou redução significativa do gene IL-6, no grupo TC+IR, propondo ação anti-inflamatória do BNP, que no mesmo grupo, apresentou uma tendência de aumento em sua expressão gênica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste estudo foi avaliar a dissolução do tecido pulpar pelo NaOCl contendo em sua composição agentes redutores da tensão superfical (Chlor-Xtra) quando comparados ao NaOCl convencional. Com esta finalidade 44 dentes unirradiculares humanos com tecido pulpar preservado em solução de formol a 10% foram agrupados em 22 pares de acordo com a semelhança de sua anatomia interna previamente avaliada por radiografias. Os canais foram instrumentados com sistema Protaper Universal e todo o processo de irrigação teve, além do tempo, seu volume e fluxo controlado por meio automatizado por meio do sistema Vatea Endodontic Iirrigation Device. Após cada canal que compunha um par ter sido instrumentado empregando-se uma das diferentes soluções testadas, as quais foram previamente avaliadas quanto a sua tensão superficial, ambos foram devidamente preparados e enviados para processamento e análise histológica. Cortes a 0,5, 1,2,3 e 4mm do ápice foram realizados, corados e fotografados. As imagens foram analisadas por meio do programa AxioVision a fim de estabelecer o percentual de tecido remanescente em relação à área total do canal nos segmentos estudados. As análises referentes a tensão superficial revelaram que o Chlor-Xtra demonstrou possuir significativamente menor tensão superficial quando comparado ao NaOCL convencional (p>0,05). A análise estatística por meio do test T student das áreas dos canais, demonstrou que o pareamento das amostras foi eficiente entre os grupo NaOCl e Chlor-Xtra (p>0,05). Em relação ao Percentual de Tecido Remanescente (PTR), os resultados revelaram por meio de análise feita pelo teste Kruskal-Wallis e o teste de correlação de Spearman que o nível de corte influencia significantemente o PTR (P<0,05).Por fim, o teste de Mann-Whitney indicou que o PTR não é influenciado pela solução irrigadora utilizada (P>0,05). A partir da análise dos resultados foi possível concluir que quanto mais apicalmente foi o nível de corte histológico dos canais estudados, maior foi o percentual de tecido pulpar remanescente independentemente da solução utilizada, portanto.não houve diferença significativa na qualidade do debridamento produzido pelas duas soluções testadas, desta forma indicando que a presença de agentes modificadores da tensão adicionados ao NaOCl não foi capaz de superar os resultados obtidos por soluções de NaOCl convencionais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho teve por objetivo investigar a microbiota de canais radiculares relacionadas ao insucesso do tratamento endodôntico, buscando a identificação e a quantificação destes micro-organismos. Foram selecionados 36 dentes com infecção endodôntica persistente. O material obturador foi removido do canal radicular e amostras microbiológicas foram coletadas dos canais com o auxílio de limas tipo Hedströen e cones de papel absorvente estéril. A técnica do Checkerboard DNA-DNA hybridization foi utilizada para detecção de até 79 espécies bacterianas em cada amostra, utilizando sondas de DNA específicas. Os dados microbiológicos foram expressos em percentagem média (prevalência), proporção e nível médio de cada espécie em cada amostra. Os testes t independente e de correlação de Pearson foram usados para correlacionar a contagem das bactérias testadas com os dados clínicos (p≤ 0,05). Foi encontrada uma média de 11 espécies por amostra. E. faecium (36%), S. epidermidis (36%), E. saburreum (28%), P. micra (28%), S. sanguis (28%), C. sputigena (28%), L. buccalis (28%), E. faecalis (28%) e S. warneri (28%) foram as espécies mais prevalentes, e as espécies encontradas em níveis médios mais altos foram E. faecium, D. pneumosintes, S. epidermidis, H. pylori e C. sputigena. T. socranskii (3%), F. periodonticum (3%), C. gingivalis (3%), S. ixodetis (3%) apresentaram prevalências mais baixas. E. faecium e S. epidermidis apresentaram os maiores valores de prevalência, níveis médios e proporção. Não houve correlação entre a microbiota detectada nas amostras com os sinais e sintomas clínicos apresentados pelos pacientes, porém nas lesões periapicais de maior área foi detectada contagem significativamente maior de bacilos e espécies Gram-negativas (p<0,05). Baseado nos resultados obtidos é possível concluir que a microbiota presente em dentes com periodontite apical persistente possui perfil misto e complexo, e que uma maior área de lesão perirradicular pode estar associada a contagem elevada de bacilos e de espécies Gram-negativas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nos depósitos cenozóicos da Bacia de Taubaté são encontrados depósitos de folhelhos betuminosos (oleígenos) pertencentes à Formação Tremembé, de idade oligocênica, que durante alguns anos na década de 50 foram investigados com relação ao seu aproveitamento econômico através da extração industrial do óleo nele contido. Entretanto, em face de aspectos tecnológicos e conjunturais da época, esse aproveitamento industrial foi considerado inviável do ponto de vista econômico. Nesta dissertação é proposta uma aplicação da perfilagem geofísica para a caracterização da faciologia dos folhelhos betuminosos da Formação Tremembé, tendo como objetivo principal a identificação das eletrofácies nos perfis elétricos, através de uma metodologia robusta e consistente. A identificação de eletrofácies é importante para ajudar na determinação da caracterização de uma reserva não convencional e na análise da viabilidade econômica. Neste estudo foram utilizados os perfis convencionais de poço: Raio gama, resitividade, potencial espontâneo e sônico. Os dados de perfis de poços foram integrados com os testemunhos e dados geoquímicos, mais precisamente os dados de COT, S, IH, S2 para uma caracterização realística das eletrofácies. Os dados foram obtidos a partir de três sondagens rotativas realizadas na Bacia de Taubaté, resultantes de testemunhagem contínua e perfilagem a cabo ao longo do intervalo de folhelhos da Formação Tremembé. A partir disto, obtém-se como resposta um modelo específico para cada litologia, onde cada pico corresponde a uma eletrofácies, permitindo o estabelecimento de alguns padrões ou assinaturas geofísicas para as principais fácies ocorrentes. Como resultado deste trabalho, foi possível correlacionar as eletrofácies entre os poços numa seção modelo, a partir de similaridade lateral das eletrofácies entre os marcos estratigráficos representado, foi possível observar a continuidade de duas sequências de folhelhos betuminoso com alto teores de COT, S, IH, S2, considerados os mais importantes do ponto de vista econômico e gerado um modelo faciológico 2D e 3D dessas camadas. Os resultados obtidos neste trabalho são bastante promissores, apontando para a possibilidade de aplicação desta técnica a outros poços da Bacia de Taubaté, fornecendo subsídios relevantes à determinação da evolução sedimentar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho é contribuir com o desenvolvimento de uma técnica baseada em sistemas inteligentes que possibilite a localização exata ou aproximada do ponto de origem de uma Variação de Tensão de Curta Duração (VTCD) (gerada por uma falta) em um sistema de distribuição de energia elétrica. Este trabalho utiliza um Phase-Locked Loop (PLL) com o intuito de detectar as faltas. Uma vez que a falta é detectada, os sinais de tensão obtidos durante a falta são decompostos em componentes simétricas instantâneas por meio do método proposto. Em seguida, as energias das componentes simétricas são calculadas e utilizadas para estimar a localização da falta. Nesta pesquisa, são avaliadas duas estruturas baseadas em Redes Neurais Artificiais (RNAs). A primeira é projetada para classificar a localização da falta em um dos pontos possíveis e a segunda é projetada para estimar a distância da falta ao alimentador. A técnica aqui proposta aplica-se a alimentadores trifásicos com cargas equilibradas. No desenvolvimento da mesma, considera-se que há disponibilidade de medições de tensões no nó inicial do alimentador e também em pontos esparsos ao longo da rede de distribuição. O banco de dados empregado foi obtido através de simulações de um modelo de alimentador radial usando o programa PSCAD/EMTDC. Testes de sensibilidade empregando validação-cruzada são realizados em ambas as arquiteturas de redes neurais com o intuito de verificar a confiabilidade dos resultados obtidos. Adicionalmente foram realizados testes com faltas não inicialmente contidas no banco de dados a fim de se verificar a capacidade de generalização das redes. Os desempenhos de ambas as arquiteturas de redes neurais foram satisfatórios e demonstram a viabilidade das técnicas propostas para realizar a localização de faltas em redes de distribuição.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A evolução nos sistemas digitais de comunicação está intrinsicamente relacionada ao desenvolvimento da tecnologia de fibras ópticas. Desde a sua criação, na década de 60, inúmeras pesquisas vem sendo realizadas com o intuito de aumentar a capacidade de informação transmitida, por meio da redução da atenuação, controle da dispersão cromática e eliminação das não-linearidades. Neste contexto, as Fibras de Bragg surgem como uma estrutura de grande potencialidade para se minimizar tais inconvenientes. As fibras de Bragg possuem um mecanismo de operação diferente em relação às fibras tradicionais de suportar os modos confinados. Nelas, o núcleo possui um baixo índice de refração, e a casca é constituída por anéis dielétricos de diferentes índices de refração, alocados alternadamente. Para uma fibra de Bragg com núcleo oco, como a considerada neste trabalho, há perdas decorrentes dos modos de fuga. Portanto, a análise da dispersão destas estruturas se situa no plano complexo, tornando-a muito difícil. Esta dissertação será fundamentada em uma estratégia imprescindível à análise dos modos transversais TE0m, TM0m e dos híbridos. Os resultados encontrados são validados confrontando-os com os obtidos na literatura. O trabalho discutirá as perdas e dispersões dos modos citados, e os resultados obtidos poderão nortear as pesquisas das fibras de Bragg.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os processos de beneficiamento têxtil, como o alvejamento, a purga, o tingimento e as lavagens são reconhecidamente impactantes ao meio ambiente, tanto do ponto de vista de consumo de água, quanto da geração de efluentes. Os efluentes têxteis oriundos dos processos de beneficiamento se caracterizam por apresentarem elevadas concentrações de substâncias emulsificantes, íons cloreto, sólidos e matéria orgânica, além de alta toxicidade. Mas sem dúvida, o maior problema desses efluentes deve-se a presença de corantes e pigmentos. Alguns parâmetros físico-químicos importantes no controle da poluição hídrica são de difícil medição e consequente monitoramento, principalmente pela ausência de legislação que expresse de maneira clara e objetiva os limites destes parâmetros. Este fato permite avaliações dúbias e contestações aos órgãos ambientais. Especificamente no caso do parâmetro cor, esta subjetividade obriga muitas indústrias a empregarem valores de controle de cor oriundos de outros estados, ou até mesmo de outros países. No Rio de Janeiro, de acordo com a NT-202-R-10 do INEA, o critério para cor é estar virtualmente ausente no efluente. Neste contexto, este estudo avaliou algumas metodologias empregadas na determinação da cor em um efluente têxtil. Para a medição de cor, foram empregadas três metodologias descritas na literatura. A primeira metodologia desenvolvida para análise de água, também utilizada para efluentes líquidos, se baseia em medições espectrofotométricas em um único comprimento de onda padrão (450nm ou 465nm), tendo como referência soluções de Pt-Co. Essa metodologia não abrange todas as tonalidades do espectro de cores possíveis para os efluentes têxteis. O segundo método se baseia na medição em três comprimentos de onda (436, 525 e 620nm), denominado índice DFZ. O último método investiga os valores máximos de absorbância, na faixa entre 350 e 700nm, na amostra. Os resultados obtidos mostraram que as correções dos valores de medição de cor utilizando os valores máximos de absorbância expressaram melhor a realidade dos dados experimentais, visto que eliminam um possível erro causado pela restrita faixa de detecção do método tradicional, numa região do espectro típica para tonalidades encontradas na água.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os lixiviados de aterros de resíduos sólidos urbanos possuem um potencial poluidor que necessita de atenção por parte das autoridades no assunto Universidade, Estado, Iniciativa Privada. Atualmente têm sido pesquisadas tecnologias para esse tratamento que sejam capazes de assimilar as variações de volume e de carga orgânica dos mesmos. O tratamento biológico combinado de lixiviados em Estações de Tratamento de Esgoto mostrase uma alternativa viável. Neste trabalho foi avaliado o tratamento combinado de lixiviado e esgoto em uma Planta Piloto de lodos-ativados, instalada na ETE de Icaraí/Niterói (RJ). O estudo foi desenvolvido com percentuais de lixiviado nas proporções de 0,5 a 2,5% em relação ao esgoto (volume/volume). Em termos de carga de DQO, os percentuais foram de 1,9 a 8,7% de carga equivalente ao lixiviado adicionado. Na Planta Piloto os resultados indicaram redução média de DQO de 73% ao longo de todo o monitoramento, sendo alcançadas remoções acima de 90%. Valores médios de DQO remanescente no efluente da planta piloto variaram de 43 a 134mg/L. Quanto às remoções médias de nitrogênio amoniacal foram alcançados valores de 80 a 97%. A redução de matéria orgânica, em termos de COD foi de 73%. Também foram monitorados reatores aeróbios em bancada de modo a avaliar possíveis interferências no desenvolvimento do lodo biológico. Foram operados reatores em regime de batelada e em regime contínuo. Os reatores não indicaram prejuízos ao lodo biológico em função do acréscimo de lixiviado para os percentuais de mistura 0,5 a 2,5% de lixiviado. Foram observadas reduções de DQO acima de 80%. As remoções de nitrogênio amoniacal foram maiores no reator operado em regime de batelada (>80%). Os resultados obtidos demonstram a viabilidade técnica do tratamento combinado e não indicaram interferência negativa no tratamento, em se tratando de redução de DQO, com o aumento da percentagem de lixiviado. Problemas na sedimentabilidade do lodo biológico foram observados ao longo de todo o período de operação da planta piloto, não havendo indicação de perda de sua qualidade em função das diferentes concentrações de lixiviado na alimentação.