113 resultados para Ensilagem - Processamento
Resumo:
Neste trabalho contemplamos o emprego de detectores de voz como uma etapa de pré- processamento de uma técnica de separação cega de sinais implementada no domínio do tempo, que emprega estatísticas de segunda ordem para a separação de misturas convolutivas e determinadas. Seu algoritmo foi adaptado para realizar a separação tanto em banda cheia quanto em sub-bandas, considerando a presença e a ausência de instantes de silêncio em misturas de sinais de voz. A ideia principal consiste em detectar trechos das misturas que contenham atividade de voz, evitando que o algoritmo de separação seja acionado na ausência de voz, promovendo ganho de desempenho e redução do custo computacional.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
A Inteligência de Enxame foi proposta a partir da observação do comportamento social de espécies de insetos, pássaros e peixes. A ideia central deste comportamento coletivo é executar uma tarefa complexa decompondo-a em tarefas simples, que são facilmente executadas pelos indivíduos do enxame. A realização coordenada destas tarefas simples, respeitando uma proporção pré-definida de execução, permite a realização da tarefa complexa. O problema de alocação de tarefas surge da necessidade de alocar as tarefas aos indivíduos de modo coordenado, permitindo o gerenciamento do enxame. A alocação de tarefas é um processo dinâmico pois precisa ser continuamente ajustado em resposta a alterações no ambiente, na configuração do enxame e/ou no desempenho do mesmo. A robótica de enxame surge deste contexto de cooperação coletiva, ampliada à robôs reais. Nesta abordagem, problemas complexos são resolvidos pela realização de tarefas complexas por enxames de robôs simples, com capacidade de processamento e comunicação limitada. Objetivando obter flexibilidade e confiabilidade, a alocação deve emergir como resultado de um processo distribuído. Com a descentralização do problema e o aumento do número de robôs no enxame, o processo de alocação adquire uma elevada complexidade. Desta forma, o problema de alocação de tarefas pode ser caracterizado como um processo de otimização que aloca as tarefas aos robôs, de modo que a proporção desejada seja atendida no momento em que o processo de otimização encontre a solução desejada. Nesta dissertação, são propostos dois algoritmos que seguem abordagens distintas ao problema de alocação dinâmica de tarefas, sendo uma local e a outra global. O algoritmo para alocação dinâmica de tarefas com abordagem local (ADTL) atualiza a alocação de tarefa de cada robô a partir de uma avaliação determinística do conhecimento atual que este possui sobre as tarefas alocadas aos demais robôs do enxame. O algoritmo para alocação dinâmica de tarefas com abordagem global (ADTG) atualiza a alocação de tarefas do enxame com base no algoritmo de otimização PSO (Particle swarm optimization). No ADTG, cada robô possui uma possível solução para a alocação do enxame que é continuamente atualizada através da troca de informação entre os robôs. As alocações são avaliadas quanto a sua aptidão em atender à proporção-objetivo. Quando é identificada a alocação de maior aptidão no enxame, todos os robôs do enxame são alocados para as tarefas definidas por esta alocação. Os algoritmos propostos foram implementados em enxames com diferentes arranjos de robôs reais demonstrando sua eficiência e eficácia, atestados pelos resultados obtidos.
Resumo:
No contexto do planejamento e gestão dos recursos hídricos em bacias hidrográficas, é crescente a demanda por informações consistentes relativas ao estado do ambiente e pressões ambientais de forma integrada, para que possam informar à população e subsidiar atividades do setor público e privado. Essa demanda pode ser satisfeita com a modelagem e integração em um Sistema de Informações Geográficas (SIG), com propriedades e funções de processamento que permitem sua utilização em ambiente integrado. Desta forma, neste trabalho é apresentada uma metodologia para a avaliação muticriterial dos recursos hídricos de bacias hidrográficas, que vai desde a seleção de indicadores e definição dos pesos, até a execução de avaliações e espacialização de resultados. Esta metodologia é composta por duas fases: avaliação da vulnerabilidade dos recursos hídricos de uma bacia hidrográfica a partir do uso de sistemas de suporte à decisão espacial, e, avaliação da qualidade das águas através da adaptação de um Índice de Qualidade das Águas. Foi adotada uma base de conhecimento, sistemas de suporte à decisão, SIG e uma ferramenta computacional que integra estes resultados permitindo a geração de análises com cenários da vulnerabilidade dos recursos hídricos. Em paralelo, a qualidade das águas das sub-bacias hidrográficas foi obtida a partir da adaptação do cálculo do Índice de Qualidade das águas proposto pela Companhia de Tecnologia de Saneamento Ambiental (CETESB) e aplicação do Índice de Toxidez. Os resultados mostraram sub-bacias com seus recursos hídricos mais ou menos vulneráveis, bem como sub-bacias com toxidez acima da legislação. A avaliação integrada entre áreas mais vulneráveis e que apresentam menor qualidade e/ou maior toxidez poderá nortear a tomada de decisão e projetos visando a conservação dos recursos hídricos em bacias hidrográficas.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Os SIG Sistemas de Informação Geográfica vêm sendo cada vez mais estudados como ferramentas facilitadoras de análises territoriais com o objetivo de subsidiar a gestão ambiental. A Ilha Grande, que pertence ao município de Angra dos Reis, localiza-se na baía de Ilha Grande no sul do estado do Rio de Janeiro e constitui-se no recorte espacial de análise. Apresenta uma dinâmica ambiental complexa que se sobrepõem principalmente aos usos de proteção ambiental e de atividade turística em uma porção do território em que as normatizações legais são difíceis de serem aplicadas, pois são reflexos de interesses que se manifestam em três esferas do poder a municipal, a estadual e a federal. O objetivo principal desta pesquisa é a realização do processamento digital de imagem para auxiliar a gestão territorial da Ilha Grande. Em foco, a estrada Abraão - Dois Rios, que liga Abraão (local de desembarque dos turistas, principal núcleo da Ilha) a Dois Rios (local de visitação por estudantes e pesquisadores, núcleo que abrigava o presídio, atualmente abriga sede do centro de pesquisa e museu da Universidade do Estado do Rio de Janeiro), ambos protegidos por diferentes categorias de unidades de conservação. A metodologia fundamenta-se no processamento digital de imagem através da segmentação e da classificação supervisionada por pixel e por região. O processamento deu-se a partir da segmentação (divisão de uma imagem digital em múltiplas regiões ou objetos, para simplificar e/ou mudar a representação de uma imagem) e dos processos de classificações de imagem, com a utilização de classificação por pixel e classificação por regiões (com a utilização do algoritmo Bhattacharya). As segmentações e classificações foram processadas no sistema computacional SPRING versão 5.1.7 e têm como objetivo auxiliar na análise de uso da Terra e projetar cenários a partir da identificação dos pontos focais de fragilidade encontrados ao longo da estrada Abraão-Dois Rios, propensos a ocorrências de movimentos de massa e que potencializam o efeito de borda da floresta e os impactos ambientais. A metodologia utilizada baseou-se em análise de campo e comparações de tecnologias de classificação de imagens. Essa estrada eixo de ligação entre os dois núcleos tem significativa importância na história da Ilha, nela circulam veículos, pesados e leves, de serviço, pedestres e turistas. Como resultados da presente foram gerados os mapas de classificação por pixel, os mapas de classificação por região, o mapa fuzzy com a intersecção dos mapas de classificação supervisionada por região e os mapas com os locais coletados em campo onde são verificadas ocorrências de movimentos de massa nas imagens ALOS, 2000, IKONOS, 2003 e ortofotografias, 2006. Esses mapas buscam servir de apoio à tomada de decisões por parte dos órgãos locais responsáveis.
Resumo:
O objetivo desta dissertação foi criar uma nova abordagem para identificar de maneira automática feições do tipo edificação em uma imagem digital. Tal identificação seria de interesse de órgãos públicos que lidam com planejamento urbano para fins de controle da ocupação humana irregular. A abordagem criada utilizou agentes de software especialistas para proceder com o processamento da segmentação e reconhecimento de feições na imagem digital. Os agentes foram programados para tratar uma imagem colorida com o padrão Red, Green e Blue (RGB). A criação desta nova abordagem teve como motivação o fato das atuais técnicas existentes de segmentação e classificação de imagens dependerem sobremaneira dos seus usuários. Em outras palavras, pretendeu-se com a abordagem em questão permitir que usuários menos técnicos pudessem interagir com um sistema classificador, sem a necessidade de profundos conhecimentos de processamento digital de imagem. Uma ferramenta protótipo foi desenvolvida para testar essa abordagem, que emprega de forma inusitada, agentes inteligentes, com testes feitos em recortes de ortofotos digitais do Município de Angra dos Reis (RJ).
Resumo:
No presente trabalho, foram processados compósitos de polietileno de alta densidade (PEAD) com hidroxiapatita deficiente de cálcio (HA), com o objetivo de obter materiais com melhores propriedades mecânicas e bioatividade. A adição da HA deficiente de cálcio proporcionou um aumento no módulo de elasticidade (maior rigidez), menor resistência ao impacto e decréscimo do grau de cristalinidade do PEAD, proporcionando uma maior bioatividade ao material. A análise térmica exploratória (sistema não isotérmico) foi realizada por meio da técnica de calorimetria exploratória diferencial (DSC) e foram avaliados os teores de fosfato de cálcio e a velocidade de rotação da rosca no processamento dos materiais. No estudo da cristalização não-isotérmica observou-se uma diminuição da temperatura de cristalização com o aumento da taxa de resfriamento para todos os materiais sintetizados. A energia de ativação (Ea) da cristalização dos materiais foi avaliada por meio dos métodos Kissinger e Ozawa. A amostra com 5% de HA deficiente de cálcio e velocidade de processamento de 200 rpm foi a que apresentou menor valor de energia de ativação, 262 kJ/mol, menor desvio da linearidade e a que mais se assemelhou à matriz de PEAD sem HA. O teor de hidroxiapatita deficiente de cálcio não favorece o processo de cristalização devido à alta energia de ativação determinada pelos métodos descritos. Provavelmente, a velocidade de rotação, favorece a dispersão da carga na matriz de PEAD, dificultando o processo de cristalização. Na aplicação do método de Osawa-Avrami, os coeficientes de correlação indicaram perda na correlação linear. Estas perdas podem estar associadas a uma pequena percentagem de cristalização secundária e/ou à escolha das temperaturas utilizadas para determinar a velocidade de cristalização. Na determinação dos parâmetros pelo método de Mo, as menores percentagens de cristalização apresentaram um grande desvio da linearidade, com coeficiente de correlação bem menor que 1 e com o aumento da percentagem de cristalização, o desvio da linearidade diminui, ficando próximo de 1. Os resultados obtidos mostraram que o modelo de Mo e de Osawa-Avrami não foram capazes de definir o comportamento cinético dos materiais produzidos neste trabalho.
Resumo:
Neste trabalho são apresentadas algumas características físicas, vantagens e viabilidade do uso do pó de tecido, proveniente do processamento de resíduos têxteis que são descartados em confecções em geral. A produção e utilização desse tipo de pó diminui o impacto ambiental e se mostra viável economicamente, pois é produzido facilmente a partir do processamento de resíduos, que seriam descartados na natureza. O presente trabalho mostra o estudo da produção do pó de tecido e a sua substituição parcial do agregado miúdo natural na produção de concretos de cimento Portland convencionais. Para comprovar a viabilidade técnica e econômica do uso do pó de tecido foram analisadas características do agregado como sua composição granulométrica, e seu comportamento nos ensaios de abatimento tronco de cone (Slump Test). Uma relação água-cimento também foi convencionada a um concreto usual com resistência esperada de 27MPa. Com estes dados foi definido um traço para o concreto utilizando 5% e 15% de agregado pó de tecido, substituindo a areia. A pesquisa apresenta os resultados de resistência à compressão simples dos corpos de prova cilíndricos de concreto aos 28 dias. Verificou-se que as amostras não apresentaram diferenças significativas de resistência entre si, tão pouco com relação às resistências de um concreto convencional produzido somente com agregado miúdo natural. Entretanto, houve uma melhora nos resultados dos ensaios à compressão, principalmente no concreto com 15% de pó de tecido.
Resumo:
Este trabalho traz como proposta a obtenção de nanocompósitos (PLA/HDPE-g-AM/HDPE-Verde/n-CaCO3) com propriedades mecânicas e de fluxo adequadas para aplicação no setor de embalagens. A produção desses nanocompósitos ocorreu por meio de uma mistura de PLA e polietileno proveniente de fonte renovável (HDPE-Verde), viabilizada pela ação do agente compatibilizante polietileno enxertado com anidrido maleico (HDPE-g-AM) e do aditivo carbonato de cálcio nanoparticulado (n-CaCO3), através do estudo das condições ótimas de processamento e composição, realizado por meio do Planejamento Fatorial Delineamento Composto Central Rotacional (DCCR). A obtenção deste balanço ótimo se deu ao se avaliar a influência dos fatores de estudo velocidade de rotação (100-400rpm), teor da fase dispersa PLA 2003D (0-35%) e teor da nanocarga mineral - n-CaCO3 (1-4%) sobre as propriedades mecânicas, térmicas, morfológicas e de fluxo dos nanocompósitos, através das variáveis de resposta - módulo de Young, resistência ao impacto, grau de cristalinidade (c) e índice de fluidez (MFI).Avaliações preliminares conduziram à escolha do PLA como fase dispersa dos compósitos. As variáveis de resposta do planejamento indicaram que a viscosidade dessas amostras é diretamente proporcional à concentração de n-CaCO3 e a velocidade de processamento, por promoverem, respectivamente, maior resistência ao escoamento e dispersão da carga. As composições apresentaram como característica resistência ao impacto similar ao comportamento do PLA puro e em contrapartida, módulo de Young similar a matriz de HDPE-Verde. A cristalinidade dos polímeros foi melhorada, observando-se uma ação mútua do HDPE-Verde e do PLA para este aumento, havendo ainda colaboração do n-CaCO3 e da velocidade de mistura. A morfologia dos compósitos foi função da velocidade que favoreceu maior dispersão e distribuição da fase dispersa e ainda por maiores teores de n-CaCO3 que ocasionaram a formação de gotas de PLA de menores dimensões, favorecendo uma estrutura mais homogênea. Maiores teores de PLA alteraram a morfologia dos compósitos, ocasionando a formação de grandes domínios dessa fase na forma de gota que atribuíram ao material maior rigidez. A avaliação individual do efeito do n-CaCO3 sobre o PLA e o HDPE-Verde individualmente apontaram que a ação da carga mineral em geral é benéfica para a melhoria das propriedades, com exceção da resistência ao impacto. Além disso, os resultados mostram que a compatibilizante HDPE-g-AM também minimiza a atuação da carga. Em relação à influência do HDPE-g-AM sobre a mistura HDPE-Verde/PLA é possível observar que a compatibilização da mistura tende a ocorrer, porém não de forma eficiente como o esperado
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
A diminuição do aporte de oxigênio e nutrientes na vida perinatal resulta em danos, como astrogliose, morte de neurônios e de células proliferativas. Déficits cognitivos podem estar relacionados a danos no hipocampo. Neste trabalho avaliamos a citoarquitetura do giro dentado (DG) durante o desenvolvimento e a memória de ratos submetidos à HI. Para tal, utilizamos a técnica de imunohistoquímica para marcador de proliferação celular (KI67), neurônio jovem (DCX), de astrócitos (GFAP) e de óxido nítrico sintase neuronal (NOSn). Para avaliar a memória de curta e de longa duração foi utilizado o teste de reconhecimento de objetos (RO). Ratas Wistar grávidas em E18 foram anestesiadas (tribromoetanol) e as quatro artérias uterinas foram ocluídas com grampos de aneurisma (Grupo HI). Após 45 minutos, os grampos foram removidos e foi feita a sutura por planos anatômicos. Os animais do grupo controle (SHAM) sofreram o mesmo procedimento, excetuando a oclusão das artérias. Os animais nasceram a termo. Animais com idades de 7 a 90 dias pós-natal (P7 a P90), foram anestesiados e perfundido-fixados com paraformaldeído a 4%, e os encéfalos submetidos ao processamento histológico. Cortes coronais do hipocampo (20m) foram submetidos à imunohistoquímica para KI67, DCX, GFAP e NOSn. Animais P90 foram submetidos ao RO. Os procedimentos foram aprovados pelo comitê de ética (CEA/019/2010). Observamos menor imunomarcação para KI67 no giro dentado de animais HI em P7. Para a marcação de DCX nesta idade não foi observada diferença entre os grupos. Animais HI em P15, P20 e P45 tiveram menor imunomarcação para DCX e Ki67 na camada granular. Animais P90 de ambos os grupos não apresentaram marcação para KI67 e DCX. Vimos aumento da imunomarcação para GFAP nos animais HI em todas as idades. A imunomarcação para NOSn nos animais HI foi menor em todas as idades. O maior número de células NOSn positivas foi visto em animais P7 em ambos os grupos na camada polimórfica. Em P15, animais HI apresentam células NOSn+ em todo o DG. Em P30 animais HI apresentam células NOSn+ nas camadas polimórfica e sub-granular. Animais adultos (P90) de ambos os grupos apresentam células NOSn positivas apenas nas camadas granular e sub-granular. Embora animais HI P90 não apresentaram déficits de memória, estes apresentaram menor tempo de exploração do objeto. Comportamento correspondente a déficits de atenção em humanos. Nossos resultados sugerem que HI perinatal diminui a população de células proliferativas, de neurônios jovens, de neurônios NOSn+, além de causar astrogliose e possivelmente déficits de atenção. O modelo demonstrou ser útil para a compreensão dos mecanismos celulares das lesões hipóxico-isquêmicas e pode ser usado para testar estratégias terapêuticas.
Resumo:
Evidências sugerem que a lateralização cerebral é uma característica fundamental dos vertebrados. Nos seres humanos, tem sido sugerido que o hemisfério direito é especializado no processamento de informação emocional negativa e o hemisfério esquerdo no controle da função motora. Em roedores, evidências de lateralização hemisférica são escassas. Diante disso, utilizamos a hemisferectomia para avaliar a importância relativa de cada hemisfério no controle emocional e na atividade motora espontânea em camundongos. Machos adultos foram submetidos à hemisferectomia direita (HD), hemisferectomia esquerda (HE) ou a simulação da cirurgia (SHAM). Para ajudar na interpretação dos resultados, uma amostra adicional de camundongos foi submetida à aspiração unilateral da área frontoparietal esquerda (FPE), da área frontoparietal direito (FPD) ou a simulação da cirurgia (CONT). Quinze dias após a cirurgia, a reatividade emocional e a ambulação foram avaliadas no teste de campo aberto durante 10 minutos (dividido em intervalos de 1 min). A arena de campo aberto consistiu em uma caixa de polipropileno, cujo fundo foi dividido em 16 retângulos do mesmo tamanho. O número total de retângulos cruzados pelo animal foi utilizado como a medida da atividade locomotora espontânea. Considerando-se que os camundongos evitam áreas abertas, a locomoção no centro e o tempo despendido nos retângulos centrais foram utilizados para avaliar a reatividade emocional. Em relação à atividade locomotora as duas técnicas cirúrgicas revelaram assimetrias na direção oposta. A atividade locomotora do grupo HE aumentou ao longo do período de teste e foi maior do que a dos grupos HD e SHAM. Em contraste, a atividade locomotora do grupo FPD diminuiu ao longo do período de teste e foi superior a ambos os grupos, FPE e CONT. Em relação à reatividade emocional, o grupo HE passou menos tempo na área central que os grupos HD e CONT. Não foram observadas diferenças entre FPD, FPE e o grupo CONT. Os nossos resultados sugerem que os dois hemisférios contribuem de forma assimétrica para controlar de reatividade emocional e para controlar de atividade motora em camundongos. De forma semelhante ao que é observado em humanos, o hemisfério direito dos camundongos foi mais associado com o processamento de informação emocional negativa. Em relação aos dados de hiperatividade, as diferenças observadas entre os animais hemisferectomizados e com lesão frontoparietal sugerem que mais de um circuito (ou sistema) lateralizado pode mediar a atividade locomotora espontânea.
Resumo:
Nos últimos 20-30 anos polímeros biodegradáveis vêm sendo estudados e desenvolvidos e atualmente já são comercializados. Contudo, o custo, a processabilidade e algumas propriedades ainda dificultam a penetração desses polímeros no mercado e a competição com as chamadas commodities. Não são poucos os autores que se dedicam a desenvolver aditivos e formulações para superar essas limitações. Desta forma, esta Tese se dedicou ao desenvolvimento de compósitos de Ecobras, fabricado pela Basf e comercializado pela Corn Products, utilizando como carga mineral resíduo da extração da bauxita, no município de Santa Luzia/PB, o qual consiste em sua totalidade de vermiculita. Esta vermiculita foi quimicamente modificada com sais de alquil fosfônio para melhorar a compatibilidade com a matriz polimérica e também espaçar as camadas de aluminossilicato. De fato, a modificação com o brometo de hexadecil tributil fosfônio resultou na esfoliação da vermiculita tornando-a potencialmente apropriada para a obtenção de nanocompósitos. A preparação dos compósitos foi realizada pelo método de intercalação no estado fundido e foram comparadas a utilização da câmara interna de mistura e da mini extrusora de dupla rosca, sendo esta última mais eficaz na dispersão da vermiculita, conforme revelado pela microscopia eletrônica de varredura, difração de raios-X e reometria de placas. O grau de dispersão também foi influenciado pela estrutura química do modificador da vermiculita e pelo teor dessa carga incorporada à matriz. Teores mais elevados levaram a formação de aglomerados, enquanto a modificação da carga implicou na formação de micro e nanocompósitos. Ainda houve alterações das propriedades térmicas com aumento dos valores da temperatura de transição vítrea, de cristalização e fusão, embora o grau de cristalinidade tenha sido mantido. Nitidamente, foram obtidos materiais mais rígidos, com maior módulo e menor capacidade de deformação. Cerca de 58% de perda de massa foi observada para os micro e nanocompósitos obtidos após 17 semanas de enterro em solo simulado para avaliação da biodegradabilidade, valor bem próximo ao Ecobras puro. De modo geral, a incorporação das diferentes vermiculitas retardou nas primeiras semanas a biodegradação, provavelmente em função de modificações na estrutura cristalina, conforme sugerido pelos maiores valores de temperatura de fusão observados durante o acompanhamento do processo de biodegradação. No entanto, após 7 semanas os perfis de biodegradação dos micro e nanocompósitos se aproximaram bastante do Ecobras puro. Desta forma, foi possível nesta Tese obter um nanocompósito de Ecobras com vermiculita modificada com brometo de hexadecil fosfônio utilizando ferramentas comuns de processamento no estado fundido com biodegradabilidade próxima ao polímero de partida, porém mais rígido e menos deformável
Resumo:
A técnica de deposição de resíduos de processamento de bauxita prevê uma operação inicial de lançamento de resíduos, por via úmida, no interior de reservatórios artificiais. Nesta fase de deposição, os resíduos são lançados em forma de polpa, sofrendo processos de sedimentação e adensamento por peso próprio. A vida útil dos reservatórios depende fundamentalmente do comportamento geotécnico do resíduo, cujas propriedades variam ao longo do tempo e da profundidade. A presente dissertação tem como objetivo a análise do comportamento de uma área de resíduos de bauxita durante a operação de enchimento do reservatório. Para tanto, foi utilizado o programa Plaxis, que executa análises tensão-deformação pelo método dos elementos finitos. Os parâmetros geotécnicos do resíduo foram definidos com base em ensaios de adensamento e piezocone, executados em amostras representativas da polpa de resíduos. Para calibração do modelo, a batimetria executada no reservatório foi confrontada com as cotas de enchimento previstas numericamente. Finalmente, a distribuição dos parâmetros geotécnicos (peso específico, índice de vazios, permeabilidade) com a profundidade prevista numericamente foi confrontada com os valores medidos no campo, ao final da etapa de enchimento. O conhecimento da variação dos parâmetros geotécnicos com a profundidade ao final do enchimento é importante para avaliar o comportamento do reservatório na etapa de operação de alteamento, e para a estimativa do ganho de vida útil do reservatório. Os resultados permitiram avaliar o funcionamento da drenagem de fundo, a distribuição complexa dos excessos de poropressão ao final do enchimento, os perfis dos índices físicos com a profundidade e o ganho de vida útil. As análises mostraram que o programa foi capaz de reproduzir os processos simultâneos de sedimentação e adensamento por peso próprio, em análises de enchimento de reservatórios de resíduos.