930 resultados para Solução solitônica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação dos métodos de análises em situações fora da rotina, em P&D pesquisa e desenvolvimento, pode tornar-se um processo de difícil solução, em oposição àquelas de rotina, onde as concentrações são conhecidas. Nesta última situação, o método analítico é validado e aprovado com simplicidade. Apesar dos elementos de qualidade básicos para análises em P&D serem os mesmos adotados nas análises de rotina, fatores como o comportamento imprevisível da amostra, a composição desconhecida da matriz e interdependência com o analito, mesmo a incerteza a respeito da escolha do método instrumental, requer uma atenção renovada nos elementos de qualidade existentes. A razão pode ser atribuída à imprevisibilidade do procedimento analítico e a extensão do esforço adicional dos elementos de qualidade. As incertezas das análises em P&D requerem uma cuidadosa consideração do problema, assim como a disponibilidade de técnicas analíticas. Ao mesmo tempo, devem-se observar o planejamento e organização do trabalho, a supervisão do desenvolvimento analítico e a adequação dos aspectos técnico e organizacional - no trabalho de P&D, a definição de responsabilidades e a competência do corpo técnico. A garantia da qualidade nas indústrias farmacêuticas é estabelecida pelo desenvolvimento de especificações apropriadas para matérias-primas, produtos intermediários e produtos finais. A importância de especificações adequadas foi estabelecida e exemplos foram dados no desenvolvimento de especificação típica para produtos farmacêuticos, tais como a vacina e matéria prima. Isto incluiu uma discussão dos tipos de parâmetros que precisam ser controlados e uma indicação dos valores numéricos ou faixas esperadas para muitos materiais utilizados. A metrologia analítica que necessita ser aplicada para demonstrar a observância com as especificações foi discutida, com as implicações de desempenho do método para diferenciar variações na qualidade do produto e a simples variabilidade analítica. Esse trabalho foi escrito para laboratórios, com a finalidade de dar um suporte na implementação da validação de métodos analíticos e introduzir o conceito de incerteza da medida nas análises de rotina. O objetivo foi fornecer de uma maneira compreensível e prática a metodologia dos cálculos das medidas de incerteza baseados principalmente em dados de controle de qualidade e de validação já existentes. Exemplos práticos retirados diretamente do Laboratório de Metrologia e Validação, FIOCRUZ / Bio-Manguinhos, foram apresentados. Entretanto, o tratamento usado neste trabalho é genérico e pode ser aplicável a outros laboratórios químicos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo investigar as histórias de sair do armário sob seu aspecto organizacional, lexical e discursivo. Busca-se apontar que padrões organizacionais prevalecem nas histórias, que léxicos significativos predominam e como os léxicos predominantes são avaliados em termos de Afeto, Julgamento e Apreciação. Para o exame organizacional, a análise se apropria do quadro analítico de Labov e colaboradores (1967; 1972), por ser pioneiro nos estudos sobre narrativas orais de experiência pessoal; em seguida, lança mão dos elementos do Padrão Problema-Solução (PPS), proposto por Hoey (1983; 2001), por iluminar o aspecto cíclico das referidas histórias. Para a análise lexical, esse estudo se ampara nos preceitos e técnicas da investigação eletrônica de textos da Linguística de Corpus (TOGNINI BONELILI, 2001; SINCLAIR, 2004; BERBER-SARDINHA, 2004; McENERY e HARDIE, 2011), conjugado ao conjunto de programas WordSmith Tool 5.0 (SCOTT, 2010). Já sobre o aspecto discursivo, em especial sobre a linguagem da avaliação, a análise privilegiou a metafunção interpessoal da Linguística Sistêmico Funcional (Halliday, 2004) e lançou mão das categorias do subsistema da ATITUDE da Teoria da Avaliatividade, proposto por Martin (2000) e Martin e White (2005). O Corpus analisado consiste de sete narrativas, coletadas pelo método da Entrevista Narrativa, à qual se voluntariaram homossexuais do sexo masculino, entre (20) vinte a (30) anos de idade, oriundos da zona norte do Rio de Janeiro. Os resultados da análise da organização da narrativa mostraram que as histórias de sair do armário são episódicas, são contadas com muitos recursos avaliativos como descritos por Labov e se organizam por meio do Padrão Problema-Solução. Os resultados da análise lexical revelaram a predominância do item eu e mãe/ela nas sete histórias coletivamente. Por fim a análise discursiva, sob a ótica da linguagem atitudinal, aponta que os itens eu e mãe/ela, que apontam para o narrador e suas mães, são marcados por Afeto (emoções) e Julgamento (comportamento). A dissertação em seu final combina as três linhas de análise para fazer uma reflexão sobre o peso social do que significa sair do armário para o sujeito gay

Relevância:

10.00% 10.00%

Publicador:

Resumo:

É presentada nesta dissertação uma análise espectral das equações de transporte de nêutrons, independente do tempo, em geometria unidimensional e bidimensional, na formulação de ordenadas discretas (SN), utilizando o modelo de uma velocidade e multigrupo, considerando meios onde ocorrem o fenômeno da fissão nuclear. Esta análise espectral constitui-se na resolução de problemas de autovalores e respectivos autovetores, e reproduz a expressão para a solução geral analítica local das equações SN (para geometria unidimensional) ou das equações nodais integradas transversalmente (geometria retangular bidimensional) dentro de cada região homogeneizada do domínio espacial. Com a solução geral local determinada, métodos numéricos, tais como os métodos de matriz de resposta SN, podem ser derivados. Os resultados numéricos são gerados por programas de computadores implementados em MatLab, versão 2012, a fim de verificar a natureza dos autovalores e autovetores correspondentes no espaço real ou complexo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No sistema de Berkeley chamado de imaterialismo a substância material é negada, existindo apenas dois tipos de entes: aqueles que percebem (os espíritos) e aqueles que são percebidos (as ideias). Os objetos sensíveis não possuem qualquer existência além daquela que lhes é atribuída pelo ato da percepção. Assim, diz o autor, ser é ser percebido (esse est percipi), e tudo o que se conhece são as qualidades reveladas durante o processo de percepção sensível. No entanto, tal afirmação parece nos conduzir para uma forma bastante particular do relativismo, um subjetivismo individualista, que implica grandes problemas. Em suas duas obras mais importantes: Tratado sobre os princípios do conhecimento humano e Três diálogos entre Hylas e Philonous, Berkeley faz várias alusões à relatividade das qualidades sensíveis. Com efeito, as qualidades percebidas de cada objeto são diferentes, segundo os indivíduos. Entretanto, a opinião dos comentadores sobre a relevância que Berkeley atribui a tais referências relativistas é divergente. O objetivo do presente trabalho é, então, tentar apresentar uma possível solução para o problema das referências relativistas no imaterialismo de Berkeley. Pretendemos investigar ao longo dos quatro capítulos que se seguem, cada um abordando um aspecto relevante acerca da relação entre o relativismo e a teoria de Berkeley, como pode ser possível que o filósofo concilie as duas posições, conservando intacta a possibilidade de conhecimento objetivo do mundo, e a sintonia que alega manter com o senso comum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A multidimensionalidade e a consistência empírica da violência convidam aos questionamentos, debates e reflexões acerca desse fenômeno. A violência intrafamiliar contra a criança consiste em formas agressivas de membros da família se relacionarem adotando essa prática como solução de conflitos e estratégia para a correção e educação das crianças. Objeto de estudo: a violência intrafamiliar à criança na perspectiva de familiares. Objetivos: Identificar os atos considerados violentos contra a criança na perspectiva de familiares; descrever as implicações desses atos violentos na vida da criança sob a ótica de familiares; conhecer quais as atitudes que os familiares consideram importantes para a prevenção da violência contra a criança e discutir a violência intrafamiliar à criança na perspectiva de familiares a luz da fenomenologia sociológica de Alfred Schutz. Descrição metodológica: Trata-se de estudo de natureza qualitativo desenvolvido em um ambulatório de pediatria de um hospital universitário do município do Rio de Janeiro, com a participação de 12 familiares. Para a interpretação do material empírico foi utilizada a análise de conteúdo de Bardin na modalidade temática. O referencial teórico da fenomenologia sociológica de Alfred Schutz sustentou a discussão dos resultados. Resultados: Emergiram 6 (seis) categorias analíticas, a saber: Violência nas relações familiares; Palavras que ferem; Formas silenciosas de descuido e descaso para com a vida do outro; Violência gera violência; Implicações da violência intrafamiliar na vida da criança; Falar com a criança para evitar a violência. Os familiares a partir de uma relação anônima entendem a violência intrafamiliar contra a criança na perspectiva de um constructo teórico, na qual se situam como espectadores e não como perpetradores dos atos violentos. Para eles, os castigos físicos, a violência psicológica, a negligência e o abandono praticados pelas pessoas são considerados violência intrafamiliar contra a criança. Práticas como palmadinhas e tapinhas foram descritas como forma de correção e educação da criança. No se refere às implicações dos atos violentos na vida da criança apontaram aquelas que podem levar marcas profundas na memória da criança vitimizada, bem como em sua vida sócio-afetiva. O estudo possibilitou a aproximação ao conhecimento de uma realidade que afeta inúmeras crianças, onde os familiares sinalizaram que a melhor maneira de se prevenir a violência intrafamiliar é por meio do estabelecimento de uma conversa esclarecedora com a criança, abordando os assuntos pertinentes para cada ocasião com que se deparam. A inserção dessa temática desde os cursos de graduação para profissionais que lidam com a criança e sua família poderá ampliar os estudos neste campo e subsidiar a formação desses profissionais para lidar de forma adequada com o fenômeno da violência intrafamiliar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novos serviços de telecomunicações tem provocado um enorme aumento no tráfego de dados nas redes de transmissão. Para atender a essa demanda crescente, novas tecnologias foram desenvolvidas e implementadas ao longo dos anos, sendo que um dos principais avanços está na área de transmissão óptica, devido à grande capacidade de transporte de informação da fibra óptica. A tecnologia que melhor explora a capacidade desse meio de transmissão atualmente é a multiplexação por divisão de comprimento de onda ou Wavelength Division Multiplexing (WDM) que permite a transmissão de diversos sinais utilizando apenas uma fibra óptica. Redes ópticas WDM se tornaram muito complexas, com enorme capacidade de transmissão de informação (terabits por segundo), para atender à explosão de necessidade por largura de banda. Nesse contexto, é de extrema importância que os recursos dessas redes sejam utilizados de forma inteligente e otimizada. Um dos maiores desafios em uma rede óptica é a escolha de uma rota e a seleção de um comprimento de onda disponível na rede para atender uma solicitação de conexão utilizando o menor número de recursos possível. Esse problema é bastante complexo e ficou conhecido como problema de roteamento e alocação de comprimento de onda ou, simplesmente, problema RWA (Routing and Wavelentgh Assignment problem). Muitos estudos foram realizados com o objetivo de encontrar uma solução eficiente para esse problema, mas nem sempre é possível aliar bom desempenho com baixo tempo de execução, requisito fundamental em redes de telecomunicações. A técnica de algoritmo genético (AG) tem sido utilizada para encontrar soluções de problemas de otimização, como é o caso do problema RWA, e tem obtido resultados superiores quando comparada com soluções heurísticas tradicionais encontradas na literatura. Esta dissertação apresenta, resumidamente, os conceitos de redes ópticas e de algoritmos genéticos, e descreve uma formulação do problema RWA adequada à solução por algoritmo genético.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Amostras de DNA são encontradas em fragmentos, obtidos em vestígios de uma cena de crime, ou coletados de amostras de cabelo ou sangue, para testes genéticos ou de paternidade. Para identificar se esse fragmento pertence ou não a uma sequência de DNA, é necessário compará-los com uma sequência determinada, que pode estar armazenada em um banco de dados para, por exemplo, apontar um suspeito. Para tal, é preciso uma ferramenta eficiente para realizar o alinhamento da sequência de DNA encontrada com a armazenada no banco de dados. O alinhamento de sequências de DNA, em inglês DNA matching, é o campo da bioinformática que tenta entender a relação entre as sequências genéticas e suas relações funcionais e parentais. Essa tarefa é frequentemente realizada através de softwares que varrem clusters de base de dados, demandando alto poder computacional, o que encarece o custo de um projeto de alinhamento de sequências de DNA. Esta dissertação apresenta uma arquitetura de hardware paralela, para o algoritmo BLAST, que permite o alinhamento de um par de sequências de DNA. O algoritmo BLAST é um método heurístico e atualmente é o mais rápido. A estratégia do BLAST é dividir as sequências originais em subsequências menores de tamanho w. Após realizar as comparações nessas pequenas subsequências, as etapas do BLAST analisam apenas as subsequências que forem idênticas. Com isso, o algoritmo diminui o número de testes e combinações necessárias para realizar o alinhamento. Para cada sequência idêntica há três etapas, a serem realizadas pelo algoritmo: semeadura, extensão e avaliação. A solução proposta se inspira nas características do algoritmo para implementar um hardware totalmente paralelo e com pipeline entre as etapas básicas do BLAST. A arquitetura de hardware proposta foi implementada em FPGA e os resultados obtidos mostram a comparação entre área ocupada, número de ciclos e máxima frequência de operação permitida, em função dos parâmetros de alinhamento. O resultado é uma arquitetura de hardware em lógica reconfigurável, escalável, eficiente e de baixo custo, capaz de alinhar pares de sequências utilizando o algoritmo BLAST.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A hiperatividade locomotora e as alterações nos ritmos circadianos têm sido descritas em roedores e humanos expostos ao etanol durante o desenvolvimento. Considerando que a atividade locomotora em camundongos é conhecida por variar ao longo das fases do ciclo claro escuro, é possível que o fenótipo hiperativo resultante da exposição precoce ao etanol também varie em função da hora do dia. Além disso, é possível que a hiperatividade apresentada pelos indivíduos expostos ao etanol durante o desenvolvimento esteja associada com distúrbios no sistema de controle do ritmo circadiano. Neste estudo, avaliamos estas duas possibilidades realizando uma análise circadiana da atividade locomotora e da expressão dos genes de relógio de camundongos adolescentes expostos ao etanol durante o período de surto de crescimento cerebral. Para tanto, camundongos suíços criados e mantidos em um ciclo claro/escuro de 12h (luzes acesas às 2:00h, apagadas as 14:00h) foram injetados com etanol (5g/kg ip, grupo ETOH) ou um volume equivalente de solução salina (grupo SAL) em dias alternados do segundo ao oitavo dias pós-natais. No 30 dia pós-natal, os animais foram testados em campo aberto por 15 minutos em diferentes momentos do ciclo claro/escuro: durante a fase clara entre 6:00 e 7:30h e entre12:00 e 13:30h; durante a fase escura entre 18:00 e 19:30h e entre 0:00 e 01:30h. Durante a fase escura os testes foram realizados sob iluminação com luz vermelha. Após os testes comportamentais, alguns animais foram randomicamente selecionados para as análises de imunofluorescência da expressão dos genes PER 1, 2 e 3 no núcleo supraquiasmático. Ao longo dos seis primeiros minutos, a atividade locomotora dos animais testados durante o período claro não mudou significativamente ou apresentou um leve aumento e a dos animais testados no período escuro apresentou uma marcante redução. Além disso, o grupo de animais testados entre 00:00 e 1:30h apresentou a maior atividade locomotora e o grupo dos animais testados entre 12:00 e 13:30h apresentou a menor atividade locomotora. De modo importante, a exposição neonatal ao etanol promoveu hiperatividade locomotora apenas no grupo de animais testados entre 00:00 e 1:30h. Em relação aos genes de controle do ritmo circadiano, a exposição precoce ao etanol afetou apenas a expressão do gene Per1 que foi menor entre 18:00 e 19:30h. O fato de que a expressão dos genes de controle do ritmo circadiano foi alterada no meio da fase escura e que a hiperatividade locomotora foi observada apenas no final da fase escura é compatível com a hipótese de que a hiperatividade induzida pelo etanol pode estar associada com as perturbações de controle do ritmo circadiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo analisar o comportamento da solução numérica da equação de difusão anômala com distribuição de fluxo bimodal, no regime estacionário, através de dois métodos numéricos. Foram desenvolvidos modelos utilizando o Método de Elementos Finitos e o Método de Volumes Finitos para a solução numérica desta equação. No modelo do Método de Elementos Finitos utilizou-se polinômios cúbicos de Hermite como funções de interpolação. No modelo de Volumes Finitos foi utilizada uma discretização de ordem superior para a avaliação das derivadas da equação em estudo. Em ambos os métodos, os modelos desenvolvidos consideram a utilização de diferentes tipos de condições de contorno para a solução do problema. Foram analisadas as influências de parâmetros da equação, das condições de contorno e do refinamento da malha na solução numérica. Os resultados apresentam a análise de erros da solução numérica através da comparação desta com a solução analítica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em engenharia, a modelagem computacional desempenha um papel importante na concepção de produtos e no desenvolvimento de técnicas de atenuação de ruído. Nesse contexto, esta tese investiga a intensidade acústica gerada pela radiação sonora de superfícies vibrantes. De modo específico, a pesquisa enfoca a identificação das regiões de uma fonte sonora que contribuem efetivamente para potência sonora radiada para o campo afastado, quando a frequência de excitação ocorre abaixo da frequência crítica de coincidência. São descritas as fundamentações teóricas de duas diferentes abordagens. A primeira delas, denominada intensidade supersônica (analítica) é calculada via transformadas de Fourier para fontes sonoras com geometrias separáveis. A segunda, denominada intensidade útil (numérica) é calculada através do método dos elementos de contorno clássico para fontes com geometrias arbitrárias. Em ambas, a identificação das regiões é feita pela filtragem das ondas não propagantes (evanescentes). O trabalho está centrado em duas propostas, a saber. A primeira delas, é a apresentação implementação e análise de uma nova técnica numérica para o cálculo da grandeza intensidade útil. Essa técnica constitui uma variante do método dos elementos de contorno (MEC), tendo como base o fato de as aproximações para as variáveis acústicas pressão e velocidade normal serem tomadas como constantes em cada elemento. E também no modo peculiar de obter a velocidade constante através da média de um certo número de velocidades interiores a cada elemento. Por esse motivo, a técnica recebe o nome de método de elemento de contorno com velocidade média (AVBEMAverage Velocity Boundary Element Method). A segunda, é a obtenção da solução forma fechada do campo de velocidade normal para placas retangulares com oito diferentes combinações de condições contorno clássicas. Então, a intensidade supersônica é estimada e comparada à intensidade acústica. Nos ensaios numéricos, a comparação da intensidade útil obtida via MEC clássico e via AVBEM é mostrada para ilustrar a eficiência computacional da técnica aqui proposta, que traz como benefício adicional o fato de poder ser utilizada uma malha menos refinada para as simulações e, consequentemente, economia significativa de recursos computacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentado um simulador MATLAB para sistemas ópticos WDM amplificados baseado na solução das equações não lineares de Schrödinger acopladas, pelo método de Fourier de passo alternado. Este simulador permite o estudo da propagação de pulsos em fibras ópticas, considerando dispersão cromática, efeitos não lineares como automodulação de fase e modulação de fase cruzada e atenuação, prevendo também o emprego de amplificadores ópticos a fibra dopada com Érbio (EDFAs). Através de simulações numéricas, foi explorada a técnica de otimização do posicionamento de um EDFA ao longo de um enlace óptico, sem repetidores, que objetiva a redução dos custos de implantação de sistemas ópticos, seja pela diminuição da potência do transmissor ou pela relaxação da exigência de sensibilidade do receptor. Além disto, pode favorecer um aumento na capacidade do sistema, através do aumento do alcance ou da taxa de transmissão. A concordância dos resultados obtidos com os disponíveis na literatura confirmam a validade da técnica, bem como a versatilidade e robustez do simulador desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Adolescentes humanos frequentemente associam o fumo do tabaco ao consumo de bebidas alcoólicas. A despeito desta associação, pouco se sabe sobre a neurobiologia básica da coexposição no cérebro adolescente. No presente estudo, avaliamos os efeitos da exposição, que ocorreu do 30 ao 45 dia de vida pós natal (PN30 a PN45), à nicotina e/ou ao etanol durante a adolescência (PN38-45) e da retirada (PN50-57) na memória visuoespacial através do Labirinto Aquático de Morris (LAM: 6 sessões + 1 prova, 3 tentativas/sessão, latência = 2 min), em 4 grupos de camundongos Suíços machos e fêmeas: (1) exposição concomitante à NIC [solução de nicotina free base (50 μg/ml) em sacarina a 2% para beber] e ETOH [solução de etanol (25%, 2 g/kg) injetada i.p. em dias alternados]; (2) exposição à NIC; (3) exposição ao ETOH; (4) veículo (VEH). Uma vez que os resultados comportamentais podem sofrer a interferência de alterações motoras, avaliamos (a) a atividade locomotora no Teste de Campo Aberto (sessão única, 5 min) e (b) a coordenação e o equilíbrio no Teste de Locomoção Forçada sobre Cilindro Giratório (5 tentativas, latência = 2 min). Para os efeitos da exposição à NIC e/ou ao ETOH na eficiência do transporte de aminoácidos excitatórios, avaliamos a captação de [3H] D-aspartato no hipocampo. A expressão do transportador glial GLAST/EAAT1 foi avaliada por Western-blot. Durante a exposição, animais ETOH e NIC+ETOH apresentaram déficits de memória nas sessões de teste e de prova no LAM enquanto, na retirada, os grupos NIC e NIC+ETOH apresentaram prejuízos na retenção. Não houve diferenças significativas entre os grupos de tratamento em nenhum dos parâmetros testados em ambos os testes motores, tanto na exposição quanto na abstinência. Os grupos NIC, ETOH e NIC+ETOH tiveram uma diminuição significativa na captação de [3H] D-aspartato ao final do período de exposição, com uma normalização da atividade dos EAATs na retirada das drogas. O tratamento com NIC e ETOH reduziu ainda a expressão de GLAST/EAAT1 no hipocampo em ambas as idades testadas. O uso de etanol na adolescência causa prejuízos à memória de camundongos, com um efeito negativo mais acentuado quando associado à nicotina. Contudo, a retirada da nicotina apresentou um efeito mandatório nos danos encontrados. Ambas as drogas, isoladamente ou na coexposição, alteram os níveis de atividade e expressão dos EAATs, sugerindo que os resultados bioquímicos estejam implicados nas alterações comportamentais encontradas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avaliação de lixiviados de aterros de resíduos sólidos urbanos situados nos estados do Rio de Janeiro e Santa Catarina. Brasil, 2013, 137f. Dissertação de Mestrado em Engenharia Ambiental Faculdade de Engenharia, Universidade do Estado do Rio de Janeiro, 2013. Os lixiviados de aterros de resíduos sólidos urbanos possuem grande potencial poluidor em face de características tóxicas devido a altas concentrações de nitrogênio amoniacal, substâncias recalcitrantes, além de elevadas concentrações de matéria orgânica. Seu aporte em corpos hídricos, pode causar eutrofização e ser tóxica aos peixes. O alto índice de pluviosidade de nosso país intensifica o problema, pois acarreta em grandes quantidades de lixiviado uma vez que essa produção está diretamente relacionada com a quantidade de água que percola no aterro. Encontrar solução de tratamento para este efluente, que atenda a grande variedade de lixiviados, com características distintas de região para região, e que consigam atender os padrões brasileiros de lançamento de efluentes se constitui em um grande desafio para a Engenharia Nacional. Este trabalho se propôs a contribuir para o melhor conhecimento das características dos lixiviados tendo em vista o seu tratamento.